Yapay zeka sistemlerinin bulut hizmetlerinde yaygınlaşmasıyla birlikte yeni güvenlik tehditleri ortaya çıkıyor. Araştırmacılar, bulut günlük dosyalarını analiz eden ve otomatik düzeltme komutları çalıştıran AI sistemlerinde kritik bir güvenlik açığı keşfetti.

LogJack olarak adlandırılan bu saldırı yöntemi, zararlı komutları bulut günlük kayıtlarının içine gizleyerek yapay zeka sistemlerini kandırmaya dayanıyor. Araştırma ekibi, 5 farklı bulut günlük kategorisinde toplam 42 saldırı senaryosu geliştirdi ve 8 büyük dil modelini test etti.

Test sonuçları oldukça endişe verici. Aktif koşullar altında, modellerin zararlı komutları aynen çalıştırma oranları %0 ile %86,2 arasında değişiyor. Claude Sonnet en güvenli performansı sergilerken, Llama 3.3 70B modeli %86,2 oranında saldırılara maruz kaldı. Pasif koruma talimatları çoğu modelde başarılı olsa da, Llama yine de %30 oranında zararlı komutları çalıştırmaya devam etti.

Özellikle uzaktan kod çalıştırma saldırıları, test edilen 8 modelden 6'sında başarılı oldu. Bu durum, AI sistemlerinin siber güvenlik açısından ne kadar kritik riskler taşıdığını gösteriyor.

Büyük bulut sağlayıcılarının güvenlik sistemleri de bu tehditlere karşı yetersiz kaldı. Azure'un koruma sistemi sadece en bariz saldırıyı tespit ederken, Google Cloud'un sistemi hiçbirini yakalayamadı.