Siber güvenlik alanında endişe verici bir gelişme yaşanırken, araştırmacılar donanım tabanlı güvenlik sistemleriyle korunan yapay zeka modellerini hedef alan yeni bir saldırı tekniği ortaya çıkardı.
TrEEStealer olarak adlandırılan bu yöntem, özellikle Güvenilir Yürütme Ortamları (TEE) ile korunan karar ağaçlarını çalmaya odaklanıyor. Karar ağaçları, finans sektöründen sağlık hizmetlerine kadar pek çok kritik alanda kullanılan popüler makine öğrenmesi modelleri olarak biliniyor.
Geleneksel model çalma saldırıları genellikle binlerce sorgu gerektiriyor ve modelin yapısı hakkında güçlü varsayımlar yapıyor. Ancak TrEEStealer, yan kanal saldırılarını kullanarak bu sınırlamaları aşmayı başarıyor. Bu teknik, TEE sistemlerinin donanım düzeyindeki güvenlik açıklarını istismar ederek korunan modellere erişim sağlıyor.
Bu gelişme, özellikle bulut tabanlı makine öğrenmesi hizmetleri (MLaaS) için ciddi sonuçlar doğuruyor. Model sahipleri, değerli algoritmalarını API'ler aracılığıyla satarken, bu tür saldırılar mevcut iş modellerini tehlikeye atıyor.
Çalınan modeller sadece fikri mülkiyet kaybına yol açmakla kalmıyor, aynı zamanda eğitim verilerindeki hassas bilgilere yönelik gizlilik saldırılarını ve model kaçınma tekniklerini de mümkün kılıyor. Bu durum, donanım güvenliğinin mutlak olmadığını bir kez daha gözler önüne seriyor.