Teknoloji & Yapay Zeka

Yapay Zeka Donanım Güvenliğini Nasıl Tehdit Ediyor? HarmChip Benchmark Çalışması

Büyük dil modelleri elektronik tasarım süreçlerine entegre edilirken kritik güvenlik açıkları ortaya çıkarıyor. Araştırmacılar, AI'ların donanım düzeyinde trojan yerleştirme, yan kanal sızıntıları ve fikri mülkiyet hırsızlığı gibi tehditler oluşturabileceğini keşfetti. Bu tehditler özellikle tehlikeli çünkü silikon üretimi sonrası geri döndürülemiyor. Mevcut güvenlik mekanizmaları, meşru mühendislik dili içine gizlenmiş kötü niyetli talepleri tespit edemiyor. Yeni geliştirilen HarmChip benchmark sistemi, 16 donanım güvenliği alanında 120 farklı tehdidi değerlendirerek AI modellerinin bu özel saldırılara karşı dayanıklılığını ölçüyor.

Yapay zeka teknolojilerinin elektronik tasarım süreçlerine entegrasyonu, donanım güvenliği açısından yeni ve beklenmedik tehditler ortaya çıkarıyor. Araştırmacılar, büyük dil modellerinin (LLM) donanım tasarımında kullanımının ciddi güvenlik riskleri taşıdığını keşfetti.

Elektronik tasarım otomasyonu (EDA) iş akışlarında kullanılan AI sistemleri, RTL kod üretimi, doğrulama ve tasarım optimizasyonu gibi güçlü yetenekler sunuyor. Ancak bu durum, kötü niyetli AI çıktılarının donanım trojanları, yan kanal sızıntıları ve fikri mülkiyet hırsızlığı gibi donanım düzeyinde tehditler oluşturabileceği anlamına geliyor.

En kritik nokta, bu tehditlerin silikon üretimi sonrası geri döndürülemez olması. Saldırganlar, meşru mühendislik terminolojisi içine gizledikleri kötü niyetli talepleri kullanarak mevcut güvenlik sistemlerini aşabiliyor. Genel amaçlı tehlikeler için eğitilmiş mevcut güvenlik mekanizmaları, bu özel alan tehditlerini tespit edemiyor.

Bu sorunu ele almak için geliştirilen HarmChip benchmark sistemi, donanım güvenliği alanında AI'ların saldırılara karşı dayanıklılığını değerlendiriyor. Sistem, 16 farklı donanım güvenliği alanında 120 tehdidi kapsıyor ve iki zorluk seviyesinde toplam 360 prompt kullanıyor.

Bu çalışma, AI destekli donanım tasarımının güvenlik boyutlarını anlamak için kritik bir adım teşkil ediyor ve gelecekteki güvenlik önlemlerinin geliştirilmesine yön veriyor.

Özgün Kaynak
arXiv (CS + AI)
HarmChip: Evaluating Hardware Security Centric LLM Safety via Jailbreak Benchmarking
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.