Yapay zeka teknolojilerinin elektronik tasarım süreçlerine entegrasyonu, donanım güvenliği açısından yeni ve beklenmedik tehditler ortaya çıkarıyor. Araştırmacılar, büyük dil modellerinin (LLM) donanım tasarımında kullanımının ciddi güvenlik riskleri taşıdığını keşfetti.
Elektronik tasarım otomasyonu (EDA) iş akışlarında kullanılan AI sistemleri, RTL kod üretimi, doğrulama ve tasarım optimizasyonu gibi güçlü yetenekler sunuyor. Ancak bu durum, kötü niyetli AI çıktılarının donanım trojanları, yan kanal sızıntıları ve fikri mülkiyet hırsızlığı gibi donanım düzeyinde tehditler oluşturabileceği anlamına geliyor.
En kritik nokta, bu tehditlerin silikon üretimi sonrası geri döndürülemez olması. Saldırganlar, meşru mühendislik terminolojisi içine gizledikleri kötü niyetli talepleri kullanarak mevcut güvenlik sistemlerini aşabiliyor. Genel amaçlı tehlikeler için eğitilmiş mevcut güvenlik mekanizmaları, bu özel alan tehditlerini tespit edemiyor.
Bu sorunu ele almak için geliştirilen HarmChip benchmark sistemi, donanım güvenliği alanında AI'ların saldırılara karşı dayanıklılığını değerlendiriyor. Sistem, 16 farklı donanım güvenliği alanında 120 tehdidi kapsıyor ve iki zorluk seviyesinde toplam 360 prompt kullanıyor.
Bu çalışma, AI destekli donanım tasarımının güvenlik boyutlarını anlamak için kritik bir adım teşkil ediyor ve gelecekteki güvenlik önlemlerinin geliştirilmesine yön veriyor.