Yapay zeka güvenliği alanında paradigma değişikliği yaşanıyor. Büyük dil modellerinin (LLM) güvenlik araştırmaları, 'model eğitim verilerini sızdırır mı?' sorusundan çok daha kritik bir noktaya evrildi: Kalıcı, uzun süreli hafızaya sahip yapay zeka ajansları sürekli olarak şekillendirilebilir, oturumlar arası manipüle edilebilir ve yetkisiz erişime maruz kalabilir mi?
arXiv'de yayımlanan kapsamlı bir araştırma, bu soruya bilimsel bir çerçeve getiriyor. Çalışma, bilişsel sinirbilim ve hafıza felsefesinden yararlanarak yapay zeka hafızasının temel özelliklerini tanımlıyor: değiştirilebilir, yeniden yazılabilir ve sosyal olarak yayılabilir olması.
Araştırmacılar, 'hafıza yaşam döngüsü' adını verdikleri altı aşamalı bir güvenlik çerçevesi geliştirdi. Bu aşamalar şunları kapsıyor: Yazma, Saklama, Geri Çağırma, Yürütme, Paylaşma ve Unutma/Geri Alma. Her aşama dört temel güvenlik hedefi açısından değerlendiriliyor: bütünlük, gizlilik, erişilebilirlik ve yönetişim.
Çalışmanın öne çıkardığı 'mnemonik egemenlik' kavramı, yapay zeka ajanslarının hafıza sistemleri üzerindeki kontrol meselesini ele alıyor. Bu yaklaşım, sadece teknik güvenlik açıklarını değil, aynı zamanda organizasyonel ve sosyal bağlamlarda ortaya çıkabilecek güvenlik risklerini de inceliyor.
Araştırma, yapay zeka ajanslarının kurumsal ortamlarda yaygınlaştıkça karşılaşacağımız yeni siber güvenlik zorluklarına dikkat çekerek, bu alanda proaktif güvenlik önlemlerinin gerekliliğini vurguluyor.