Teknoloji & Yapay Zeka

Yapay zeka arkadaşlarının güvenliği büyük ölçekte test edildi

Araştırmacılar, duygusal bağ kurma amacıyla tasarlanan yapay zeka arkadaş uygulamalarının güvenlik risklerini değerlendirmek için yeni bir test sistemi geliştirdi. Bu sistem, depresyon, anksiyete ve travma sonrası stres bozukluğu gibi farklı psikolojik profillere sahip sanal kişilikler yaratarak, yapay zeka uygulamalarının bu risk gruplarındaki kişilerle nasıl etkileşim kurduğunu analiz ediyor. Popüler AI arkadaş uygulaması Replika üzerinde yapılan testlerde, 9 farklı kişilik profili ve 1.674 diyalog çifti kullanılarak kapsamlı bir güvenlik analizi gerçekleştirildi. Bu çalışma, kullanıcı güvenliğini gerçek zamanlı olarak değerlendiren ilk ölçeklenebilir çerçeveyi sunuyor.

Duygusal etkileşim kurmaya odaklanan yapay zeka arkadaş uygulamalarının artan popülaritesi, beraberinde önemli güvenlik endişelerini de getiriyor. Araştırmacılar, bu uygulamaların özellikle hassas kullanıcı grupları üzerindeki etkilerini sistematik olarak değerlendirmek için yenilikçi bir test sistemi geliştirdi.

Geliştirilen çerçeve dört temel bileşenden oluşuyor: klinik ve psikometrik doğrulama ile desteklenen kişilik profili oluşturma, bu profillere özgü senaryo üretimi, kişilik özelliklerini koruyan çok turlu diyalog simülasyonu ve zarar değerlendirmesi. Bu yaklaşım, geleneksel güvenlik testlerinin aksine gerçek zamanlı dinamikleri analiz etme imkanı sunuyor.

Sistem, depresyon, anksiyete, travma sonrası stres bozukluğu, yeme bozuklukları ve incel kimliğine sahip bireyleri temsil eden 9 farklı kişilik profili kullanarak test edildi. Yaygın olarak kullanılan AI arkadaş uygulaması Replika üzerinde gerçekleştirilen analizde, toplam 1.674 diyalog çifti incelendi.

Bu çalışma, AI arkadaş uygulamalarının güvenlik değerlendirmesi alanında önemli bir ilke teşkil ediyor. Özellikle psikolojik olarak savunmasız kullanıcı gruplarının bu teknolojilerle etkileşiminde ortaya çıkabilecek risklerin sistematik olarak analiz edilmesi, gelecekteki güvenlik protokollerinin geliştirilmesinde kritik rol oynayacak.

Özgün Kaynak
arXiv — Hesaplamalı Dilbilim (cs.CL)
Persona-Grounded Safety Evaluation of AI Companions in Multi-Turn Conversations
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.