Yapay zeka sistemlerinin güvenliği konusunda yeni bir araştırma, mevcut değerlendirme yöntemlerinin ciddi bir açığını gözler önüne seriyor. Büyük dil modelleri genellikle tehlikeli yetenekler veya istenmeyen davranışlar gibi evrensel riskler açısından test edilirken, gerçek kullanıcılar için ortaya çıkan duruma özgü riskler büyük ölçüde ihmal ediliyor.
Araştırmacılar GPT-5, Claude Sonnet 4 ve Gemini 2.5 Pro modellerini farklı kullanıcı profillerinde test etti. Sonuçlar çarpıcı: Aynı yapay zeka yanıtı, kullanıcının durumunu bilmeyen değerlendiriciler tarafından güvenli bulunurken, kullanıcı bağlamını bilen değerlendiriciler tarafından riskli olarak değerlendirildi.
Bu durum özellikle finans ve sağlık gibi yüksek riskli alanlarda kritik önem taşıyor. Milyonlarca kişi bu konularda yapay zekalardan tavsiye alırken, sistemlerin güvenliği kullanıcının yaşı, sağlık durumu, finansal durumu gibi faktörlere bağlı olarak değişebiliyor.
OECD'nin yapay zeka sınıflandırması bireysel risklerin değerlendirilmesi gerektiğini kabul etse de, kullanıcı refahına odaklanan güvenlik değerlendirmeleri henüz yeterince gelişmemiş durumda. Araştırmacılar, yapay zeka güvenlik testlerinde kullanıcı bağlamının dikkate alınmasının zorunlu hale gelmesi gerektiğini savunuyor.