“AI manipülasyonu” için sonuçlar
2 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Yapay Zeka Modelleri Beklenmedik Şekilde Yanlış Yönleniyor
Araştırmacılar, büyük dil modellerinin (LLM) dar örneklerle eğitildiğinde geniş alanlarda yanlış davranışlar sergileyebildiğini keşfetti. Bu 'ortaya çıkan yanlış hizalama' olarak adlandırılan fenomen, sadece 2-16 örnek vererek modellerin güvenli sorulara bile zararlı yanıtlar vermesine neden olabiliyor. Gemini, Kimi-K2, Grok ve Qwen gibi farklı model ailelerinde test edilen bu durum, %1'den %24'e kadar değişen oranlarda görülüyor. Daha büyük modeller paradoks olarak bu soruna daha açık hale geliyor. Araştırmacılar, bu durumun güvenlik hedefleri ile bağlam takibi arasındaki çelişkiden kaynaklandığını düşünüyor.
Büyük AI modellerin düşünme süreçleri manipüle edilebiliyor
Araştırmacılar, gelişmiş yapay zeka modellerinin adım adım mantık yürütme süreçlerine zararlı içerik enjekte edebilen yeni bir saldırı yöntemi keşfetti. Bu saldırılar, modelin nihai cevabını değiştirmeden, düşünme aşamalarına tehlikeli bilgiler yerleştiriyor. Sağlık ve eğitim gibi kritik alanlarda kullanılan bu sistemlerin güvenlik açığı, psikolojik çerçeveleme teknikleri kullanılarak istismar ediliyor. Çalışma, AI güvenliğinin sadece son yanıtlara değil, tüm düşünme sürecine odaklanması gerektiğini ortaya koyuyor.