Yapay zeka alanında önemli bir çalışma, büyük dil modellerinin (LLM) halüsinasyon üretme süreçlerini derinlemesine inceledi. Stanford Üniversitesi araştırmacıları, AI modellerinin yanlış bilgi üretmesinin arkasındaki mekanizmaları analiz ederek şaşırtıcı sonuçlara ulaştı.

Araştırma ekibi, halüsinasyonları iki kategoriye ayırdı: 'İlişkisiz Halüsinasyonlar' ve 'İlişkili Halüsinasyonlar'. İlişkisiz halüsinasyonlar, modelin parametrelerinde hiçbir dayanağı olmayan çıktılar ürettiği durumları ifade ederken, ilişkili halüsinasyonlar modelin eğitim sırasında öğrendiği sahte çağrışımlardan kaynaklanıyor.

Çalışmanın en çarpıcı bulgusu, sahte çağrışımlara dayalı halüsinasyonların, modelin iç süreçlerinde gerçek bilgi hatırlamayla neredeyse aynı mekanizmaları kullanmasıydı. Bu durum, her iki sürecin de güçlü istatistiksel korelasyonlardan beslendiği için ortaya çıkıyor.

Araştırmacılar, çeşitli deneyler yürüterek modellerin iç durumlarını inceledi. Sonuçlar, yapay zeka modellerinin kendi bilgi eksiklerini tespit etme yeteneğinin düşünülenden çok daha sınırlı olduğunu gösteriyor. Bu bulgu, AI güvenilirliği ve şeffaflığı konularında yeni yaklaşımlar geliştirilmesi gerektiğini ortaya koyuyor.