Yapay zeka alanında önemli bir sorun ortaya çıktı: Büyük dil modelleri yeni bilgilerle eğitildiğinde, daha önce doğru bildiği konularda bile yanılsamalı bilgiler üretmeye başlayabiliyor.

Araştırmacılar bu 'faktüel halüsinasyon' olgusu üzerinde kapsamlı bir çalışma gerçekleştirdi. Biography-Reasoning adlı özel olarak tasarlanmış veri setini kullanarak, farklı bilgi türleri ve görev tiplerinde detaylı analizler yaptılar. Bu görevler arasında bilgi tabanlı soru-cevap sistemleri ve mantıksal çıkarım görevleri yer aldı.

Elde edilen bulgular oldukça çarpıcı. Halüsinasyonların sadece yeni tanıtılan bilgilerle ilgili görevleri etkilemediği, aynı zamanda diğer değerlendirme görevlerine de yayıldığı tespit edildi. Bu durum, yapay zeka modellerinin bilgi tutarlılığında ciddi sorunlar yaşayabileceğini gösteriyor.

Özellikle dikkat çekici olan bulgu ise, belirli bir bilgi kategorisinin tamamen yeni bilgilerden oluştuğu veri setleriyle eğitim yapıldığında, modellerin halüsinasyon eğilimlerinin belirgin şekilde arttığının gözlemlenmesi. Bu durum, AI modellerinin güvenilirlik seviyesini doğrudan etkiliyor.

Bu araştırma, yapay zeka sistemlerinin sürekli güncellenmesi ve yeni bilgilerle beslenmesi süreçlerinde dikkatli olunması gerektiğini vurguluyor.