Yapay zeka dünyasında büyük dil modelleri, eğitim sürecinde karşılaştıkları metinlerden devasa miktarda bilgiyi öğreniyor. Ancak yeni bir araştırma, bu modellere sonradan yeni bilgiler öğretmenin beklenmedik sonuçlar doğurduğunu ortaya koyuyor.
Araştırmacılar, Llama 3.1 8B, Gemma 2 9B ve Mistral 7B gibi günümüzün önde gelen yapay zeka modellerini kullanarak kapsamlı deneyler gerçekleştirmiş. Bu deneylerde, modellere yedi farklı soru-cevap veri seti üzerinden yeni bilgiler öğretilerek, bu sürecin halüsinasyon oranı üzerindeki etkisi incelenmiş.
Bulgular oldukça dikkat çekici: Modellere ne kadar çok yeni bilgi öğretilirse, o kadar fazla halüsinasyon üretme eğilimi gösteriyorlar. Bu durum özellikle eğitim süresi uzadıkça daha belirgin hale geliyor. Halüsinasyon, yapay zekanın gerçek olmayan veya yanlış bilgiler üretmesi anlamına geliyor.
Araştırma ekibi, bu sorunun nedenlerini anlamak için modellerin içindeki gizli yönleri analiz etmiş ve halüsinasyonlara neden olan spesifik mekanizmaları belirlemeyi başarmış. Bu keşif, yapay zeka sistemlerinin güvenilirliğini artırmak için kritik öneme sahip.
Sonuçlar, yapay zeka modellerinin eğitim süreçlerinin yeniden gözden geçirilmesi gerektiğini ve yeni bilgi entegrasyonu konusunda daha dikkatli yaklaşımlar geliştirilmesi gerektiğini gösteriyor.