Büyük dil modellerinin en ciddi sorunlarından biri olan halüsinasyon - yani gerçek dışı bilgi üretimi - üzerine yapılan yeni bir araştırma, bu problemin kökenini ve çözümünü ortaya koyuyor.
Araştırmacılar, yapay zeka modellerinin denetimli ince ayar (supervised fine-tuning) sürecinde yeni faktörel bilgilerle karşılaştıklarında, önceden öğrendikleri doğru bilgileri unutma eğilimi gösterdiğini tespit etti. Bu durum, modellerin yanlış bilgi üretme oranını önemli ölçüde artırıyor.
Sorunu çözmek için araştırma ekibi, sürekli öğrenme literatüründen faydalanarak kendini-damıtma temelli bir yöntem geliştirdi. Bu teknik, modelin çıktı dağılımındaki sapmaları düzenleyerek, yeni bilgileri etkili şekilde öğrenmesini sağlarken mevcut bilgi tabanını korumaya odaklanıyor.
Önemli bir diğer bulgu ise, yeni bilgi edinmenin gerekli olmadığı durumlarda, belirli parametre gruplarını dondurmak suretiyle faktörel esnekliği bastırmanın mümkün olduğu. Bu yaklaşım, görev performansını korurken halüsinasyonları belirgin şekilde azaltıyor.
Bu çalışma, yapay zeka sistemlerinin güvenilirliği açısından kritik bir adım olarak değerlendiriliyor ve gelecekteki dil modellerinin tasarımında yol gösterici olacak.