Yapay zeka alanında önemli bir keşif yapan araştırmacılar, çok modlu büyük dil modellerinde daha önce fark edilmeyen ciddi bir zafiyet ortaya çıkardı. 'Endojen mantık kayması' olarak adlandırılan bu durum, modellerin herhangi bir dış etki olmaksızın kendi düşünce süreçleri sırasında davranış değişikliklerine uğramasını ifade ediyor.
Çalışma, mevcut araştırmaların genellikle veri kaynaklı dış faktörlerin neden olduğu dağılım kaymaları üzerine odaklandığını, ancak modellerin içsel mantık süreçlerindeki kararsızlığın göz ardı edildiğini gösteriyor. Bu iç kayma, modellerin otoregresif metin üretimi sırasında hem düşünce hem de algı boyutlarında öngörülemeyen değişiklikler yaşamasına neden oluyor.
Araştırmacılar, bu sorunu teorik olarak 'çok modlu kavram kayması' çerçevesinde tanımlayarak, Pekiştirmeli İnce Ayar (RFT) sürecindeki bu zafiyeti analiz etti. Sorunun çözümü için Counterfactual Prefer adlı yenilikçi bir yaklaşım geliştirdiler.
Bu keşif, yapay zeka güvenilirliği açısından kritik önem taşıyor. Modellerin kararlı ve tutarlı performans sergileyebilmesi için sadece dış faktörlere değil, içsel mantık süreçlerine de odaklanılması gerektiğini ortaya koyuyor. Özellikle insan değerleriyle uyumlu AI sistemleri geliştirme sürecinde bu bulgular yol gösterici olacak.