Stanford ve diğer üniversitelerden araştırmacılar, yapay zeka dil modellerinin insan beyninin cümle anlama süreçlerini ne kadar iyi taklit edebildiğini araştıran yeni bir çalışma yayınladı. Araştırma, 'surprisal teorisi' olarak bilinen psikolinguistik yaklaşımı temel alıyor.
Surprisal teorisi, bir cümledeki kelimenin ne kadar beklenmedik olduğunun, o cümleyi işleme zorluğunu doğru orantılı olarak etkilediğini öne sürüyor. Örneğin 'Kedi fare...' şeklinde başlayan bir cümlede 'yakaladı' kelimesi 'uçtu' kelimesinden daha az şaşırtıcı ve dolayısıyla işlenmesi daha kolay.
Mevcut yapay zeka dil modelleri, günlük basit cümleler için bu teoriyi destekleyen sonuçlar veriyor. Ancak 'garden-path' denilen özel cümle türlerinde durum değişiyor. Bu cümleler, okurken ilk başta bir anlam çıkarıp sonra cümlenin devamıyla birlikte yeniden yorumlamamızı gerektiren yapılardır.
Araştırmacılar, mevcut sinirsel dil modellerinin bu tür karmaşık cümlelerdeki insan zorluğunu ciddi şekilde hafife aldığını keşfetti. Bu durum, yapay zekanın dil işleme mekanizmalarının insan beyninden farklı çalıştığını gösteriyor.
Çalışma, gelecekte daha insan benzeri dil anlama yeteneklerine sahip yapay zeka sistemleri geliştirmek için önemli ipuçları sunuyor ve bilişsel bilimler ile yapay zeka arasındaki köprünün güçlendirilmesine katkıda bulunuyor.