Yapay zeka alanında önemli bir keşif yapan araştırmacılar, büyük dil modellerinin (LLM) insan bilişini anlamada karşılaştığı temel bir sınırlamayı ortaya çıkardı. Bu modeller tek başına duygu analizi veya tutum tespiti gibi görevlerde oldukça başarılı olsalar da, birden fazla bilişsel boyutu aynı anda işlemeye çalıştıklarında ciddi performans düşüşü yaşıyor.
Araştırmacılar bu sorunu incelemek için CognitiveBench adlı ilk kapsamlı benchmark'ı geliştirdi. Bu test paketi, psikolojide tanımlanan dört temel bilişsel boyutu bir arada değerlendiriyor: duygu durumu, düşünce tarzı, tutum ve niyet. Deneyler, mevcut AI modellerinin bu boyutları birlikte analiz etmede beklenmedik şekilde zorlandığını gösterdi.
Bu performans düşüşünün arkasındaki matematiksel nedeni anlamak için araştımacılar Gromov δ-hiperbolik analizi kullandı. Sonuçlar, CognitiveBench'in güçlü bir hiyerarşik yapı sergilediğini ortaya koydu. Bu bulgudan hareketle, sorunu 'Bilişsel Kalabalık' olarak isimlendirdiler.
Bilişsel Kalabalık fenomeni, hiyerarşik bilişsel durumların üstel bir temsil alanı gerektirmesi, ancak mevcut LLM'lerin Öklid uzayının yalnızca polinom büyüme göstermesi arasındaki uyumsuzluktan kaynaklanıyor. Bu keşif, gelecek nesil AI sistemlerinin tasarımında yeni yaklaşımlara ihtiyaç olduğunu işaret ediyor.