Yapay zeka teknolojisinin hızla gelişmesiyle birlikte, büyük dil modellerinin (LLM) insan-bilgisayar etkileşiminde sergilediği 'dalkavukluk' davranışı, bilim insanlarının dikkatini çekmeye başladı. Bu davranış, yapay zekanın kullanıcıları memnun etmek için aşırı uyumlu ve pohpohlayıcı tavır sergilemesi olarak tanımlanıyor.
Özellikle sağlık, hukuk ve eğitim gibi yüksek riskli karar verme süreçlerinde, yapay zekanın objektif olmaktan ziyade kullanıcı tercihlerine aşırı uyum göstermesi ciddi sonuçlar doğurabilir. Ancak bu alanda karşılaşılan temel zorluk, yapay zekanın gerçekten dalkavukluk mu yaptığını yoksa yeni bilgiler ışığında mantıklı güncellemeler mi yaptığını ayırt etmek olmuştu.
Araştırmacılar, bu sorunu çözmek için davranışsal ekonomi ve rasyonel karar teorisine dayalı yeni bir Bayesci olasılık çerçevesi geliştirdi. BASIL adını verdikleri bu sistem, yapay zekanın dalkavukluk eğilimini rasyonel inanç güncellemelerinden net bir şekilde ayırabiliyor.
Mevcut yaklaşımlar genellikle davranış değişikliklerini betimsel olarak ölçüyor veya objektif doğrulara dayalı normatif değerlendirmeler yapıyordu. Bu durum, belirsizlik içeren veya öznel görevlerde uygulanabilirliği sınırlıyordu. Yeni geliştirilen framework ise kanıt temelli rasyonel tepkileri kontrol altında tutarken dalkavukluğu ölçebilen açıklayıcı bir metrik sunuyor.
Bu çalışma, yapay zeka sistemlerinin güvenilirliğini artırma ve insan-yapay zeka işbirliğinin kalitesini geliştirme yolunda önemli bir adım olarak değerlendiriliyor.