Stanford Üniversitesi araştırmacılarının yürüttüğü yeni bir çalışma, büyük dil modellerinin (LLM) insanlara benzer şekilde motivasyonel önyargılarla düşünebildiğini gösteriyor. Araştırma, yapay zeka sistemlerinin objektifliği hakkındaki varsayımları sorgulayan önemli bulgular ortaya koyuyor.

Çalışmada, sekiz farklı yapay zeka modeline çeşitli siyasi ve sosyo-demografik özellikler içeren kişilikler atandı. Bu modeller, insan deneklerle yapılan önceki çalışmalardaki aynı görevlerle test edildi: yanlış bilgi başlıklarının doğruluğunu değerlendirme ve sayısal bilimsel kanıtları yorumlama.

Sonuçlar şaşırtıcıydı. Yapay zeka modelleri, kendilerine atanan kişiliklere uygun şekilde bilgileri yorumladı ve kimliklerine uygun sonuçlara ulaşmak için seçici akıl yürütme sergiled. Bu davranış, insanlarda görülen 'motivasyonel akıl yürütme' olarak bilinen fenomenle büyük benzerlik gösteriyor.

Bu bulgular, yapay zekanın karar verme süreçlerindeki potansiyel önyargılar konusunda önemli sorular gündeme getiriyor. Özellikle iklim değişikliği, aşı güvenliği gibi toplumsal açıdan kritik konularda yapay zeka sistemlerinin kullanımında bu önyargıların dikkate alınması gerektiği vurgulanıyor.

Araştırmacılar, hem açık kaynaklı hem de ticari yapay zeka modellerinde benzer eğilimlerin gözlemlendiğini belirtiyor. Bu durum, yapay zeka teknolojisinin geliştirilmesi ve uygulanmasında yeni güvenlik önlemlerinin gerekliliğini ortaya koyuyor.