Yapay zeka teknolojisinin hızla gelişmesiyle birlikte, büyük dil modelleri insan panellerine alternatif olarak görülmeye başlandı. Ancak Stanford Üniversitesi araştırmacılarının yaptığı kapsamlı çalışma, bu yaklaşımın beklenmedik riskler barındırdığını ortaya koyuyor.
Araştırmacılar, PhilPeople veritabanından seçilen 277 profesyonel filozofun görüşlerini, yedi farklı büyük dil modeliyle karşılaştırdı. Sonuçlar oldukça çarpıcı: yapay zeka modelleri, farklı felsefî pozisyonları başarılı bir şekilde temsil edemeyerek görüş çeşitliliğini sistematik olarak yok ediyor.
En kritik bulgu, modellerin felsefî yargıları aşırı derecede ilişkilendirmesi oldu. Gerçek filozoflar arasında var olan görüş farklılıkları, yapay zeka tarafından yapay bir konsensüse dönüştürülüyor. Bu durum, özellikle uzmanların belirli alanlarda benzer görüşlere sahip olduğu yönündeki yanlış varsayımdan kaynaklanıyor.
Çalışma, hem açık kaynaklı hem de ticari modelleri kapsıyor ve DPO (Direct Preference Optimization) gibi eğitim tekniklerinin etkisini de inceliyor. Bulgular, yapay zekanın toplumsal karar alma süreçlerinde kullanımının dikkatli değerlendirilmesi gerektiğini gösteriyor.
Bu araştırma, yapay zeka etiği ve AI hizalama alanındaki tartışmalara önemli katkılar sunarak, teknolojinin demokratik süreçlerdeki potansiyel risklerine dikkat çekiyor.