Yapay zeka alanında çığır açan yeni bir araştırma, büyük dil modellerinin (LLM) ahlaki değer yargılarında şaşırtıcı bir tutarlılık sergilediğini ortaya koydu. Stanford Üniversitesi'nden araştırmacılar, bu modellerin farklı kişiliklere bürünseler bile temel ahlaki ilkelerden sapmadığını keşfetti.
Araştırma ekibi, binlerce farklı persona ile geniş çaplı rol yapma deneyleri gerçekleştirdi. Beklenti, her kişilik için farklı görüşler ve değer yargıları elde etmekti - tıpkı gerçek insanlarda olduğu gibi. Ancak sonuçlar tamamen farklı çıktı.
Modeller, hangi kişiliğe büründükleri fark etmeksizin, özellikle zarar vermeme ve adalet konularında aynı yönde tutarlı tepkiler verdi. Araştırmacılar bu durumu 'değer yönelimi ve ataleti' olarak tanımladı.
Bu bulgular, yapay zeka sistemlerinin düşünüldüğünden çok daha derin içsel önyargılara sahip olduğunu gösteriyor. Modellerin çok çeşitli görüşleri temsil edebileceği varsayımının aksine, belirli ahlaki değerlere sıkı sıkıya bağlı kaldıkları ortaya çıktı.
Araştırmanın sonuçları, AI sistemlerinin toplumsal karar verme süreçlerinde kullanılmadan önce bu önyargıların dikkatli bir şekilde analiz edilmesi ve gerektiğinde düzeltilmesi gerektiğini vurguluyor. Bu keşif, yapay zeka etiği alanında yeni tartışmaları da beraberinde getiriyor.