Federal kurumların halkın görüşlerini değerlendirmek için giderek daha fazla kullandığı büyük dil modellerinin (LLM) tüm vatandaşlara eşit mesafede yaklaşıp yaklaşmadığını inceleyen yeni bir araştırma, demokratik süreçlerde yapay zeka kullanımıyla ilgili ciddi endişeleri gündeme getiriyor.

Cornell Üniversitesi araştırmacıları tarafından yürütülen çalışmada, federal kullanım için mevcut olan 8 farklı büyük dil modeli test edildi. Araştırmacılar, yorum içeriğini sabit tutarak sadece yorumcunun demografik özelliklerini - ırkını, cinsiyetini ve sosyoekonomik durumunu - değiştiren bir karşılaştırmalı deney tasarımı kullandı.

182 halk yorumu üzerinde 32 farklı kimlik koşulunda gerçekleştirilen deneylerde, 106.000'den fazla özet analiz edildi. Sonuçlar, yapay zeka modellerinin meslek bilgisine dayalı olarak tutarlı bir şekilde farklı davrandığını ortaya çıkardı.

En çarpıcı bulgu, aynı yorum sokak satıcısına atfedildiğinde, finansal analist olarak sunulan versiyona kıyasla özetlerin orijinal anlamın daha azını koruduğu, daha basit dil kullandığı ve duygusal tonun değiştiği gözlemlendi. Bu durum, yapay zeka sistemlerinin sosyal statü önyargılarını yansıttığını ve demokratik katılım süreçlerinde eşitlik ilkesini zedeleyebileceğini gösteriyor.

Araştırmanın bulguları, federal kurumların halkın görüşlerini değerlendirmek için yapay zeka kullanırken bu sistemlerin adalet ve eşitlik standartlarını sağlayacak önlemler alması gerektiğine işaret ediyor.