Büyük dil modellerinin böbrek nakli gibi yaşamsal öneme sahip kararlar almasıyla ilgili yapılan yeni bir araştırma, bu sistemlerin insan değerlerinden önemli sapmalara sahip olduğunu ortaya koyuyor.
Araştırmacılar, ChatGPT ve benzeri yapay zeka modellerinin böbrek tahsis senaryolarında nasıl karar verdiklerini insan tercihlerıyle karşılaştırdı. Sonuçlar, yapay zeka sistemlerinin iki temel alanda problematik davranışlar sergilediğini gösteriyor.
İlk olarak, yapay zeka modelleri hasta öncelik sıralamasında kullandıkları kriterlerde insanlardan belirgin şekilde farklılaşıyor. İnsan karar vericiler yaş, sağlık durumu ve yaşam beklentisi gibi faktörleri farklı şekilde değerlendirirken, yapay zeka sistemleri bu öncelikleri farklı biçimde sıralıyor.
İkinci kritik fark ise kararsızlık konusunda ortaya çıkıyor. İnsanlar zor ahlaki kararlarda sıklıkla kararsız kalabilir veya alternatif çözümler arayabilirken, yapay zeka modelleri neredeyse hiçbir zaman böyle bir davranış göstermiyor. Araştırmacılar, yazı tura gibi karar verme mekanizmaları sunduklarında bile, sistemlerin kesin kararlar vermeyi tercih ettiğini gözlemledi.
Araştırma ekibi, az sayıda örnekle yapılan denetimli ince ayar eğitiminin hem karar tutarlılığını artırmada hem de kararsızlık modellemesini kalibre etmede etkili olduğunu da gösterdi. Bu bulgular, ahlaki alanlarda çalışan yapay zeka sistemleri için açık hizalama stratejilerinin zorunluluğunu vurguluyor.