Teknoloji & Yapay Zeka

Yapay Zeka Böbrek Nakli Kararlarında İnsan Değerlerinden Sapıyor

Araştırmacılar, büyük dil modellerinin böbrek nakli gibi yaşamsal kararlarda insan değerlerinden ne kadar saptığını ortaya koydu. Yapay zeka sistemleri, hastane öncelik sıralamasında insanlardan farklı kriterler kullanıyor ve kararsız kalma yerine kesin kararlar verme eğiliminde. Stanford ve diğer üniversitelerden araştırmacılar, ChatGPT gibi modellerin ahlaki karar verme süreçlerini test ettiklerinde, sistemlerin insan yargılarıyla uyumsuz davrandığını tespit etti. Özellikle belirsiz durumlarda insanlar kararsız kalabilirken, yapay zeka modelleri her durumda net bir tercih yapma eğiliminde. Bu bulgular, sağlık sektöründe kritik kararlar alan yapay zeka sistemlerinin insan değerleriyle uyumlu hale getirilmesi gerekliliğini vurguluyor.

Büyük dil modellerinin böbrek nakli gibi yaşamsal öneme sahip kararlar almasıyla ilgili yapılan yeni bir araştırma, bu sistemlerin insan değerlerinden önemli sapmalara sahip olduğunu ortaya koyuyor.

Araştırmacılar, ChatGPT ve benzeri yapay zeka modellerinin böbrek tahsis senaryolarında nasıl karar verdiklerini insan tercihlerıyle karşılaştırdı. Sonuçlar, yapay zeka sistemlerinin iki temel alanda problematik davranışlar sergilediğini gösteriyor.

İlk olarak, yapay zeka modelleri hasta öncelik sıralamasında kullandıkları kriterlerde insanlardan belirgin şekilde farklılaşıyor. İnsan karar vericiler yaş, sağlık durumu ve yaşam beklentisi gibi faktörleri farklı şekilde değerlendirirken, yapay zeka sistemleri bu öncelikleri farklı biçimde sıralıyor.

İkinci kritik fark ise kararsızlık konusunda ortaya çıkıyor. İnsanlar zor ahlaki kararlarda sıklıkla kararsız kalabilir veya alternatif çözümler arayabilirken, yapay zeka modelleri neredeyse hiçbir zaman böyle bir davranış göstermiyor. Araştırmacılar, yazı tura gibi karar verme mekanizmaları sunduklarında bile, sistemlerin kesin kararlar vermeyi tercih ettiğini gözlemledi.

Araştırma ekibi, az sayıda örnekle yapılan denetimli ince ayar eğitiminin hem karar tutarlılığını artırmada hem de kararsızlık modellemesini kalibre etmede etkili olduğunu da gösterdi. Bu bulgular, ahlaki alanlarda çalışan yapay zeka sistemleri için açık hizalama stratejilerinin zorunluluğunu vurguluyor.

Özgün Kaynak
arXiv (CS + AI)
Who Gets the Kidney? Human-AI Alignment, Indecision, and Moral Values
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.