Yapay zeka alanında çığır açan yeni bir çalışma, çelişkili etik görüşleri mantıklı bir şekilde harmanlayarak adil kararlar verebilen bir sistem geliştirdi. Stanford Üniversitesi araştırmacılarının oluşturduğu bu neuro-sembolik framework, özellikle büyük ölçekli ahlaki anlaşmazlıkların çözümünde umut vadediyor.
Geleneksel yöntemler, farklı görüşleri basitçe çoğunluk oylamasıyla birleştirmeye çalışır ve azınlık görüşlerini gürültü olarak değerlendirir. Ancak yeni sistem, Ağırlıklı Maksimum Tatmin Edilebilirlik (Weighted MaxSAT) adlı matematiksel bir yaklaşım kullanarak çatışan görüşleri optimize ediyor.
Sistemin çalışma prensibi oldukça sofistike: Önce doğal dil açıklamalarını anlamlı mantık kurallarına dönüştürüyor, sonra her kurala güven ağırlıkları atıyor. Bu kurallar Z3 çözücüsü içinde yumuşak kısıtlamalar olarak kodlanıyor ve optimizasyon problemi haline getiriliyor.
Reddit'in meşhur r/AmItheAsshole forumunu test alanı olarak kullanan araştırmacılar, sistemin popülerlik tabanlı etiketlerden %62 oranında farklı sonuçlar ürettiğini keşfetti. Daha da önemlisi, bağımsız değerlendirmeciler sistemin kararlarıyla %86 oranında hemfikir oldu.
Bu gelişme, özellikle yapay zeka sistemlerinin etik karar verme süreçlerinde daha adil ve tutarlı yaklaşımlar sergilemesi açısından kritik önem taşıyor.