Yapay zeka sistemlerinin etik karar verme süreçlerinde ciddi bir açık keşfedildi. Araştırmacılar, ahlaki yükümlülükleri matematiksel olarak modelleyen sistemlerde 'deontik patlama' adı verilen bir sorunla karşılaştıklarını açıkladı.
Carmo ve Jones tarafından 1997-2022 yılları arasında geliştirilen koşullu yükümlülük sistemleri üzerinde yapılan incelemede, sistemin tutarsız sonuçlar ürettiği ortaya çıktı. En son versiyonda tespit edilen sorun şu şekilde: Bir öğrencinin sınavdan en yüksek puanı alamadığı durumda, sistem herhangi bir geçer notu kabul edilebilir olarak değerlendiriyor.
Bu durum, yapay zeka sistemlerinin etik çerçeveler içinde karar verirken karşılaştığı temel zorluklardan birini gözler önüne seriyor. Sistemin ahlaki kuralları yorumlama biçimi, beklenmedik ve mantıksız sonuçlara yol açabiliyor.
Araştırmacılar olumsuz sonuçların yanında pozitif bir keşif de yaptı. 1997 tarihli sistemin en güçlü versiyonunu yeniden inceleyerek, tüm geçerli modellerin tek bir 'yasak olası dünya' kavramıyla sınıflandırılabileceğini gösterdiler. Bu bulgu, gelecekteki AI etik sistemlerinin tasarımında yol gösterici olabilir.