Yapay zeka sistemlerinin kararlarını insan anlayışına uygun hale getiren teknolojide önemli bir adım atıldı. Araştırmacılar, 'karşı-olgusal açıklamalar' olarak bilinen ve AI'nın neden belirli kararlar verdiğini gösteren yöntemlerde yeni bir yaklaşım geliştirdi.

Karşı-olgusal açıklamalar, 'Bu kredi başvurusu neden reddedildi ve kabul edilmesi için ne değiştirilmeli?' gibi sorulara yanıt veren önemli araçlardır. Ancak mevcut yöntemlerin temel sorunu, AI modelinde yapılan en küçük değişikliklerde bile açıklamaların geçersiz hale gelmesiydi.

Yeni geliştirilen yöntem, bu sorunu çözmek için birden fazla AI modelinin fikir birliğini temel alan olasılıksal bir yaklaşım benimsiyor. Sistem, veri dağılımını ve olası model kararlarını birlikte modelleyerek, model değişikliklerine karşı dayanıklılık sağlıyor.

Araştırmacılar, koşullu normalleştirici akış adı verilen bir teknik kullanarak, farklı sınıflandırıcı anlaşma seviyelerinde veri yoğunluğunu yakalayan bir sistem oluşturdu. En önemli özelliği ise tek bir parametre ile sağlamlık seviyesinin kontrol edilebilmesi - bu parametre, hedef sınıf üzerinde anlaşması gereken minimum model oranını belirliyor.

Bu gelişme, özellikle tıp, finans ve hukuk gibi kritik alanlarda kullanılan yapay zeka sistemlerinin açıklanabilirliğini artırması açısından büyük önem taşıyor.