Açıklanabilir yapay zeka alanında yaygın olarak kullanılan sadakat tabanlı değerlendirme yöntemlerinin ciddi sınırları olduğunu gösteren yeni bir araştırma, AI açıklanabilirlik yaklaşımlarımızı yeniden düşünmemizi gerektiriyor.
Araştırmacılar, vekil modellerin sinir ağlarının tahminlerine ne kadar sadık olduğunu ölçen geleneksel yöntemlerin yanıltıcı sonuçlar verebileceğini ortaya koydu. Asıl sorun, sadakat ölçümlerinin öğrenilmiş modelle uyumluluğu değerlendirirken, görevin altında yatan gerçek veri üretim sinyaliyle uyumluluğu göz ardı etmesi.
Çalışma kapsamında geliştirilen 'doğrusallık skoru' λ(f), bir regresyon ağının girdi-çıktı davranışının ne ölçüde doğrusal olarak çözümlenebileceğini ölçen yeni bir tanı aracı olarak öne çıkıyor. Bu skor, vekil modelin ağa uyum derecesini R² ölçümü şeklinde tanımlıyor.
Hem sentetik hem de gerçek dünya veri setleri üzerinde yapılan deneyler şaşırtıcı sonuçlar ortaya koydu: Vekil modeller sinir ağlarına yüksek sadakat gösterirken, aynı zamanda ağların basit modellerden ayıran öngörü avantajlarını yakalamada başarısız olabiliyor. Bazı durumlarda, yüksek sadakatli vekil modeller, doğrudan veri üzerinde eğitilmiş basit doğrusal modellerin bile gerisinde kalıyor.
Bu bulgular, bir modelin davranışını açıklamanın, görevle ilgili yapısal bilgiyi açıklamakla aynı şey olmadığını net bir şekilde ortaya koyuyor ve AI açıklanabilirlik alanında yeni yaklaşımlara olan ihtiyacı vurguluyor.