Stanford Üniversitesi araştırmacıları, yapay zeka sistemlerinin karar verme süreçlerini daha anlaşılır kılmak için yenilikçi bir yaklaşım geliştirdi. Prototype-Grounded Concept Models (PGCM) olarak adlandırılan bu yöntem, AI'ın nasıl 'düşündüğünü' görsel olarak açıklayabiliyor.
Mevcut Concept Bottleneck Modelleri (CBM), yapay zekanın predictions yaparken belirli kavramları kullanmasını sağlıyor ancak bu kavramların gerçekten doğru anlamda öğrenilip öğrenilmediğini kontrol etme imkanı sunmuyor. PGCM'ler ise her kavramı görsel prototiplerle destekleyerek bu sorunu çözüyor. Örneğin AI bir kuşu tanırken, 'gaga' kavramını hangi görsel özelliklerle ilişkilendirdiğini somut olarak gösterebiliyor.
Bu yaklaşımın en önemli avantajı müdahale edilebilirlik özelliği. Sistem yanlış bir kavram öğrendiğinde, araştırmacılar prototip düzeyinde müdahale ederek hatayı düzeltebiliyor. Bu durum özellikle medikal tanı sistemleri gibi kritik uygulamalar için büyük önem taşıyor.
Deneysel sonuçlar, PGCM'lerin mevcut en iyi CBM modellerinin performansını korurken şeffaflık ve anlaşılabilirlik açısından önemli iyileştirmeler sağladığını gösteriyor. Bu gelişme, AI sistemlerinin güvenilirliğini artırmaya yönelik önemli bir adım olarak değerlendiriliyor.