Baş ve boyun kanseri tedavisinde yapay zeka destekli sistemler, hastalığın seyrini öngörmede giderek daha fazla kullanılıyor. Ancak bu gelişmiş sistemlerin kararlarını anlamak, klinisyenler için büyük bir engel teşkil ediyor.

Yeni bir araştırma, bu soruna kapsamlı bir çözüm arayışına girişti. Bilim insanları, yapay zekanın kararlarını açıklayan 13 farklı yöntemi ayrıntılı şekilde inceledi. Bu çalışma, açıklanabilir yapay zeka alanında böylesine geniş kapsamlı bir karşılaştırma yapan ilk araştırma olma özelliği taşıyor.

Araştırma ekibi, çok merkezli HECKTOR veri setini kullanarak PET/CT görüntüleri üzerinde çalıştı. Her yöntemi 24 farklı metrik kullanarak değerlendirdiler: sistemin ne kadar güvenilir olduğu, dış etkilere karşı ne kadar dayanıklı olduğu, ne kadar karmaşık olduğu ve sonuçlarının ne kadar makul olduğu.

Sonuçlar oldukça çarpıcı çıktı. Farklı açıklama yöntemleri arasında performans açısından büyük farklar gözlendi. Özellikle Integrated Gradients ve DeepLIFT adlı yöntemler, güvenilirlik, karmaşıklık ve makullük kriterlerinde sürekli olarak yüksek puanlar aldı.

Bu bulgular, tıbbi yapay zeka uygulamalarında doğru açıklama yöntemini seçmenin ne kadar kritik olduğunu gösteriyor ve gelecekte klinik ortamda daha güvenilir AI sistemlerinin geliştirilmesine yol açabilir.