Tıbbi teşhiste yapay zeka kullanımının yaygınlaşmasıyla birlikte, bu sistemlerin güvenlik açıkları da gündeme geliyor. Yeni bir araştırma, tıbbi görüntü analizi yapan yapay zeka modellerinin nasıl kandırılabileceğini gösteren sofistike bir saldırı yöntemi ortaya koydu.
MedFocusLeak adı verilen bu saldırı tekniği, tıbbi görüntülerin tanı açısından önemli olmayan arka plan bölgelerine müdahale ederek çalışıyor. Araştırmacılar, bu bölgelere insan gözüyle fark edilemeyecek kadar küçük değişiklikler yaparak, yapay zekanın dikkatini hastalıklı dokulardan uzaklaştırmayı başarıyor.
Saldırının en tehlikeli yanı, ürettiği yanlış tanıların klinik açıdan makul görünmesi. Bu durum, deneyimli hekimlerin bile aldatılmasına yol açabilir. Sistem, görüntüdeki patolojik alanlara odaklanması gerekirken, manipüle edilmiş arka plan bölgeleri tarafından yanıltılıyor.
Araştırmada altı farklı tıbbi görüntüleme yöntemi test edildi ve saldırının tamamında başarılı sonuçlar elde edildi. Bu durum, mevcut tıbbi yapay zeka sistemlerinin güvenlik açıklarının ne kadar yaygın olduğunu gösteriyor.
Uzmanlar, tıbbi yapay zeka sistemlerinin klinik kullanıma geçmeden önce bu tür saldırılara karşı daha güçlü koruma mekanizmalarıyla donatılması gerektiğini vurguluyor.