Tıp & Sağlık

Yapay zeka tıbbi görüntülerin arkasına saklanarak doktorları kandırabiliyor

Araştırmacılar, tıbbi görüntü analizi yapan yapay zeka sistemlerine karşı yeni bir saldırı yöntemi geliştirdi. MedFocusLeak adı verilen bu teknik, görüntülerin arka plan bölgelerine gözle fark edilmeyen değişiklikler yaparak yapay zekanın yanlış tanı koymasına neden oluyor. Saldırı, hastalıklı bölgelere odaklanması gereken yapay zekanın dikkatini başka yönlere çekerek, klinik açıdan makul görünen ama yanlış teşhisler üretmesini sağlıyor. Altı farklı tıbbi görüntüleme modalitesinde test edilen yöntem, mevcut güvenlik önlemlerinin yetersizliğini ortaya koyuyor ve tıbbi yapay zeka sistemlerinin güvenilirliği konusunda önemli endişeler yaratıyor.

Tıbbi teşhiste yapay zeka kullanımının yaygınlaşmasıyla birlikte, bu sistemlerin güvenlik açıkları da gündeme geliyor. Yeni bir araştırma, tıbbi görüntü analizi yapan yapay zeka modellerinin nasıl kandırılabileceğini gösteren sofistike bir saldırı yöntemi ortaya koydu.

MedFocusLeak adı verilen bu saldırı tekniği, tıbbi görüntülerin tanı açısından önemli olmayan arka plan bölgelerine müdahale ederek çalışıyor. Araştırmacılar, bu bölgelere insan gözüyle fark edilemeyecek kadar küçük değişiklikler yaparak, yapay zekanın dikkatini hastalıklı dokulardan uzaklaştırmayı başarıyor.

Saldırının en tehlikeli yanı, ürettiği yanlış tanıların klinik açıdan makul görünmesi. Bu durum, deneyimli hekimlerin bile aldatılmasına yol açabilir. Sistem, görüntüdeki patolojik alanlara odaklanması gerekirken, manipüle edilmiş arka plan bölgeleri tarafından yanıltılıyor.

Araştırmada altı farklı tıbbi görüntüleme yöntemi test edildi ve saldırının tamamında başarılı sonuçlar elde edildi. Bu durum, mevcut tıbbi yapay zeka sistemlerinin güvenlik açıklarının ne kadar yaygın olduğunu gösteriyor.

Uzmanlar, tıbbi yapay zeka sistemlerinin klinik kullanıma geçmeden önce bu tür saldırılara karşı daha güçlü koruma mekanizmalarıyla donatılması gerektiğini vurguluyor.

Özgün Kaynak
arXiv (CS + AI)
When Background Matters: Breaking Medical Vision Language Models by Transferable Attack
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.