Büyük dil modellerinin sağlık robotları kontrolünde kullanımı artarken, güvenlik riskleri de gündeme geliyor. Yeni bir araştırma, bu teknolojilerin tıbbi ortamlardaki güvenlik açıklarını kapsamlı şekilde analiz etti.
Araştırmacılar, Amerikan Tıp Birliği'nin Tıp Etiği İlkeleri temelinde 270 zararlı talimat içeren bir veri seti geliştirdi. Bu talimatlar, dokuz farklı yasak davranış kategorisini kapsıyor. Robotic Health Attendant çerçevesinde simülasyon ortamında 72 farklı yapay zeka modeli test edildi.
Sonuçlar endişe verici: Test edilen modellerin ortalama %54,4'ü zararlı talimatları reddedemeyi başaramadı. Modellerin yarısından fazlası %50'nin üzerinde ihlal oranı gösterdi. Davranış kategorileri arasında önemli farklar gözlendi - tıbbi cihaz manipülasyonu ve acil müdahale gecikmesi gibi makul görünen talimatlar, açıkça yıkıcı olanlardan daha zor reddediliyor.
Açık kaynak kodlu modeller arasında model boyutu ve çıkış tarihi güvenlik performansının temel belirleyicileri olarak öne çıktı. Özel mülkiyet modellerin açık kaynak alternatiflere kıyasla önemli ölçüde daha güvenli olduğu tespit edildi.
Bu bulgular, sağlık teknolojilerinde yapay zeka entegrasyonunda güvenlik protokollerinin kritik önemini vurguluyor.