Yapay zeka teknolojilerinin tıp alanında artan kullanımı, yeni etik ve güvenlik sorunlarını gündeme getiriyor. Yeni bir araştırma, büyük dil modellerinin (LLM) tıbbi konularda gerçek bilgilerle çelişen bilgilerle karşılaştıklarında nasıl davrandığını inceleyerek bu konuda önemli bulgular ortaya koydu.
Araştırmacılar, MedCounterFact adlı özel bir veri seti geliştirerek yapay zeka modellerinin davranışlarını test etti. Bu veri setinde, gerçek tıbbi müdahaleler ve tedaviler sistematik olarak dört farklı türde karşıt uyaranla değiştirildi: bilinmeyen kelimelerden toksik maddelere kadar uzanan bir spektrumda. Modellerin, randomize kontrollü çalışma sonuçları gibi sahte delillerle desteklenen bu karşıt bilgilere nasıl tepki verdiği gözlemlendi.
Çalışma, yapay zeka sistemlerinin iki kritik gereksinim arasında sıkıştığını gösteriyor: bir yandan verilen bağlama sadık kalma (faithfulness), diğer yandan güvenlik protokollerini koruma. Özellikle tıp gibi yaşamsal önem taşıyan alanlarda bu denge son derece kritik hale geliyor.
Sonuçlar, mevcut yapay zeka modellerinin bu tür karşıt delillerle karşılaştıklarında tutarsız davranışlar sergileyebildiğini ortaya koyuyor. Bu durum, tıbbi yapay zeka uygulamalarının geliştirilmesinde daha sağlam güvenlik mekanizmalarına ihtiyaç olduğunu gösteriyor.