Tıpta yapay zeka kullanımının yaygınlaşmasıyla birlikte, bu sistemlerin ürettiği bilgilerin doğruluğu kritik önem taşıyor. Araştırmacılar, büyük dil modellerinin tıbbi özetleme sırasında bazen gerçek olmayan bilgiler üretmesi - yani 'halüsinasyon' yapması - sorununa yenilikçi bir çözüm geliştirdi.
ClinTrace adı verilen bu sistem, transformer tabanlı modellerin zaten ürettiği dikkat ağırlıklarını kullanarak iki önemli işlevi yerine getiriyor. İlk olarak, üretilen her cümlenin hangi kaynak metinden ya da görüntüden geldiğini detaylı bir şekilde gösteriyor. İkinci olarak da, her cümle için bir güvenilirlik skoru hesaplayarak kanıtı zayıf olan ifadeleri potansiyel halüsinasyon olarak işaretliyor.
Sistemin en büyük avantajı, mevcut modellere hiçbir değişiklik yapmadan çalışabilmesi. Ek eğitim, yardımcı model ya da hesaplama maliyeti gerektirmiyor. Bu da onu kliniklerde hemen kullanılabilir hale getiriyor.
Doktor-hasta görüşme özetleri ve radyoloji raporu özetleme görevlerinde test edilen ClinTrace, tıbbi yapay zeka sistemlerinin şeffaflığını ve güvenilirliğini önemli ölçüde artırıyor. Bu gelişme, yapay zekanın tıpta daha güvenli kullanımı için önemli bir adım olarak değerlendiriliyor.