Yapay zekanın tıp alanına entegrasyonunda karşılaşılan en kritik engellerden biri, büyük dil modellerinin opak ve güvenilmez muhakeme yapıları. Hasta güvenliğinin hayati önem taşıdığı sağlık sektöründe, sadece doğru cevaplar yeterli değil - klinisyenler, AI'nın nasıl bir sonuca vardığını tam olarak anlayabilmeli.
Mevcut AI sistemlerinin en tehlikeli zayıflığı, 'hatalı mantıkla doğru cevaplar' üretme eğilimi. Bu durum, modelin gerçek dünya karmaşıklığıyla karşılaştığında öngörülemeyen hatalar yapabileceğini ve halüsinasyonlara eğilimli olduğunu gösteriyor.
Araştırmacılar bu sorunu çözmek için Toulmin argumentation modelini tanı süreçlerine uyarlayarak güvenilir klinik argumentation çerçevesi oluşturdular. Geliştirdikleri Curriculum Goal-Conditioned Learning (CGCL) eğitim sistemi, AI'nın sadece doğru tanı koymasını değil, bu tanıya ulaşma sürecini de şeffaf şekilde açıklayabilmesini hedefliyor.
Bu yaklaşım, AI sistemlerinin klinik muhakeme süreçlerini insan doktorların anlayabileceği şekilde yapılandırmasını sağlıyor. Böylece hem hasta güvenliği artıyor hem de sağlık profesyonellerinin AI destekli kararları denetleyebilmesi mümkün hale geliyor.