“yanlış bilgi” için sonuçlar
2 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Yapay zeka tıbbi özetlerde 'halüsinasyon' problemine çözüm buldu
Araştırmacılar, büyük dil modellerinin tıbbi özetleme yaparken ürettikleri yanlış bilgileri tespit edebilen yeni bir sistem geliştirdi. ClinTrace adı verilen bu sistem, modelin zaten var olan dikkat ağırlıklarını kullanarak hem her cümlenin hangi kaynaktan geldiğini gösteriyor, hem de kanıtı yetersiz ifadeleri işaretliyor. En önemli avantajı ise hiçbir ek eğitim ya da hesaplama maliyeti gerektirmemesi. Doktor-hasta diyalogları ve radyoloji raporları üzerinde test edilen sistem, tıbbi yapay zekanın güvenilirliğini artırmak için önemli bir adım sayılıyor.
VerifAI: Tıbbi Sorulara Doğrulanabilir Yanıt Veren Yeni Yapay Zeka Sistemi
Araştırmacılar, biyomedikal alanda sorulan sorulara yanıt veren ve her bilgiyi kaynaklarıyla doğrulayabilen VerifAI adlı yeni bir yapay zeka sistemi geliştirdi. Sistem, ürettiği her yanıtı küçük parçalara bölerek bilimsel literatürle karşılaştırıyor ve yanlış bilgi üretme riskini minimize ediyor. Geleneksel yapay zeka modellerinden farklı olarak, VerifAI her iddiasını kaynaklarıyla destekliyor ve şeffaf bir doğrulama mekanizması sunuyor. Test sonuçları, sistemin GPT-4'ü bile geride bırakacak doğrulukta çalıştığını gösteriyor. Sağlık alanında yapay zeka kullanımının güvenilirliğini artırmayı hedefleyen bu sistem, açık kaynak olarak sunularak tüm araştırmacıların erişimine açıldı. Özellikle tıbbi karar verme süreçlerinde yanlış bilginin hayati sonuçlar doğurabileceği düşünüldüğünde, bu gelişme büyük önem taşıyor.