Yapay zeka alanında büyük görsel-dil modelleri (LVLM'ler) hem görsel hem de metinsel bilgileri işleyerek güçlü çok modlu akıl yürütme yetenekleri sergilemektedir. Ancak bu modeller önemli bir sorunla karşı karşıyadır: sık sık halüsinasyonlar yaşamakta ve yüksek güvenle yanlış cevaplar vermektedir.
Bu sorun özellikle sağlık, güvenlik ve finans gibi yüksek riskli alanlarda bu teknolojilerin kullanımını ciddi şekilde sınırlamaktadır. Mevcut güvenirlik kalibrasyon yöntemleri genellikle sadece metin tabanlı dil modelleri için geliştirilmiş olup, tek bir bütüncül güven skoru kullanarak ikili cevap düzeyinde doğruluk optimizasyonu yapmaktadır.
VL-Calibration adlı yeni yaklaşım, bu soruna çözüm getirmek için görsel ve dilsel bileşenleri ayrı ayrı kalibre etmeyi önerir. Bu yöntem, modellerin ne zaman güvenilir tahminler yaptığını daha iyi belirleyebilmesini sağlayarak, kritik uygulamalarda daha güvenli bir kullanım imkanı sunmaktadır.
Araştırma, yapay zeka sistemlerinin güvenilirliğini artırma konusunda önemli bir adım olarak değerlendiriliyor ve gelecekte bu modellerin daha geniş alanlarda güvenle kullanılabilmesinin yolunu açabilir.