"halüsinasyon" için 51 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
51 haber
Yapay zeka modelleri ne zaman 'hayal kurmaya' karar veriyor?
Büyük dil modellerinin ne zaman gerçek dışı bilgi üreteceğini önceden tahmin etmek mümkün mü? MIT araştırmacıları, bu kritik soruya yanıt aramak için 7 farklı yapay zeka modelini inceledi. Bulgular, 1 milyar parametrenin altındaki küçük modellerin hiçbir güvenilir sinyal vermediğini, ancak bu eşiği aşan büyük modellerin ilk kelimeyi bile üretmeden önce 'hayal kuracaklarını' belli ettiklerini ortaya koydu. Bu keşif, sağlık, hukuk ve finans gibi kritik alanlarda kullanılan yapay zekanın güvenilirliğini artırmak için önemli bir adım.
arXiv (CS + AI) · 28 gün önce
0
VL-Calibration: Büyük Görsel-Dil Modelleri İçin Ayrışık Güven Kalibrasyonu
Büyük görsel-dil modelleri güçlü çok modlu akıl yürütme yetenekleri gösterse de, sık sık halüsinasyonlar yaşar ve yüksek kesinlikle yanlış cevaplar verir. Bu durum kritik alanlarda kullanımlarını sınırlar.
arXiv · 33 gün önce
0