Arama · son güncelleme 12 sa önce
8.369
toplam haber
1
kategori
70+
bilim kaynağı
1-5 / 5 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
4 May

Yapay zeka modellerinin aşırı güvensizliği çözüldü: ADVICE yöntemi

Büyük dil modelleri doğal dilde güven seviyelerini ifade edebiliyor ancak sistematik olarak aşırı güvenli davranıyorlar. Stanford araştırmacıları bu sorunun temel nedenini keşfetti: modeller güven tahminlerini kendi verdikleri cevaptan bağımsız yapıyor. Geliştirilen ADVICE yöntemi, modellerin güven seviyelerini kendi cevaplarına dayandırmasını sağlayarak bu sorunu çözüyor. Yapılan deneyler, yöntemin güven kalibrasyonunu önemli ölçüde iyileştirdiğini ve farklı durumlara güçlü genelleme yapabildiğini gösteriyor. Bu gelişme yapay zeka sistemlerinin şeffaflığı ve güvenilirliği açısından önemli bir adım.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
1 May

Yapay zeka modelleri artık 'bilmiyorum' diyebilecek

Araştırmacılar, dil modellerinin bilmedikleri konularda yanlış bilgi üretmek yerine susma kararı alabilmelerini sağlayan yeni bir yöntem geliştirdi. Conformal Abstention (CA) adlı bu yaklaşım, modelin güven seviyesini ölçerek yanıt verip vermeyeceğini belirliyor. Sistem, hem katılım olasılığı hem de doğru yanıt verme olasılığı için matematiksel garantiler sunuyor. Yöntem, modeli yeniden eğitmek yerine mevcut modeller üzerine uygulanabiliyor ve böylece aşırı temkinli davranış riskini azaltıyor. Bu gelişme, yapay zeka sistemlerinin güvenilirliğini artırarak halüsinasyon sorununa önemli bir çözüm getiriyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
1 May

Yapay Zeka Modellerinin Aşırı Güven Sorunu İçin Yeni Çözüm: DCPO Yöntemi

Büyük dil modellerinin mantıksal muhakeme yeteneklerini artıran RLVR yöntemi, modellerin yanlış cevaplarda bile aşırı güvenli olması sorununa yol açıyor. Araştırmacılar, bu sorunu çözmek için DCPO adlı yeni bir yaklaşım geliştirdi. Yöntem, muhakeme ve güven kalibrasyonu süreçlerini birbirinden ayırarak, modellerin hem doğru cevap verme hem de gerçekçi güven seviyeleri gösterme kabiliyetini dengeliyor. Bu çalışma, yapay zekanın güvenilirliği açısından önemli bir adım teşkil ediyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Ne Zaman Araçlara Güvenmeli? Yeni Kalibrasyon Yöntemi Geliştirildi

Büyük akıl yürütme modelleri matematiksel problemleri çözmek için çeşitli araçları kullanabiliyor, ancak bu araçlara ne zaman güvenmeleri gerektiğini bilmiyorlar. Araştırmacılar, yapay zekanın kendi mantığı ile araç sonuçları arasında çelişki yaşadığında genellikle kendi akıl yürütmesini tercih ettiğini keşfetti. Bu durum, araçların doğru sonuç verdiği durumlarda bile yanlış cevaplara yol açabiliyor. Yeni geliştirilen adaptif güven kalibrasyonu yöntemi, yapay zekanın araçlara ne zaman güvenmesi gerektiğini öğrenmesini sağlayarak matematik problemlerinde daha doğru sonuçlar elde etmeyi hedefliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
10 Apr

VL-Calibration: Büyük Görsel-Dil Modelleri İçin Ayrışık Güven Kalibrasyonu

Büyük görsel-dil modelleri güçlü çok modlu akıl yürütme yetenekleri gösterse de, sık sık halüsinasyonlar yaşar ve yüksek kesinlikle yanlış cevaplar verir. Bu durum kritik alanlarda kullanımlarını sınırlar.

arXiv 0