Arama · son güncelleme 12 sa önce
8.369
toplam haber
1
kategori
70+
bilim kaynağı
1-3 / 3 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
1 May

Yapay zeka modelleri artık 'bilmiyorum' diyebilecek

Araştırmacılar, dil modellerinin bilmedikleri konularda yanlış bilgi üretmek yerine susma kararı alabilmelerini sağlayan yeni bir yöntem geliştirdi. Conformal Abstention (CA) adlı bu yaklaşım, modelin güven seviyesini ölçerek yanıt verip vermeyeceğini belirliyor. Sistem, hem katılım olasılığı hem de doğru yanıt verme olasılığı için matematiksel garantiler sunuyor. Yöntem, modeli yeniden eğitmek yerine mevcut modeller üzerine uygulanabiliyor ve böylece aşırı temkinli davranış riskini azaltıyor. Bu gelişme, yapay zeka sistemlerinin güvenilirliğini artırarak halüsinasyon sorununa önemli bir çözüm getiriyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
21 Apr

Robotlar İçin Geliştirildi: Belirsizlik Ölçen Yapay Zeka Sistemi

Araştırmacılar, robotların görsel gözlemler ve doğal dil talimatlarını eylem dizilerine dönüştüren VLA modellerinin güvenilirliğini artıran yeni bir sistem geliştirdi. ReconVLA adı verilen bu yaklaşım, robotik kontrolcülerin eylem tahminlerinde ne kadar emin olduklarını ölçebiliyor ve potansiel başarısızlıkları önceden tespit edebiliyor. Sistem, mevcut VLA politikalarının eylem token çıktılarına conformal prediction tekniğini uygulayarak kalibre edilmiş belirsizlik tahminleri üretiyor. Bu tahminler, görevin yürütülme kalitesi ve başarı oranıyla doğrudan ilişkili. Ayrıca, robot durum uzayına genişletilen bu yaklaşım, tehlikeli durumları veya aykırı değerleri başarısızlık gerçekleşmeden önce algılayabiliyor. Bu gelişme, robotların gerçek dünya ortamlarında daha güvenli ve güvenilir şekilde çalışmasını sağlayacak.

arXiv (Robotik) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Modellerinin Güvenilirliği İçin Yeni Yöntem: İç Temsiller Analizi

Büyük dil modelleri kritik alanlarda kullanılırken güvenilirlik sorunu yaşanıyor. Geleneksel yöntemler modelin çıktı istatistiklerine odaklanırken, araştırmacılar modelin iç yapısını inceleyerek daha güvenilir tahminler yapan yeni bir yaklaşım geliştirdi. Bu yöntem, modelin farklı katmanlarındaki bilgi işleme süreçlerini analiz ederek, özellikle farklı veri türleri arasında geçiş yapıldığında daha tutarlı sonuçlar veriyor. Conformal prediction adı verilen istatistiksel çerçeve kullanılarak, modelin ne zaman güvenilir cevaplar verdiği daha iyi belirleniyor.

arXiv (CS + AI) 0