"yorumlanabilirlik" için 9 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
9 haber
Yapay Zeka Hatalarını Anlamanın Yeni Yolu: Karşıtsal Atıf Yöntemi
Araştırmacılar, büyük dil modellerinin (LLM) neden hata yaptığını anlamak için yeni bir yaklaşım geliştirdi. Karşıtsal atıf adlı bu yöntem, modelin yanlış cevap verdiği durumları doğru alternatiflerle karşılaştırarak analiz ediyor. Geleneksel çalışmalar kısa metinlerle sınırlıyken, bu araştırma gerçek dünya koşullarında uzun metinlerle test edildi. Yöntem, modelin hangi kelime ve iç durumların hatalı çıktılara yol açtığını tespit edebiliyor. Farklı model boyutları ve eğitim aşamalarında yapılan kapsamlı testler, bu yaklaşımın AI sistemlerinin güvenilirliğini artırmada önemli bilgiler sağlayabileceğini gösteriyor. Bulgular, yapay zekanın karar verme süreçlerini daha şeffaf hale getirmek için kritik adımlar atıldığını işaret ediyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Devrelerini Keşfetmek İçin Yeni PIE Çerçevesi Geliştirildi
Araştırmacılar, yapay zeka sistemlerinin nasıl çalıştığını anlamamıza yardımcı olacak yeni bir framework geliştirdi. PIE adı verilen bu sistem, büyük dil modellerinde önemli özellikleri belirleyip gereksiz olanları ayıklayarak, hem hesaplama maliyetini düşürüyor hem de modelin davranışını daha iyi anlamamızı sağlıyor. Cross-layer transcoder (CLT) teknolojisini kullanan bu yaklaşım, modelin hangi özelliklerinin kritik olduğunu tespit ederek, yorumlanabilirlik alanında önemli bir ilerleme sunuyor. Bu gelişme, yapay zeka sistemlerinin şeffaflığını artırarak daha güvenilir AI teknolojilerinin geliştirilmesine katkıda bulunabilir.
arXiv (CS + AI) · 23 gün önce
0
Büyük Dil Modellerinde Token Adaletsizliği: Latin Olmayan Alfabeler Dezavantajda
Araştırmacılar, ChatGPT gibi büyük dil modellerinin farklı dilleri işlerken ciddi bir adaletsizlik sergilediğini ortaya koydu. Latin alfabesi dışındaki yazı sistemlerini kullanan diller, aynı anlamı ifade etmek için çok daha fazla token tüketiyor. Bu durum, bu dillerdeki kullanıcılar için daha yüksek maliyet ve yavaş yanıt süresi anlamına geliyor. Token parçalanması olarak adlandırılan bu sorun, modern açık kaynak dil modellerinde bile devam ediyor. Çalışma, kelime dağarcığı genişletme yoluyla bu soruna çözüm arayan yeni bir yorumlanabilirlik tabanlı yaklaşım sunuyor.
arXiv (Dilbilim & NLP) · 23 gün önce
0
Akışkan dinamiğinde yapay zeka ile fiziksel anlamı olan veri sıkıştırma yöntemi
Araştırmacılar, akışkan akışlarından elde edilen karmaşık verileri fiziksel olarak anlamlı ve kompakt formatlara dönüştüren yeni bir yapay zeka yöntemi geliştirdi. Variational autoencoder (VAE) teknolojisini temel alan bu yaklaşım, bilgi teorisi prensiplerini kullanarak veri sıkıştırma, boyut azaltma ve fiziksel yorumlanabilirlik arasında denge kuruyor. Geleneksel yöntemlerin aksine, bu teknik bilgi kapasitesini kaybetmeden verilerin anlaşılabilirliğini artırıyor. Silindir etrafındaki akış gibi sentetik akışkan dinamiği problemleri üzerinde test edilen yöntem, karmaşık fiziksel olayları daha basit matematiksel gösterimlerle ifade etmeyi başarıyor. Bu gelişme, havacılık, otomotiv ve enerji sektörlerinde akışkan simülasyonlarının daha verimli analizi için önemli fırsatlar sunuyor.
arXiv (Fizik) · 23 gün önce
0
CoDial: Sohbet Robotları İçin Yorumlanabilir Yeni Çerçeve
Araştırmacılar, görev odaklı sohbet robotlarının farklı görevler arasında daha iyi genelleme yapabilmesi için CoDial adlı yeni bir çerçeve geliştirdi. Bu sistem, önceden tanımlanmış görev şemalarını yapılandırılmış grafiklere dönüştürerek daha yorumlanabilir ve etkili sohbet robotları oluşturmayı hedefliyor. Mevcut veri tabanlı yaklaşımların yeni görevlere uyum sağlama konusundaki zorluklarına çözüm getiren bu çalışma, yapay zeka destekli sohbet sistemlerinin nasıl çalıştığını daha anlaşılır kılıyor ve performanslarını artırıyor.
arXiv (CS + AI) · 23 gün önce
0
ProtoTTA: Yapay Zeka Modellerini Gerçek Zamanlı Uyum için Yeni Yaklaşım
Araştırmacılar, yapay zeka modellerinin değişen veri koşullarına daha iyi uyum sağlaması için ProtoTTA adlı yeni bir framework geliştirdi. Bu sistem, özellikle sağlık gibi kritik alanlarda kullanılan yorumlanabilir modellerin, eğitim verilerinden farklı koşullarla karşılaştığında performansını artırıyor. Geleneksel test-zamanı adaptasyon yöntemlerinden farklı olarak, ProtoTTA prototip temelli ara sinyalleri kullanarak modellerin daha güvenilir tahminler yapmasını sağlıyor. Bu yaklaşım, modellerin sadece çıktılarına değil, iç yapılarındaki prototip benzerlik dağılımlarına odaklanarak entropy minimizasyonu gerçekleştiriyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modelleri Artık Kendi Düşüncelerini Açıklayabilecek
Büyük dil modelleri birçok alanda başarılı sonuçlar verse de, nasıl çalıştıkları tam olarak anlaşılamıyor. Bu durum güvenilirlik sorunları yaratıyor. Araştırmacılar, modellerin dışarıdan analiz edilmesi yerine, baştan şeffaf tasarlanması gerektiğini savunuyor. Yeni araştırma, bu 'içsel yorumlanabilirlik' yaklaşımının beş temel yöntemini inceliyor: işlevsel şeffaflık, kavram uyumlaması, temsil ayrıştırması, açık modülerleşme ve gizli seyreklik. Bu yaklaşımlar, yapay zekanın karar verme süreçlerini daha anlaşılır hale getirerek, teknolojiye olan güveni artırabilir.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Temelli Yeni Yöntem Veri Analizinde Çığır Açıyor
Araştırmacılar, tablo verilerindeki karmaşık ilişkileri tespit etmek için TabDistill adlı yenilikçi bir yöntem geliştirdi. Bu yaklaşım, büyük yapay zeka modellerinin örtük olarak öğrendiği veri bağımlılıklarını çıkararak, geleneksel istatistiksel modellerin performansını artırıyor. Yöntem, önce büyük bir temel model eğitiyor, ardından bu modelden anlamlı özellik etkileşimlerini çıkarıyor ve bunları yorumlanabilir Genelleştirilmiş Toplamsal Modeller'de kullanıyor. Bu hibrit yaklaşım, hem yüksek doğruluk hem de yorumlanabilirlik sağlayarak, finans, sağlık ve pazarlama gibi kritik alanlarda daha güvenilir karar verme imkanı sunuyor. Geleneksel sezgisel yöntemlerin aksine, TabDistill daha karmaşık ve bağlama bağlı etkileri yakalayabiliyor.
arXiv (CS + AI) · 28 gün önce
0