"açıklanabilirlik" için 8 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
8 haber
Tıpta Sürekli Öğrenen ve Açıklanabilir Yapay Zeka: Tree of Concepts
Sağlık alanında kullanılan yapay zeka sistemlerinin hem sürekli öğrenme kabiliyetine hem de açıklanabilirlik özelliğine sahip olması kritik önemdedir. Araştırmacılar, bu iki zorlu gereksinimi karşılayan 'Tree of Concepts' adlı yeni bir framework geliştirdi. Sistem, sığ karar ağaçları ile sabit kural tabanlı konsept arayüzü oluşturuyor ve konsept darboğaz modelini ham verilerden bu konseptleri tahmin etmek için eğitiyor. Geleneksel yaklaşımların aksine, bu yöntem zaman içinde konsept anlamlarını sabit tutarken sadece konsept çıkarıcı ve etiket başlığını güncelliyor. Bu sayede açıklamalar ardışık güncellemeler boyunca kaybolmuyor. Tıbbi veri setlerinde yapılan testler, sistemin hem kararlılık hem de uyum açısından güçlü performans sergilediğini gösteriyor. Bu gelişme, hastane ortamlarında değişen koşullara uyum sağlayabilen ve aynı zamanda kararlarını açıklayabilen AI sistemleri için önemli bir adım.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Ajanları Artık Finansal Araştırmalarda Ekip Çalışması Yapıyor
Araştırmacılar, kantitatif finans alanında çalışan bir araştırma ekibini taklit eden çok ajanlı yapay zeka sistemi geliştirdi. QRAFTI adlı bu framework, büyük finansal veri setleri üzerinde hisse senedi faktör analizi yapabiliyor. Sistem, veri erişimi, faktör oluşturma ve özel kodlama işlemlerini entegre ederek, hem bilinen finansal faktörleri yeniden oluşturabiliyor hem de yeni sinyaller geliştirebiliyor. Dinamik kod üretiminden farklı olarak, zincirleme araç çağrıları ve yansıma tabanlı planlama kullanarak daha iyi performans ve açıklanabilirlik sunuyor. Araştırma raporları ve anlatı analizleri otomatik olarak üretiyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Endüstriyel Arızaların Nedenini Bulabilecek
Araştırmacılar, endüstriyel sistemlerdeki arızaları önceden tespit edebilen ve bu arızaların temel nedenlerini belirleyebilen yeni bir yapay zeka modeli geliştirdi. Causally Guided Transformer (CGT) adı verilen bu sistem, geleneksel anomali tespit yöntemlerinden farklı olarak sadece anormallikleri bulmakla kalmıyor, aynı zamanda bu durumların hangi sensörler arasındaki nedensel ilişkilerden kaynaklandığını da açıklayabiliyor. Model, çoklu sensör verilerini analiz ederek gelecekteki sistem davranışlarını tahmin ediyor ve potansiyel arızaları önceden uyarıyor. Bu yaklaşım, fabrika ve endüstriyel tesislerde bakım maliyetlerini azaltma ve sistem güvenilirliğini artırma potansiyeli taşıyor. Sistem, nedensel grafik teorisi ile derin öğrenme teknolojilerini birleştirerek hem yüksek doğruluk hem de açıklanabilirlik sağlıyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Açıklamalarının Büyük Yanılgısı: Sadakat Ölçümlerinin Sınırları
Açıklanabilir yapay zeka alanında yaygın kullanılan sadakat ölçümlerinin ciddi sınırları olduğu ortaya çıktı. Araştırmacılar, vekil modellerin sinir ağlarına yüksek sadakat gösterse bile, gerçek veri yapısını açıklamada başarısız olabildiğini keşfetti. Yeni geliştirilen doğrusallık skoru λ(f), bu sorunu teşhis etmek için kullanılabiliyor. Çalışma, bir modelin davranışını açıklamanın, görevi gerçekten anlamakla aynı şey olmadığını gösteriyor. Bu bulgular, AI açıklanabilirlik alanında yeni yaklaşımlara ihtiyaç olduğunu ortaya koyuyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Kararlarını Açıklama: Üç Farklı Yöntemin Karşılaştırması
Büyük dil modelleri pek çok alanda başarılı sonuçlar verse de, nasıl karar verdikleri hala bir muamma. Araştırmacılar, yapay zekanın kararlarını anlaşılır hale getirmek için üç farklı açıklanabilirlik tekniğini karşılaştırdı. DistilBERT modeli üzerinde yapılan çalışmada Integrated Gradients, Attention Rollout ve SHAP yöntemleri test edildi. Sonuçlar, gradyan tabanlı yöntemlerin daha kararlı ve sezgisel açıklamalar sunduğunu gösterdi. Bu tür çalışmalar, yapay zekanın güvenilir şekilde kullanılabilmesi için kritik öneme sahip.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Açıklanabilirliğinde Kesin Matematiksel Yöntemler Geliştirildi
Karmaçık makine öğrenmesi modellerinin kararlarını açıklamada kullanılan mevcut yöntemlerin matematiksel kesinlikten uzak olduğu ve insanları yanıltabileceği ortaya kondu. Özellikle sağlık, finans gibi kritik alanlarda kullanılan SHAP gibi popüler açıklama araçlarının yetersizlikleri tespit edildi. Araştırmacılar, bu sorunun üstesinden gelmek için sembolik matematiksel yöntemlere dayanan yeni yaklaşımlar geliştiriyor. Bu çalışma, yapay zekanın kararlarını daha güvenilir şekilde açıklayabilecek katı matematiksel temellere sahip alternatif yöntemleri inceliyor. Özellikle özelliklerin önem derecelerini belirleme konusunda daha kesin sonuçlar veren bu yaklaşımlar, yapay zeka sistemlerine olan güveni artırabilir.
arXiv (CS + AI) · 24 gün önce
0
HETA ile Yapay Zeka Modelleri Nasıl Düşünüyor Artık Daha İyi Anlayabiliriz
Büyük dil modellerinin kararlarını nasıl aldığını anlamak, yapay zekanın güvenilirliği için kritik önem taşıyor. Araştırmacılar, GPT benzeri modellerin hangi kelimelerin etkisiyle belirli çıktılar ürettiğini açıklayan yeni bir yöntem geliştirdi. HETA adlı bu sistem, mevcut tekniklerin aksine, sadece kodlayıcı tabanlı değil, üretici modeller için özel olarak tasarlandı. Yöntem, kelimelerin birbirini nasıl etkilediğini, hassasiyet puanlarını ve bilgi kaybını bir arada değerlendireyor. Bu sayede modelin düşünce sürecini daha doğru bir şekilde haritalayabiliyor. Geliştirilen sistem, özellikle otoregresif üretim yapan modellerin karmaşık nedensel ilişkilerini yakalayabildiği için önemli bir ilerleme sayılıyor. Araştırma, yapay zekanın açıklanabilirliği konusunda yeni bir standart oluşturma potansiyeli taşıyor.
arXiv (CS + AI) · 28 gün önce
0