"AI açıklanabilirliği" için 8 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
8 haber
Yapay Zeka İçin Yeni Araç: Özellik Seçimini Kolaylaştıran FSEVAL
Araştırmacılar, makine öğrenmesi algoritmalarının performansını artırmak için kritik öneme sahip özellik seçimi işlemini kolaylaştıran yeni bir araç geliştirdi. FSEVAL adlı bu platform, veri bilimcilerin hangi özelliklerin gerçekten önemli olduğunu belirleme sürecini standartlaştırıyor ve görselleştiriyor. Makine öğrenmesinde 'boyut laneti' olarak bilinen probleme çözüm arayan bu araç, gereksiz veri özelliklerini ayıklayarak hem modellerin açıklanabilirliğini koruyor hem de performansını artırıyor. Platform, farklı özellik seçimi algoritmalarını kapsamlı şekilde değerlendirme imkanı sunuyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Sistemlerinin Yasal Uyumluluğu: Yeni Dönemin Zorlukları
Yapay zeka teknolojilerinin hızla yaygınlaştığı günümüzde, bu sistemlerin yasal düzenlemelere uyumluluğu kritik bir konu haline geldi. ArXiv'de yayınlanan yeni bir araştırma, özellikle AB'nin AI Act yasa tasarısı çerçevesinde yapay zeka sistemlerinin karşılaştığı uyumluluk zorluklarını inceliyor. Araştırma, edge cihazlarının merkezi olmayan yapısı ve sınırlı hesaplama kaynaklarının sofistike uyumluluk mekanizmalarının uygulanmasında önemli engeller oluşturduğunu ortaya koyuyor. Çalışma, yapay zeka geliştirme, dağıtım ve işletme süreçlerinde yasal uyumluluk için ilk en iyi uygulamaları öneriyor. Veri seti uyumluluğunun yapay zeka sistemlerinin güvenilirliği, şeffaflığı ve açıklanabilirliği için temel bir gereklilik olduğu vurgulanıyor. Bu araştırma, sektörün karşılaştığı düzenleyici belirsizliklere ışık tutarak gelecekteki yapay zeka uygulamaları için önemli bir rehber niteliği taşıyor.
arXiv (CS + AI) · 24 gün önce
0
Vision Transformer'ların Karar Verme Sürecini Açıklayan Yeni Yöntem Geliştirildi
Bilgisayar görme alanında önemli başarılar elde eden Vision Transformer'lar, karmaşık yapıları nedeniyle nasıl karar verdikleri anlaşılması zor sistemlerdi. Araştırmacılar, bu yapay zeka modellerinin karar verme süreçlerini daha net anlaşılabilir hale getiren Decision-Aware Attention Propagation (DAP) adlı yeni bir yöntem geliştirdi. Bu yaklaşım, modelin dikkat mekanizmasına karar odaklı bilgileri entegre ederek, hangi görsel öğelerin sınıflandırma kararında etkili olduğunu daha açık şekilde gösteriyor. Yöntem, mevcut dikkat tabanlı açıklama yöntemlerinin sınırlılıklarını aşarak, sınıf ayırım kabiliyeti daha yüksek açıklamalar sunuyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Açıklanabilirliğinde Kesin Matematiksel Yöntemler Geliştirildi
Karmaçık makine öğrenmesi modellerinin kararlarını açıklamada kullanılan mevcut yöntemlerin matematiksel kesinlikten uzak olduğu ve insanları yanıltabileceği ortaya kondu. Özellikle sağlık, finans gibi kritik alanlarda kullanılan SHAP gibi popüler açıklama araçlarının yetersizlikleri tespit edildi. Araştırmacılar, bu sorunun üstesinden gelmek için sembolik matematiksel yöntemlere dayanan yeni yaklaşımlar geliştiriyor. Bu çalışma, yapay zekanın kararlarını daha güvenilir şekilde açıklayabilecek katı matematiksel temellere sahip alternatif yöntemleri inceliyor. Özellikle özelliklerin önem derecelerini belirleme konusunda daha kesin sonuçlar veren bu yaklaşımlar, yapay zeka sistemlerine olan güveni artırabilir.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Gerçekten Nasıl Düşünüyor? Gizli Süreçler vs. Görünen Mantık Zincirleri
Büyük dil modellerinin (LLM) nasıl mantık yürüttüğü konusunda çığır açan bir araştırma, yapay zekanın düşünce sürecinin görünen 'mantık zincirleri'nden ziyade gizli durumlar aracılığıyla gerçekleştiğini öne sürüyor. Stanford ve diğer kurumlardan araştırmacılar, AI'nın problem çözme yeteneğinin açıklanabilirliği, değerlendirilmesi ve geliştirilmesi açısından bu ayrımın kritik önem taşıdığını belirtiyor. Çalışma, yapay zeka sistemlerinin gerçek muhakeme mekanizmalarını anlamamızı köklü şekilde değiştirebilir.
arXiv (CS + AI) · 25 gün önce
0
AI Sistemler Artık Duygu Analizinde Neden Böyle Düşündüklerini Açıklayabilecek
Yapay zeka alanında önemli bir gelişme yaşanıyor. Duygu analizi yapan AI sistemler genellikle 'kara kutu' gibi çalışır ve verdikleri kararların gerekçesini açıklayamazlar. Oysa insanlar sadece duyguları kategorize etmekle kalmaz, yargılarının arkasındaki nedenleri de açıklayabilir. Araştırmacılar bu sorunu çözmek için ABSA-R1 adlı yeni bir çerçeve geliştirdi. Bu sistem, pekiştirmeli öğrenme kullanarak insan bilişsel süreçlerini taklit ediyor ve 'önce akıl yürüt, sonra tahmin et' yaklaşımını benimsiyor. Sistem, sadece duygu kutupluluğunu tespit etmekle kalmıyor, aynı zamanda bu kararın arkasındaki mantığı doğal dil kullanarak açıklayabiliyor. Bu gelişme, AI sistemlerinin şeffaflığı ve açıklanabilirliği açısından büyük önem taşıyor.
arXiv (CS + AI) · 29 gün önce
0
HETA ile Yapay Zeka Modelleri Nasıl Düşünüyor Artık Daha İyi Anlayabiliriz
Büyük dil modellerinin kararlarını nasıl aldığını anlamak, yapay zekanın güvenilirliği için kritik önem taşıyor. Araştırmacılar, GPT benzeri modellerin hangi kelimelerin etkisiyle belirli çıktılar ürettiğini açıklayan yeni bir yöntem geliştirdi. HETA adlı bu sistem, mevcut tekniklerin aksine, sadece kodlayıcı tabanlı değil, üretici modeller için özel olarak tasarlandı. Yöntem, kelimelerin birbirini nasıl etkilediğini, hassasiyet puanlarını ve bilgi kaybını bir arada değerlendireyor. Bu sayede modelin düşünce sürecini daha doğru bir şekilde haritalayabiliyor. Geliştirilen sistem, özellikle otoregresif üretim yapan modellerin karmaşık nedensel ilişkilerini yakalayabildiği için önemli bir ilerleme sayılıyor. Araştırma, yapay zekanın açıklanabilirliği konusunda yeni bir standart oluşturma potansiyeli taşıyor.
arXiv (CS + AI) · 29 gün önce
0