Arama · son güncelleme 2 sa önce
8.369
toplam haber
2
kategori
70+
bilim kaynağı
1-14 / 14 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
30 Apr

Yapay Zeka Karar Verme Süreçleri Artık Daha Anlaşılabilir

Araştırmacılar, belirsizlik altında karar veren yapay zeka sistemlerinin nasıl çalıştığını açıklamayı kolaylaştıran yeni bir yöntem geliştirdi. POMDP adı verilen matematiksel çerçevede çalışan bu sistemler, eksik bilgilerle karar vermek zorunda kaldıklarında genellikle karmaşık politikalar üretir. Yeni yaklaşım, bu karmaşık politikaları karar ağaçları ve Mealy makineleri kombinasyonu kullanarak daha basit ve anlaşılır hale getiriyor. Bu gelişme, özellikle robotik, otonom araçlar ve tıbbi karar destek sistemleri gibi kritik alanlarda yapay zekanın kararlarının şeffaf olması gerektiği durumlarda büyük önem taşıyor. Araştırma, hem politikaların boyutunu küçültmeyi hem de açıklanabilirliğini artırmayı başarıyor.

arXiv (Robotik) 0
Teknoloji & Yapay Zeka
21 Apr

AB'nin Yapay Zeka Yasası İle XAI Yöntemleri Arasındaki Uyumluluk Açığı

Araştırmacılar, Açıklanabilir Yapay Zeka (XAI) yöntemlerinin AB Yapay Zeka Yasası'nın gerekliliklerini ne ölçüde karşıladığını değerlendiren yeni bir çalışma yayınladı. Çalışma, mevcut XAI teknolojileri ile yasal düzenlemeler arasında önemli bir boşluk olduğunu ortaya koyuyor. Araştırmacılar, model-bağımsız XAI yöntemlerini inceleyerek, uzman değerlendirmelerini nicel puanlama sistemine dönüştüren bir çerçeve geliştirdi. Bu sistem, yapay zeka geliştiricilerinin AB pazarındaki yasal gerekliliklere uyum konusunda rehberlik almasını sağlıyor. Çalışma, hangi XAI çözümlerinin yasal açıklama gereksinimlerini destekleyebileceğini belirlerken, aynı zamanda daha fazla araştırma gerektiren teknik sorunları da gözler önüne seriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay zeka zaman serilerini hikaye gibi analiz ediyor: CAARL modeli geliştirildi

Araştırmacılar, birbiriyle bağlantılı zaman serilerini tahmin etmek için büyük dil modellerini kullanan yenilikçi bir yaklaşım geliştirdi. CAARL adı verilen bu sistem, zaman serilerini hikaye benzeri anlatılara dönüştürerek yapay zekanın daha anlaşılır tahminler yapmasını sağlıyor. Geleneksel yöntemlerin aksine, CAARL her tahmin adımını açıklayabiliyor ve neden o sonuca vardığını gösterebiliyor. Bu sayede hem doğru tahminler yapıyor hem de karar verme sürecini şeffaf hale getiriyor. Gerçek dünya verileri üzerinde yapılan testlerde, mevcut en gelişmiş yöntemlerle yarışabilir performans gösterdi.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Açıklamalarında 'Hikaye Anlatma' Devrimi

Stanford ve diğer üniversitelerden araştırmacılar, yapay zekanın kararlarını açıklamada yeni bir yaklaşım öneriyor. Geleneksel açıklanabilir yapay zeka yöntemleri, sadece 'hangi faktörlerin önemli olduğunu' gösteriyor ancak 'neden bu karara varıldığını' anlatmıyor. Araştırma ekibi, sosyal bilimler ve dilbilimden yararlanarak, yapay zeka açıklamalarının hikaye formatında sunulması gerektiğini savunuyor. Bu anlatı temelli açıklamalar; sürekli yapı, neden-sonuç ilişkileri, dil akıcılığı ve kelime çeşitliliği gibi dört temel özellikle insan anlayışını destekliyor. Çalışma, mevcut doğal dil işleme metriklerinin bu anlatı kalitesini ölçmede yetersiz kaldığını ortaya koyuyor. Bu yaklaşım, yapay zeka sistemlerinin kararlarını daha anlaşılır hale getirerek, özellikle tıp, hukuk ve finans gibi kritik alanlarda güvenilirliği artırabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Duygusal Zekaya Sahip Yapay Zeka Müzakere Sisteminde Yeni Gelişme

Araştırmacılar, müzakerelerde duyguları algılayabilen ve stratejik olarak yanıtlayabilen yapay zeka sistemi geliştirdi. PRISMA adlı bu sistem, iş mülakatları ve kaynak dağılımı gibi alanlarda insan benzeri duygusal zeka sergileyebiliyor. Sistem, insanların müzakere sürecinde duyguları nasıl algıladığı, anladığı, kullandığı ve yönettiğini taklit eden özel bir akıl yürütme mekanizması kullanıyor. Araştırma, yapay zekanın sadece duygusal olarak uygun yanıtlar üretmesini değil, aynı zamanda bu yanıtları neden ve nasıl verdiğinin de anlaşılabilir olmasını hedefliyor. Bu yaklaşım, AI sistemlerinin güvenilirliğini artırarak insan-makine etkileşimlerinde daha etkili sonuçlar elde edilmesine katkı sağlayabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Kararlarını Açıklayan Yeni Yöntem: Daha Güvenilir ve Esnek

Yapay zeka sistemlerinin kararlarını anlaşılır hale getiren 'karşı-olgusal açıklamalar' teknolojisinde önemli bir gelişme yaşandı. Araştırmacılar, AI modellerinde yapılan küçük değişikliklerde bile geçerliliğini koruyan yeni bir açıklama yöntemi geliştirdi. Geleneksel yöntemler sadece belirli model türleriyle çalışabilirken ve pahalı ayarlamalar gerektirirken, bu yeni yaklaşım çok daha esnek bir yapı sunuyor. Yöntem, birden fazla modelin fikir birliğini temel alan olasılıksal bir yaklaşım kullanıyor ve tek bir parametre ile sağlamlık seviyesi kontrol edilebiliyor. Bu gelişme, özellikle kritik alanlarda kullanılan yapay zeka sistemlerinin güvenilirliğini artırması açısından büyük önem taşıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

İkili Sinir Ağları ile Matematik Arasında Köprü: Sugeno İntegrali Keşfi

Araştırmacılar, ikili sinir ağları (BNN) ile Sugeno integralleri arasında dikkat çekici bir bağlantı keşfetti. Bu matematiksel yaklaşım, sinir ağlarının karar verme süreçlerini 'eğer-o zaman' kuralları şeklinde açıklanabilir hale getiriyor. Sugeno integralleri, girdilerin önem derecelerini ve aralarındaki etkileşimleri temsil etme konusunda güçlü bir çerçeve sunuyor. Araştırma, her nöronun aktivasyon eşik testinin bir Sugeno integrali olarak ifade edilebileceğini gösteriyor. Bu keşif, yapay zeka sistemlerinin şeffaflığını artırma potansiyeli taşıyor ve sinir ağlarının 'kara kutu' doğasını aşmada önemli bir adım olabilir. Çalışma aynı zamanda bu yaklaşımın daha karmaşık girdi etkileşimlerine nasıl uyarlanabileceğini ve ikili sistemlerin ötesine nasıl genişletilebileceğini de tartışıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

5G Ağlarında Siber Saldırıları Açıklayabilen Yapay Zeka Sistemi Geliştirildi

Araştırmacılar, 5G ağlarındaki siber tehditleri tespit eden ve kararlarını mantıklı kuralarla açıklayabilen yeni bir yapay zeka çerçevesi geliştirdi. ExAI5G adlı sistem, %99,9 doğruluk oranıyla çalışırken aynı zamanda güvenlik uzmanlarının sistemin nasıl karar verdiğini anlamalarını sağlıyor. Geleneksel 'kara kutu' sistemlerden farklı olarak, bu yenilikçi yaklaşım Transformer tabanlı derin öğrenme ile mantık tabanlı açıklanabilir AI tekniklerini birleştiriyor. Sistem, karmaşık 5G IoT trafiğindeki anormallikleri tespit ederken, her kararını 16 farklı mantıksal kuralla destekliyor ve %99,7 güvenilirlik oranına ulaşıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Eğitim yapay zekası sistemleri daha açık ve güvenilir oluyor

Eğitim ve sağlık sektörlerinde yapay zeka kullanımı arttıkça, bu sistemlerin nasıl çalıştığını anlamamız kritik hale geliyor. Araştırmacılar, çoklu ajanslı eğitim sistemlerinin geliştirme aşamasından itibaren açıklanabilir olması için yeni bir çerçeve geliştirdi. Bu yaklaşım, kullanıcı profilleri ve hikayelerini merkeze alarak, tıp eğitiminden sağlık sistemlerine kadar geniş bir yelpazede güvenilir yapay zeka çözümleri sunmayı hedefliyor. Özellikle tıbbi eğitim alanında klinik akıl yürütme becerilerinin geliştirilmesi için tasarlanan sistem, eğitimciler ve öğrenciler arasında daha şeffaf bir etkileşim sağlıyor. Bu çalışma, yapay zeka sistemlerinin sadece etkili değil, aynı zamanda anlaşılabilir ve güvenilir olması gerektiğinin altını çiziyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Açıklamalarının Büyük Yanılgısı: Sadakat Ölçümlerinin Sınırları

Açıklanabilir yapay zeka alanında yaygın kullanılan sadakat ölçümlerinin ciddi sınırları olduğu ortaya çıktı. Araştırmacılar, vekil modellerin sinir ağlarına yüksek sadakat gösterse bile, gerçek veri yapısını açıklamada başarısız olabildiğini keşfetti. Yeni geliştirilen doğrusallık skoru λ(f), bu sorunu teşhis etmek için kullanılabiliyor. Çalışma, bir modelin davranışını açıklamanın, görevi gerçekten anlamakla aynı şey olmadığını gösteriyor. Bu bulgular, AI açıklanabilirlik alanında yeni yaklaşımlara ihtiyaç olduğunu ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Açıklamalarında Gizli Önyargılar Keşfedildi

Stanford araştırmacıları, yapay zeka modellerinin kararlarını açıklayan yöntemlerin beklenmedik önyargılar taşıdığını ortaya çıkardı. Integrated Gradient gibi özellik atfı yöntemlerinin, aynı girdi için farklı sonuçlar üretmesinin ardında yatan nedenler sistematik olarak incelendi. Araştırma, bu açıklama yöntemlerinin hem kelime seçiminde hem de pozisyon tercihlerinde belirli önyargılara sahip olduğunu gösterdi. Bu bulgular, yapay zeka sistemlerinin şeffaflığı ve güvenilirliği açısından kritik öneme sahip. Çalışma, kullanıcıların bu açıklamalara ne ölçüde güvenmeleri gerektiği konusunda önemli sorular gündeme getiriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Kararlarını Açıklayan 13 Yöntem Kapsamlı Olarak Test Edildi

Baş ve boyun kanserinde yapay zeka destekli tedavi öngörüleri giderek yaygınlaşıyor, ancak bu sistemlerin kararlarını anlamak klinisyenler için büyük bir sorun. Araştırmacılar ilk kez 13 farklı açıklanabilir yapay zeka yöntemini kapsamlı şekilde değerlendirdi. Çalışma, bu yöntemlerin güvenilirlik, sağlamlık, karmaşıklık ve makullük açısından performanslarını karşılaştırdı. Sonuçlar, farklı yöntemler arasında büyük performans farklılıkları olduğunu ve özellikle Integrated Gradients ile DeepLIFT yöntemlerinin çoğu kriterde üstün performans sergilediğini ortaya koydu. Bu bulgular, tıbbi yapay zeka uygulamalarında doğru açıklama yöntemi seçiminin kritik önemini vurguluyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Kararlarını Anlayabilir Kılan Yeni Yöntem Geliştirildi

Araştırmacılar, makine öğrenmesi modellerinin verdiği kararları kullanıcıların daha kolay anlayabilmesi için yenilikçi bir yöntem geliştirdi. Bilgi grafları ve büyük dil modellerini birleştiren bu yaklaşım, özellikle imalat sektöründe karmaşık AI kararlarını sade Türkçe açıklamalara dönüştürebiliyor. Yöntem, alan uzmanlarının teknik bilgi birikimini yapılandırılmış bir veri tabanında saklayarak, AI'nin verdiği sonuçları bu bilgilerle ilişkilendiriyor. Böylece kullanıcılar 'Bu karar neden verildi?' sorusuna anlaşılır yanıtlar alabiliyor. Açıklanabilir yapay zeka alanındaki bu gelişme, AI sistemlerinin şeffaflığını artırarak endüstriyel uygulamalarda güven ve kabul edilirliği önemli ölçüde iyileştirebilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
16 Apr

Yapay Zeka, Türlerin Yaşam Alanlarını Haritalamada Yeni Ufuk Açıyor

Araştırmacılar, türlerin coğrafi dağılımını modelleyen yapay zeka sistemlerinin karar verme süreçlerini anlaşılabilir kılan yenilikçi bir yöntem geliştirdi. Doğa koruma ve istilacı türlerin yönetimi için kritik olan tür dağılım modelleri, derin öğrenme ile daha karmaşık hale gelirken, ekolojik içgörüler elde etmek zorlaşmıştı. Yeni çalışma, Concept-based Explainable AI teknolojisini bu alana ilk kez uygulayarak, modellerin hangi peyzaj özelliklerine odaklandığını görünür kılıyor. Multispektral ve LiDAR drone görüntülerinden oluşturulan yüksek çözünürlüklü veri seti, 15 farklı peyzaj konseptini kapsayan 653 alan ve 1.450 referans noktası içeriyor. Bu yaklaşım, hem güçlü tahmin performansı hem de ekolojik anlayış sağlayarak, korumanın geleceğini şekillendirebilir.

arXiv (CS + AI) 0