Arama · son güncelleme 6 sa önce
8.374
toplam haber
1
kategori
70+
bilim kaynağı
1-10 / 10 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
3 gün önce

Yapay Zeka Modelleri Görsel Dünyayı Aynı Şekilde Mi Anlıyor?

Farklı mimariler, eğitim yöntemleri ve veri setleriyle geliştirilen yapay görme modellerinin benzer görsel temsiller oluşturduğu biliniyordu, ancak bunun nedenini kimse tam olarak açıklayamamıştı. Yeni bir araştırma, 162 farklı görme modelini analiz ederek bu gizemin peşine düştü. Araştırmacılar, modellerin nesne benzerlik yapısını matematiksel boyutlara ayırdı ve hangi özelliklerin evrensel, hangilerinin model-spesifik olduğunu belirledi. Sonuçlar şaşırtıcıydı: evrensel boyutlar daha anlaşılır ve kavramsal görüntü özelliklerinden güçlü şekilde etkileniyordu. Bu bulgular, yapay zeka modellerinde yorumlanabilirlik ve anlamsal içeriğin önemini ortaya koyuyor.

arXiv (Nörobilim) 0
Teknoloji & Yapay Zeka
30 Apr

L2RU: Yapay Zeka Modellerinde Kararlılık Sorunu Çözüme Kavuştu

Araştırmacılar, uzun veri dizilerini işlemede kullanılan yapısal durum-uzay modellerinin (SSM) en büyük sorunu olan kararlılık ve dayanıklılık eksikliğini çözen yeni bir mimari geliştirdi. L2RU adındaki bu yenilik, makine öğrenimi ile kontrol teorisini birleştirerek, tüm parametre değerlerinde matematiksel olarak garantili kararlılık sağlıyor. Geleneksel yapay sinir ağlarının ifade gücünü koruyan bu yaklaşım, aynı zamanda dinamik sistemlerin yorumlanabilirlik avantajlarını da sunuyor. Sistem tanımlama ve optimal kontrol gibi kritik uygulamalarda güvenilir çözümler üretebilen model, hesaplama verimliliğini de koruyor. Bu gelişme, özellikle otonom sistemler ve endüstriyel kontrol uygulamalarında güvenilirlik gerektiren alanlarda çığır açıcı olabilir.

arXiv — Bilgisayar Sistemleri 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Devrelerini Keşfetmek İçin Yeni PIE Çerçevesi Geliştirildi

Araştırmacılar, yapay zeka sistemlerinin nasıl çalıştığını anlamamıza yardımcı olacak yeni bir framework geliştirdi. PIE adı verilen bu sistem, büyük dil modellerinde önemli özellikleri belirleyip gereksiz olanları ayıklayarak, hem hesaplama maliyetini düşürüyor hem de modelin davranışını daha iyi anlamamızı sağlıyor. Cross-layer transcoder (CLT) teknolojisini kullanan bu yaklaşım, modelin hangi özelliklerinin kritik olduğunu tespit ederek, yorumlanabilirlik alanında önemli bir ilerleme sunuyor. Bu gelişme, yapay zeka sistemlerinin şeffaflığını artırarak daha güvenilir AI teknolojilerinin geliştirilmesine katkıda bulunabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Hatalarını Anlamanın Yeni Yolu: Karşıtsal Atıf Yöntemi

Araştırmacılar, büyük dil modellerinin (LLM) neden hata yaptığını anlamak için yeni bir yaklaşım geliştirdi. Karşıtsal atıf adlı bu yöntem, modelin yanlış cevap verdiği durumları doğru alternatiflerle karşılaştırarak analiz ediyor. Geleneksel çalışmalar kısa metinlerle sınırlıyken, bu araştırma gerçek dünya koşullarında uzun metinlerle test edildi. Yöntem, modelin hangi kelime ve iç durumların hatalı çıktılara yol açtığını tespit edebiliyor. Farklı model boyutları ve eğitim aşamalarında yapılan kapsamlı testler, bu yaklaşımın AI sistemlerinin güvenilirliğini artırmada önemli bilgiler sağlayabileceğini gösteriyor. Bulgular, yapay zekanın karar verme süreçlerini daha şeffaf hale getirmek için kritik adımlar atıldığını işaret ediyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

CoDial: Sohbet Robotları İçin Yorumlanabilir Yeni Çerçeve

Araştırmacılar, görev odaklı sohbet robotlarının farklı görevler arasında daha iyi genelleme yapabilmesi için CoDial adlı yeni bir çerçeve geliştirdi. Bu sistem, önceden tanımlanmış görev şemalarını yapılandırılmış grafiklere dönüştürerek daha yorumlanabilir ve etkili sohbet robotları oluşturmayı hedefliyor. Mevcut veri tabanlı yaklaşımların yeni görevlere uyum sağlama konusundaki zorluklarına çözüm getiren bu çalışma, yapay zeka destekli sohbet sistemlerinin nasıl çalıştığını daha anlaşılır kılıyor ve performanslarını artırıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Büyük Dil Modellerinde Token Adaletsizliği: Latin Olmayan Alfabeler Dezavantajda

Araştırmacılar, ChatGPT gibi büyük dil modellerinin farklı dilleri işlerken ciddi bir adaletsizlik sergilediğini ortaya koydu. Latin alfabesi dışındaki yazı sistemlerini kullanan diller, aynı anlamı ifade etmek için çok daha fazla token tüketiyor. Bu durum, bu dillerdeki kullanıcılar için daha yüksek maliyet ve yavaş yanıt süresi anlamına geliyor. Token parçalanması olarak adlandırılan bu sorun, modern açık kaynak dil modellerinde bile devam ediyor. Çalışma, kelime dağarcığı genişletme yoluyla bu soruna çözüm arayan yeni bir yorumlanabilirlik tabanlı yaklaşım sunuyor.

arXiv (Dilbilim & NLP) 0
Teknoloji & Yapay Zeka
21 Apr

Akışkan dinamiğinde yapay zeka ile fiziksel anlamı olan veri sıkıştırma yöntemi

Araştırmacılar, akışkan akışlarından elde edilen karmaşık verileri fiziksel olarak anlamlı ve kompakt formatlara dönüştüren yeni bir yapay zeka yöntemi geliştirdi. Variational autoencoder (VAE) teknolojisini temel alan bu yaklaşım, bilgi teorisi prensiplerini kullanarak veri sıkıştırma, boyut azaltma ve fiziksel yorumlanabilirlik arasında denge kuruyor. Geleneksel yöntemlerin aksine, bu teknik bilgi kapasitesini kaybetmeden verilerin anlaşılabilirliğini artırıyor. Silindir etrafındaki akış gibi sentetik akışkan dinamiği problemleri üzerinde test edilen yöntem, karmaşık fiziksel olayları daha basit matematiksel gösterimlerle ifade etmeyi başarıyor. Bu gelişme, havacılık, otomotiv ve enerji sektörlerinde akışkan simülasyonlarının daha verimli analizi için önemli fırsatlar sunuyor.

arXiv (Fizik) 0
Teknoloji & Yapay Zeka
20 Apr

ProtoTTA: Yapay Zeka Modellerini Gerçek Zamanlı Uyum için Yeni Yaklaşım

Araştırmacılar, yapay zeka modellerinin değişen veri koşullarına daha iyi uyum sağlaması için ProtoTTA adlı yeni bir framework geliştirdi. Bu sistem, özellikle sağlık gibi kritik alanlarda kullanılan yorumlanabilir modellerin, eğitim verilerinden farklı koşullarla karşılaştığında performansını artırıyor. Geleneksel test-zamanı adaptasyon yöntemlerinden farklı olarak, ProtoTTA prototip temelli ara sinyalleri kullanarak modellerin daha güvenilir tahminler yapmasını sağlıyor. Bu yaklaşım, modellerin sadece çıktılarına değil, iç yapılarındaki prototip benzerlik dağılımlarına odaklanarak entropy minimizasyonu gerçekleştiriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Modelleri Artık Kendi Düşüncelerini Açıklayabilecek

Büyük dil modelleri birçok alanda başarılı sonuçlar verse de, nasıl çalıştıkları tam olarak anlaşılamıyor. Bu durum güvenilirlik sorunları yaratıyor. Araştırmacılar, modellerin dışarıdan analiz edilmesi yerine, baştan şeffaf tasarlanması gerektiğini savunuyor. Yeni araştırma, bu 'içsel yorumlanabilirlik' yaklaşımının beş temel yöntemini inceliyor: işlevsel şeffaflık, kavram uyumlaması, temsil ayrıştırması, açık modülerleşme ve gizli seyreklik. Bu yaklaşımlar, yapay zekanın karar verme süreçlerini daha anlaşılır hale getirerek, teknolojiye olan güveni artırabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
16 Apr

Yapay Zeka Temelli Yeni Yöntem Veri Analizinde Çığır Açıyor

Araştırmacılar, tablo verilerindeki karmaşık ilişkileri tespit etmek için TabDistill adlı yenilikçi bir yöntem geliştirdi. Bu yaklaşım, büyük yapay zeka modellerinin örtük olarak öğrendiği veri bağımlılıklarını çıkararak, geleneksel istatistiksel modellerin performansını artırıyor. Yöntem, önce büyük bir temel model eğitiyor, ardından bu modelden anlamlı özellik etkileşimlerini çıkarıyor ve bunları yorumlanabilir Genelleştirilmiş Toplamsal Modeller'de kullanıyor. Bu hibrit yaklaşım, hem yüksek doğruluk hem de yorumlanabilirlik sağlayarak, finans, sağlık ve pazarlama gibi kritik alanlarda daha güvenilir karar verme imkanı sunuyor. Geleneksel sezgisel yöntemlerin aksine, TabDistill daha karmaşık ve bağlama bağlı etkileri yakalayabiliyor.

arXiv (CS + AI) 0