Arama · son güncelleme 5 sa önce
8.374
toplam haber
4
kategori
70+
bilim kaynağı
25-30 / 30 haber Sayfa 2 / 2
Teknoloji & Yapay Zeka
20 Apr

Bulanık Mantık, Yapay Zeka Öğrenmesinü Hızlandırıyor

Yapay zeka sistemlerinin öğrenme süreçlerinde karşılaştığı en büyük sorunlardan biri, karmaşık görevlerde yavaş ilerleme kaydetmesidir. Araştırmacılar, bu sorunu çözmek için bulanık mantık teorisini kullanan yeni bir yöntem geliştirdiler. FARS (Fuzzy Logic Theory-based Adaptive Reward Shaping) adlı bu yaklaşım, uzman bilgisini yapay zeka sisteminin ödül mekanizmasına entegre ederek öğrenme sürecini hızlandırıyor. Yöntem, özellikle otonom drone yarışları gibi karmaşık navigasyon görevlerinde test edildi ve geleneksel yöntemlere kıyasla daha hızlı öğrenme ve daha istikrarlı performans gösterdi. Bu gelişme, robotik ve otonom sistemlerin gerçek dünya uygulamalarında daha etkili çalışmasının önünü açabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Modellerinin Performans Kayıpları İçin Yeni Çözüm: Kendi Kendine Öğretim

Büyük dil modellerinin karşılaştığı performans düşüşü sorununa yenilikçi bir çözüm geliştirildi. Araştırmacılar, modellerin sıkıştırma ve öğrenme süreçlerinde yaşadığı kayıpları telafi edebilen 'kendi kendine damıtma' yöntemini ortaya koydu. Bu teknik, yapay zeka modellerinin unutma problemini çözerken, orijinal yeteneklerini geri kazanmalarını sağlıyor. Çalışma, sadece pratik bir çözüm sunmakla kalmayıp, bu iyileşme mekanizmasının teorik temellerini de açıklıyor. Yöntem, modelin iç katmanlarının oluşturduğu karmaşık matematiksel yapıyı koruyarak, kayıp performansı yeniden inşa ediyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Öğrenmesinde Devrim: Beyin Benzeri Hafıza Modeli Geliştirildi

Araştırmacılar, yapay zekanın öğrenme süreçlerini modellemek için insan beynindeki Hebbian plastisiteden ilham alan yeni bir matematiksel framework geliştirdi. Tan-HWG adı verilen bu model, hafıza durumlarını olasılık dağılımları olarak ele alarak, yapay sinir ağlarının nasıl öğrendiğini geometrik bir perspektifle açıklıyor. Sistem, dahili hafıza durumları ile gözlemlenebilir çıktılar arasında temel bir ayrım yaparak, sinaptik bağlantıların güçlenmesi ve budanmasını geometrik sonuçlar olarak açıklıyor. Bu yaklaşım, yapay zeka sistemlerinin öğrenme mekanizmalarını daha iyi anlamamıza ve optimize etmemize yardımcı olabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay zeka ajanları benzer 'dünya modelleri' geliştiriyor

Farklı bakış açılarından aynı ortamı gözlemleyen yapay zeka ajanları, birbirleriyle hiç koordinasyon kurmadan şaşırtıcı derecede benzer içsel temsiller geliştiriyor. Meta AI araştırmacıları, Social-JEPA adını verdikleri çalışmada iki ayrı ajanın dünya modellerinin geometrik olarak birbirine dönüştürülebilir olduğunu keşfetti. Bu durum, gelecekteki gözlemleri tahmin etmeye odaklanan öğrenme süreçlerinin temsil geometrisi üzerinde güçlü düzenleyici etkiler yarattığını gösteriyor. Bulgular, merkezi olmayan görsel sistemler arasında hafif bir birlikte çalışabilirlik yolu öneriyor ve bir ajanda eğitilmiş sınıflandırıcının diğerine ek gradyan adımları olmadan taşınabilmesini mümkün kılıyor.

arXiv (CS + AI) 0
Nörobilim & Psikoloji
20 Apr

Ölüm bile öğretmen: Souls oyunlarının zorluğu neden bağımlılık yapıyor?

Geleneksel oyun tasarımı kullanıcı dostluğunu öncelik alırken, Dark Souls benzeri oyunlar zorlukla ticari başarı elde ediyor. Araştırmacılar, bu 'Başarısızlık Paradoksu'nun ardındaki psikolojik mekanizmaları inceledi. Flow teorisi ile oyun bilimini birleştiren çalışma, 'Dayanıklı Akış' kavramını ortaya attı. Steam üzerinde 600 oyuncu yorumunu analiz eden araştırma, uzun vadeli oyuncuların ölümü ceza değil öğrenme süreci olarak gördüklerini keşfetti. Bu bulgular, insan motivasyonunu ve öğrenme süreçlerini anlamamıza yeni bir perspektif getiriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
16 Apr

Yapay Zeka 'Grokking' Gizeminin Çözümü: Problem Encoder-Decoder Darboğazında

Araştırmacılar, yapay zeka modellerinin matematik problemlerini çözerken yaşadığı 'grokking' fenomeninin nedenini keşfetti. Transformer modellerin eğitim verilerini öğrendikten sonra genelleme yapabilmesi arasında geçen uzun sürenin, bilgiyi işleyen encoder bölümünün öğrendiği yapıyı decoder bölümüne aktaramamasından kaynaklandığı ortaya çıktı. MIT araştırmacıları Collatz tahmin problemini kullanarak yaptıkları deneylerde, encoder'ın sayısal yapıları binlerce adımda öğrendiğini ancak çıktı doğruluğunun on binlerce adım boyunca şans seviyesinde kaldığını gözlemledi. Bu bulgular, AI modellerinin öğrenme süreçlerinin daha iyi anlaşılması ve optimize edilmesi açısından kritik önem taşıyor.

arXiv (CS + AI) 0