Arama · son güncelleme 5 sa önce
8.374
toplam haber
3
kategori
70+
bilim kaynağı
1-7 / 7 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde Yeni Sıkıştırma Yöntemi: 8:16 Seyreklik Deseni

Büyük dil modellerinin hafıza kullanımını azaltmak için geliştirilen yeni bir sıkıştırma tekniği dikkat çekiyor. Araştırmacılar, geleneksel 2:4 seyreklik desenine alternatif olarak 8:16 desenini öneriyor. Bu yöntem, modellerin performansını korurken daha esnek bir yapı sunuyor. Çalışma, yapay zeka modellerindeki aykırı değerlerin ele alınmasında da önemli ilerlemeler kaydediyor. Yeni teknik, mevcut yöntemlere kıyasla minimal depolama maliyetiyle daha iyi sonuçlar elde ediyor. Bu gelişme, büyük dil modellerinin daha verimli çalıştırılması açısından önemli bir adım olarak değerlendiriliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

GPU'larda Seyrek Matris İşlemlerini Hızlandıran Yeni Yöntem: AsyncSparse

Araştırmacılar, bilimsel hesaplama ve makine öğrenmesinin temelini oluşturan seyrek matris çarpımı işlemlerini büyük ölçüde hızlandıran yeni bir yöntem geliştirdi. AsyncSparse adlı bu sistem, modern GPU mimarilerinin eşzamansız özelliklerini kullanarak performansı dramatik şekilde artırıyor. Özellikle NVIDIA'nın Tensor Memory Accelerator teknolojisi ve warp uzmanlaşması gibi gelişmiş özellikleri kullanan yöntem, mevcut sistemlere göre 6 kata kadar performans artışı sağlıyor. Geliştirilen iki farklı çekirdek tasarımı, hem yapılandırılmış hem de düzensiz seyreklik türleri için optimize edilmiş çözümler sunuyor. Bu gelişme, yapay zeka hesaplamalarından bilimsel simülasyonlara kadar geniş bir uygulama yelpazesinde önemli hız kazanımları vaat ediyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Sinir Ağlarında Seyreklik Avantajı Gerçek Dünyada Kaybolabiliyor

Nöromorfikta hesaplama için umut verici görülen spike sinir ağları, teorik avantajlarını gerçek donanımda kaybedebiliyor. Araştırmacılar, seyrek aktivite gösteren VS-WNO modelini standart yoğun WNO modeliyle karşılaştırdıkları çalışmada, beklenmedik sonuçlar elde etti. Jetson Orin Nano üzerinde yapılan testlerde, seyrek model %54'ten %18'e düşen spike oranlarına rağmen, daha yavaş ve daha fazla enerji tüketen performans sergiledi. Bu durum, nöromorfikta hesaplamanın teorik potansiyelinin mevcut donanım ve yazılım altyapılarında tam olarak gerçekleştirilemediğini gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde Seyreklik Devrimi: SEFT Yöntemi ile Büyük Modeller Küçülüyor

Araştırmacılar, büyük dil modellerinin hesaplama yükünü azaltmak için yeni bir yöntem geliştirdi. SEFT (Sparsity Evolution Fine-Tuning) adlı bu teknik, modellerin boyutunu küçültürken performanslarını korumalarına olanak tanıyor. Geleneksel budama yöntemleri yüksek seyreklik seviyelerinde model performansını düşürürken, SEFT dinamik bir yaklaşımla modelin seyrek yapısını eğitim sırasında geliştirir. Bu breakthrough, yapay zeka modellerinin mobil cihazlarda ve sınırlı kaynaklara sahip sistemlerde daha verimli çalışmasının önünü açıyor. Yöntem, 'ağırlık bırakma ve büyütme' stratejisiyle görev odaklı adaptasyon sağlayarak, hem model boyutunu küçültüyor hem de performansı koruyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Modelleri Artık Kendi Düşüncelerini Açıklayabilecek

Büyük dil modelleri birçok alanda başarılı sonuçlar verse de, nasıl çalıştıkları tam olarak anlaşılamıyor. Bu durum güvenilirlik sorunları yaratıyor. Araştırmacılar, modellerin dışarıdan analiz edilmesi yerine, baştan şeffaf tasarlanması gerektiğini savunuyor. Yeni araştırma, bu 'içsel yorumlanabilirlik' yaklaşımının beş temel yöntemini inceliyor: işlevsel şeffaflık, kavram uyumlaması, temsil ayrıştırması, açık modülerleşme ve gizli seyreklik. Bu yaklaşımlar, yapay zekanın karar verme süreçlerini daha anlaşılır hale getirerek, teknolojiye olan güveni artırabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

JumpLoRA: Büyük Dil Modellerinde Sürekli Öğrenmeyi Hızlandıran Yeni Yöntem

Araştırmacılar, büyük dil modellerinin yeni görevler öğrenirken eski bilgilerini unutmasını engelleyen JumpLoRA adlı yenilikçi bir yöntem geliştirdi. Bu teknik, LoRA (Düşük Dereceli Uyarlama) blokları içinde dinamik parametre izolasyonu sağlayarak görevler arasındaki müdahaleyi önlüyor. JumpReLU kapılama mekanizması kullanarak adaptif seyreklik oluşturan sistem, mevcut sürekli öğrenme yaklaşımlarıyla uyumlu çalışabiliyor. Özellikle IncLoRA sisteminin performansını önemli ölçüde artırırken, lider sürekli öğrenme yöntemi ELLA'yı geride bırakıyor. Bu gelişme, yapay zeka modellerinin daha verimli şekilde çoklu görevleri öğrenmesi açısından önemli bir adım.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Öneri Sistemlerinde Yoğun Bağlantılar Yerine Seyrek Yapılar Daha Etkili

Araştırmacılar, öneri sistemlerinde yaygın kullanılan yoğun sinir ağı modellerinin aslında verimsiz olduğunu keşfetti. Endüstriyel tıklama oranı tahmin modellerinin analizi, öğrenilen bağlantı ağırlıklarının çoğunun sıfıra yaklaştığını ve sadece küçük bir kısmının önemli kaldığını gösteriyor. Bu durum, yoğun bağlantılı mimariler ile seyrek öneri verisi arasında yapısal bir uyumsuzluğa işaret ediyor. Geleneksel yaklaşımlar, modeli düşük faydalı bağlantıları işlemeye zorlarken gerçek sinyalleri gözden kaçırıyor. Araştırma ekibi, bu sorunu çözmek için açık seyreklik kullanan yeni bir çerçeve önerdi ve böylece öneri sistemlerinin ölçeklenebilirliğini artırmayı hedefliyor.

arXiv (CS + AI) 0