Arama · son güncelleme 4 sa önce
8.369
toplam haber
2
kategori
70+
bilim kaynağı
1-13 / 13 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
21 Apr

COREY: Yapay Zeka Modellerini Hızlandıran Yeni Zamanlama Algoritması

Araştırmacılar, Mamba tipi yapay zeka modellerinin performansını artırmak için COREY adlı yenilikçi bir zamanlama algoritması geliştirdi. Bu sistem, aktivasyon entropisini kullanarak modelin çalışma zamanında otomatik olarak en verimli işlem parça boyutlarını belirliyor. Mamba modelleri doğrusal zamanda sekans işleme yapabilmesine rağmen, pratikte bellek bant genişliği sınırlamaları yaşıyor. COREY, sabit genişlikli histogramlar aracılığıyla tahmin edilen entropi değerlerini kullanarak bu sorunu çözmeyi hedefliyor. Sistem, mevcut Triton çekirdeği üzerinde çalışan tek parametreli bir otomatik ayarlayıcı olarak tasarlandı. Test sonuçları, entropi güdümlü gruplama yönteminin gecikme süresini ve DRAM trafiğini azalttığını gösteriyor. RTX 3070 kartında Mamba-370M modeli ile yapılan deneylerde, entropi hesaplama ve parça seçiminin model üretim sürecinin kritik yolunda başarıyla çalışabildiği kanıtlandı.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

NetCAS: Ağ Tabanlı Depolama Sistemlerinde Dinamik Önbellek Yönetimi

Veri merkezlerinde kullanılan modern depolama sistemleri, hızlı önbellek ve yavaş arka uç cihazlarını birleştirerek performansı artırmaya çalışır. Geleneksel yaklaşımlar sadece önbellek isabetlerine odaklanırken, NetCAS adlı yeni framework gerçek zamanlı ağ geri bildirimleri kullanarak veri akışını dinamik olarak yönetir. Sistem, ağ koşullarına göre önbellek ve arka uç cihazlar arasında optimal veri dağılımı yaparak, uzak depolama ortamlarında geleneksel önbellekleme yöntemlerinden %174 daha yüksek performans elde eder. Bu yenilikçi yaklaşım, özellikle değişken ağ koşullarında çalışan veri merkezleri için kritik bir gelişme sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

ProTrain: Yapay Zeka Modellerinin Eğitimi İçin Akıllı Bellek Yönetim Sistemi

Büyük dil modellerinin eğitiminde en büyük sorunlardan biri bellek yetersizliği. Araştırmacılar, bu sorunu çözmek için ProTrain adlı yeni bir sistem geliştirdi. Sistem, karmaşık bellek yönetimi ayarlarını otomatik olarak optimize ederek, uzmanların manuel müdahalesine gerek kalmadan en verimli konfigürasyonu buluyor. ProTrain, model mimarisini ve donanım kaynaklarını analiz ederek, mevcut bellek kaynaklarını en iyi şekilde kullanacak stratejileri otomatik olarak belirliyor. Bu yenilik, özellikle sınırlı kaynaklara sahip araştırma grupları ve şirketler için büyük önem taşıyor. Geleneksel yöntemlerde sistem uzmanları tarafından manuel olarak yapılan ayarlamalar, yanlış konfigürasyon durumunda donanımın verimsiz kullanılmasına neden olabiliyordu. ProTrain'in getirdiği otomasyon, hem mühendislik yükünü azaltıyor hem de optimal performans sağlıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Belleğinde Devrim: MeSH Tekniği ile Daha Verimli Dil Modelleri

Araştırmacılar, recursive transformer modellerinin performans sorunlarını çözmek için yenilikçi bir yaklaşım geliştirdi. MeSH (Memory-as-State-Highways) adlı bu teknik, yapay zeka modellerinin bellek yönetimini harici bir tampona taşıyarak, her iterasyonda farklı hesaplama kalıpları kullanmasını sağlıyor. Çalışma, mevcut recursive modellerin iki temel sorunu olduğunu ortaya koyuyor: benzer hesaplama kalıplarının tekrarlanması ve uzun-kısa vadeli bilgilerin aynı durum uzayında karışması. MeSH teknigi bu sorunları çözerek, daha az parametre kullanırken daha yüksek performans elde etmeyi mümkün kılıyor. Bu gelişme, dil modellerinin verimliliğini artırarak yapay zeka sistemlerinin daha az kaynak tüketimle daha iyi sonuçlar üretmesinin yolunu açıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

3D görsel algılama sistemleri için yeni bellek yönetimi yaklaşımı: FrameVGGT

Araştırmacılar, sürekli video akışlarından 3D sahne analizini gerçekleştiren yapay zeka sistemlerinde karşılaşılan bellek sorununa yenilikçi bir çözüm geliştirdi. FrameVGGT adlı yeni framework, geometrik bilgileri daha etkili organize ederek uzun süreli video analizinde performans kaybını önlüyor. Mevcut sistemlerde bellek kullanımı zamanla sınırsızca artarak pratik uygulamaları zorlaştırıyordu. Yeni yaklaşım, her video karesini tutarlı bir bütün olarak ele alıp, geometrik desteklerin parçalanmasını engelliyor. Bu sayede sabit bellek kapasitesi ile daha kararlı ve uzun vadeli 3D algılama gerçekleştiriliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Artık Unutmayı da Öğreniyor: Çöp Toplama Sistemli Akıl Yürütme

Araştırmacılar, dil modellerinin akıl yürütürken gereksiz bilgileri unutmayı öğrenebileceği yeni bir sistem geliştirdi. Neural Garbage Collection (NGC) adlı bu yaklaşım, modellerin düşünme zinciri sürecinde hangi bilgileri saklayıp hangilerini sileceğini kendi başına karar vermesini sağlıyor. Geleneksel yöntemlerde insan tasarımcılar bu kararları elle verirken, NGC sistemi modelin bu seçimi otomatik olarak yapmasına olanak tanıyor. Bu gelişme, yapay zekanın bellek yönetimini optimize ederek daha verimli akıl yürütme süreçleri oluşturmasının yolunu açıyor. Sistem, pekiştirmeli öğrenme kullanarak hangi bilgilerin önemli olduğunu ve hangilerinin silinebileceğini öğreniyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yeni derleyici sistemi bellek yönetimini otomatik optimize ediyor

Araştırmacılar, programlama dillerinde boyutsal tip sistemlerini kullanan yenilikçi bir derleyici çerçevesi geliştirdi. Bu sistem, kod yazım aşamasından çalışma zamanına kadar boyutsal bilgileri koruyarak, hem bellek kullanımını hem de sayısal gösterimleri otomatik olarak optimize edebiliyor. Geleneksel derleyiciler boyutsal bilgileri erken aşamalarda silerken, yeni yaklaşım bu verileri süreç boyunca muhafaza ederek daha akıllı optimizasyonlar yapabiliyor. Sistem, değer aralıklarını analiz ederek en uygun veri tiplerini seçiyor ve bellek ayırma stratejilerini belirliyor. Hindley-Milner tip çıkarımına dayanan matematik altyapısı, polinom zamanda çalışabilen kararlı sonuçlar üretiyor. Bu gelişme, özellikle yüksek performans gerektiren uygulamalarda bellek verimliliği ve hesaplama hızında önemli iyileştirmeler sağlayabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka ile Dağıtık Sistemlerde Bellek Yönetimi Devrim Yaşıyor

Modern bilişim dünyasında dağıtık sistemler, binlerce sunucunun koordineli çalışmasını gerektiren karmaşık yapılardır. Bu sistemlerde bellek kaynaklarının verimli dağıtımı kritik önem taşır - çok az bellek ayırırsanız sistem çöker, fazla ayırırsanız kaynak israfı olur. Araştırmacılar, bu dengeyi kurmak için makine öğrenmesi tabanlı yeni bir yaklaşım geliştirdi. LightGBM ve XGBoost algoritmalarını birleştiren hibrit model, gelecekteki bellek ihtiyaçlarını önceden tahmin ederek optimal kaynak dağıtımı yapıyor. SAP'nin gerçek veri setiyle yapılan testlerde çarpıcı sonuçlar elde edildi: yetersiz bellek ayırma oranı %4.17'den %2.89'a, gereksiz aşırı ayırma ise %148'den %44.51'e düştü. Bu teknoloji, bulut bilişim ve büyük ölçekli sistemlerin maliyetlerini önemli ölçüde azaltırken performansı artırıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

ODMA: Büyük Dil Modelleri İçin Yeni Bellek Yönetim Stratejisi

Araştırmacılar, büyük dil modellerinin sınırlı bellek bant genişliğine sahip hızlandırıcılarda daha verimli çalışması için ODMA adlı yeni bir bellek yönetim stratejisi geliştirdi. Mevcut bellek yönetim teknikleri, statik ön tahsis ile aşırı kaynak kullanımına neden olurken, ince taneli sayfalama yöntemi LPDDR sistemlerde bant genişliğini hızla düşürüyor. ODMA, özellikle Cambricon MLU serisi gibi rastgele erişim kısıtlamalı hızlandırıcılar için tasarlandı ve üretim iş yüklerindeki dağılım kayması sorununu çözmeyi hedefliyor. Bu yenilik, yapay zeka modellerinin daha az kaynak tüketerek daha hızlı çalışmasını sağlayabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Büyük Dil Modellerini TPU'larda Hızlandıran Yeni Sistem: Ragged Paged Attention

Araştırmacılar, büyük dil modellerinin Google'ın Tensor İşlem Birimleri (TPU) üzerinde daha verimli çalışmasını sağlayan yenilikçi bir sistem geliştirdiler. Ragged Paged Attention (RPA) adı verilen bu sistem, ChatGPT benzeri yapay zeka uygulamalarının maliyetini düşürürken performansını artırıyor. Çoğu mevcut sistem GPU odaklı tasarlandığı için, TPU'ların benzersiz mimarisinden tam olarak yararlanamıyordu. RPA, özellikle dinamik bellek yönetimi ve dikkat hesaplamaları konusunda üç temel teknik kullanarak bu sorunu çözüyor. Sistem, değişken uzunluktaki metinleri işlerken daha esnek davranabiliyor ve hesaplama kaynaklarını daha verimli kullanıyor. Bu gelişme, büyük dil modellerinin daha uygun maliyetli donanımlarda çalıştırılmasının önünü açarak, yapay zeka teknolojilerinin yaygınlaşmasına katkı sağlayabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

CoMeT: Yapay Zeka Modellerinin Sonsuz Uzunluktaki Metinleri İşlemesini Sağlayan Yeni Mimari

Araştırmacılar, büyük dil modellerinin uzun metinleri işlerken karşılaştıkları bellek sorununu çözen devrimci bir mimari geliştirdi. CoMeT adlı bu sistem, geleneksel Transformer modellerinin karesel karmaşıklık problemini çözerek, sabit bellek kullanımı ve doğrusal zaman karmaşıklığı ile sınırsız uzunluktaki metinleri işleyebiliyor. İkili bellek sistemi kullanan CoMeT, yakın geçmiş için geçici bellek ve uzun vadeli bağımlılıklar için küresel bellek yönetiyor. Mevcut modellere minimum düzeyde ince ayar ile entegre edilebilen bu plug-in modül, yapay zeka modellerinin kitap uzunluğundaki metinleri, araştırma makalelerini ve uzun dökümanları çok daha verimli işlemesini mümkün kılıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
18 Apr

SAGE: Büyük Dil Modellerinin Bellek Sorununu Çözen Yeni Optimizasyon Algoritması

Araştırmacılar, büyük dil modellerinin eğitiminde karşılaşılan kritik bellek sorununu çözen SAGE adlı yeni bir optimizasyon algoritması geliştirdi. Mevcut AdamW optimizatörü, modelin iki katı büyüklüğünde bellek tüketirken, önceki hafif alternatifler embedding katmanlarındaki yüksek varyanslı gradyanlarla başa çıkamıyordu. SAGE, Lion tarzı güncelleme yöntemini yeni bir bellek-verimli ölçeklendirme tekniğiyle birleştirerek bu sorunu çözüyor. Algoritmanın 'güvenli sönümleyici' özelliği, yüksek varyanslı boyutları mevcut yöntemlerden daha etkili şekilde kontrol altına alarak daha iyi yakınsama sağlıyor. 1.3 milyar parametreye kadar Llama modellerinde test edilen SAGE tabanlı hibrit sistem, önemli bellek tasarrufu sağlarken performansı koruyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
16 Apr

Yapay Zeka Modelleri İçin Devrim Niteliğinde Bellek Yönetimi: KV Packet

Büyük dil modellerinin (LLM) çalışma hızını artıran yeni bir bellek yönetim sistemi geliştirildi. KV Packet adlı bu sistem, yapay zeka modellerinin önceki hesaplamalarını tekrar kullanma biçimini değiştirerek, işlem yükünü neredeyse sıfıra indiriyor. Geleneksel sistemlerde, bir belge farklı bağlamda kullanıldığında tüm hesaplamalar yeniden yapılıyor ve bu da önemli zaman kaybına yol açıyordu. Yeni yaklaşım ise belgeleri değiştirilemez 'paketler' olarak ele alıp, hafif eğitilebilir adaptörlerle sararak bu sorunu çözüyor. Llama-3.1 ve Qwen2.5 modellerinde yapılan testler, sistemin mevcut yöntemlere göre çok daha az işlem gücü kullandığını ve ilk yanıt sürelerini önemli ölçüde kısalttığını gösteriyor. Bu gelişme, yapay zeka asistanlarının daha hızlı ve verimli çalışmasının önünü açıyor.

arXiv (CS + AI) 0