"GPU" için 61 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
61 haber
Yapay Zeka Modellerini Hızlandıran Yeni Yöntem: Spekülatif Doğrulama
Büyük dil modelleri (LLM'ler), kelime kelime üretim yapısı nedeniyle yavaş çalışıyor ve GPU kaynaklarını verimsiz kullanıyor. Araştırmacılar bu sorunu çözmek için 'spekülatif çözümleme' tekniği geliştirmişti - küçük bir yardımcı model birden fazla kelime tahmin ediyor, ana model de bu tahminleri toplu olarak doğruluyordu. Ancak yanlış tahminler sistem performansını düşürüyordu. Yeni geliştirilen 'Spekülatif Doğrulama' yöntemi ise tahmin doğruluğunu önceden kestiriyor ve doğrulama sürecini buna göre ayarlıyor. Sistem, yardımcı modelin tahminlerinin ne kadar doğru olacağını değerlendiren ek bir küçük model kullanıyor. Bu sayede gereksiz hesaplamalar azalıyor ve genel performans artıyor. Yöntem, özellikle büyük veri gruplarıyla çalışırken önemli hız kazanımları sağlıyor.
arXiv (CS + AI) · 23 gün önce
0
GPU'larda Seyrek Matris İşlemlerini Hızlandıran Yeni Yöntem: AsyncSparse
Araştırmacılar, bilimsel hesaplama ve makine öğrenmesinin temelini oluşturan seyrek matris çarpımı işlemlerini büyük ölçüde hızlandıran yeni bir yöntem geliştirdi. AsyncSparse adlı bu sistem, modern GPU mimarilerinin eşzamansız özelliklerini kullanarak performansı dramatik şekilde artırıyor. Özellikle NVIDIA'nın Tensor Memory Accelerator teknolojisi ve warp uzmanlaşması gibi gelişmiş özellikleri kullanan yöntem, mevcut sistemlere göre 6 kata kadar performans artışı sağlıyor. Geliştirilen iki farklı çekirdek tasarımı, hem yapılandırılmış hem de düzensiz seyreklik türleri için optimize edilmiş çözümler sunuyor. Bu gelişme, yapay zeka hesaplamalarından bilimsel simülasyonlara kadar geniş bir uygulama yelpazesinde önemli hız kazanımları vaat ediyor.
arXiv (CS + AI) · 23 gün önce
0
GPUOS: GPU'ları Daha Verimli Kullanmak İçin Yeni İşletim Sistemi Yaklaşımı
Araştırmacılar, yapay zeka uygulamalarında karşılaşılan performans sorunlarını çözmek için GPUOS adlı yeni bir sistem geliştirdi. Özellikle küçük tensor işlemlerinin yoğun olduğu derin öğrenme uygulamalarında, GPU çekirdeklerini başlatma süresi hesaplama süresini aşabiliyor. GPUOS, sürekli çalışan tek bir GPU çekirdeği kullanarak ve yeni operatörleri çalışma anında sistem içine enjekte ederek bu sorunu çözüyor. Bu yaklaşım, geleneksel yöntemlere kıyasla önemli performans artışları sağlayarak AI uygulamalarının daha hızlı çalışmasını mümkün kılıyor.
arXiv (CS + AI) · 23 gün önce
0
Li Auto'dan M100: Otonom Araçlar İçin Yeni Nesil Yapay Zeka İşlemcisi
Çinli otomobil üreticisi Li Auto, otonom sürüş ve büyük dil modelleri için özel tasarlanmış M100 adlı yeni bir yapay zeka işlemcisi mimarisi geliştirdi. Geleneksel GPU tabanlı sistemlerin maliyetli ve verimsiz olduğu alanlarda çözüm sunan M100, veri akışı tabanlı paralel mimariyle çalışıyor. Bu sistem, sadece hesaplama değil, aynı zamanda verilerin zaman ve uzam boyunlarında hareketini de optimize ediyor. Derleyici ve donanım arasındaki ortak tasarım yaklaşımı sayesinde, otonom sürüş sistemleri, büyük dil modelleri ve akıllı insan etkileşimi uygulamaları için hem performanslı hem de maliyet etkin bir çözüm sunuyor. Özellikle günümüzün rekabetçi otomobil platformlarında kritik öneme sahip bu alanlar için optimize edilmiş sistem, yapay zeka hesaplama mimarilerinde yeni bir yaklaşım sergiliyor.
arXiv (CS + AI) · 23 gün önce
0
ClusterChirp: Büyük Biyolojik Verileri Doğal Dille Sorgulayan Platform
Araştırmacılar, büyük ölçekli omik verileri görselleştirmek ve analiz etmek için ClusterChirp adlı yenilikçi bir web platformu geliştirdi. Modern biyoloji teknolojilerinin ürettiği devasa veri matrisleri, mevcut araçların kapasitesini aşıyor ve önemli biyolojik kalıpların kaybına neden oluyor. ClusterChirp, GPU hızlandırması ve çok çekirdekli işlemci desteğiyle bu sorunu çözüyor. Platform, deck.gl teknolojisi ve çok iş parçacıklı kümeleme algoritmalarını birleştirerek, gerçek zamanlı veri keşfi imkanı sunuyor. En dikkat çekici özelliği ise doğal dil arayüzü ile veri sorgulama kapasitesi. Bu, araştırmacıların karmaşık komut satırı bilgisi gerektirmeden, sıradan konuşma diliyle veri analizi yapabilmesine olanak tanıyor. Tek bir arayüzde anlık kümeleme, çoklu metrik sıralama, özellik arama ve etkileşimli görselleştirme kontrolleri bir araya geliyor.
arXiv (Biyoloji) · 23 gün önce
0
Neptune: Yapay Zeka Hesaplamalarını Hızlandıran Yeni Derleyici Teknolojisi
Araştırmacılar, derin öğrenme modellerinin GPU'larda daha verimli çalışmasını sağlayan Neptune adlı yeni bir tensor derleyici geliştirdi. Bu teknoloji, karmaşık matematiksel işlemleri birleştirerek bellek kullanımını optimize ediyor ve hesaplama hızını artırıyor. Özellikle dikkat mekanizmalarında kullanılan karmaşık döngü bağımlılıklarını çözebilen Neptune, mevcut derleyicilerin zorlandığı alanları da başarıyla ele alıyor. Sistem, matematiksel düzeltme ifadeleri kullanarak doğruluğu korurken performansı maksimize eden yenilikçi bir yaklaşım benimsiyor. On farklı benchmark testinde yapılan değerlendirmeler, Neptune'ün mevcut çözümlerden üstün performans sergilediğini gösteriyor.
arXiv (CS + AI) · 23 gün önce
0
ENTIRE: Yapay Zeka ile 3D Görüntü İşleme Süresi Tahmin Etme Devri
Araştırmacılar, 3D hacimsel görüntülerin işlenme süresini önceden tahmin edebilen ENTIRE adlı yapay zeka sistemini geliştirdi. Bu sistem, büyük veri setlerinin görselleştirilmesinde kritik olan işlem süresini, görüntü çözünürlüğü, kamera ayarları ve veri karakteristikleri gibi faktörleri analiz ederek yüksek doğrulukla öngörebiliyor. Tıbbi görüntüleme, bilimsel simülasyonlar ve endüstriyel tasarımda kullanılan hacimsel renderlamada zaman planlaması büyük önem taşıyor. ENTIRE, hem CPU hem de GPU tabanlı sistemlerde test edildi ve farklı senaryolara hızla adapte olabileceği kanıtlandı.
arXiv (CS + AI) · 23 gün önce
0
Robot eğitimi web tarayıcısında: Yeni platform donanım sınırlarını kaldırıyor
Araştırmacılar, robotik eğitimindeki yüksek hesaplama maliyetleri ve karmaşık sistem kurulumları sorununu çözmek için Web-Gewu adlı yenilikçi bir platform geliştirdi. WebRTC teknolojisini kullanan bu sistem, fizik simülasyonlarını ve pekiştirmeli öğrenme süreçlerini bulut-kenar-istemci işbirliği mimarisinde çalıştırıyor. Platform, öğrencilerin güçlü bir bilgisayara ihtiyaç duymadan doğrudan web tarayıcısından robotlarla etkileşim kurmasını sağlıyor. Geleneksel merkezi bulut çözümlerinin aksine, sistem GPU ve bant genişliği maliyetlerini dramatik şekilde düşürürken düşük gecikme süresi sunuyor. Bu yaklaşım, robotik eğitimini demokratikleştirerek daha geniş kitleler için erişilebilir hale getiriyor.
arXiv (CS + AI) · 23 gün önce
0
GPU bulut hizmetlerinde fiyatlama ve kapasite optimizasyonu için yeni matematiksel model
Araştırmacılar, çok kiracılı GPU bulut platformlarında fiyatlama ve kapasite ölçekleme problemini çözmek için oyun teorisi tabanlı yeni bir matematiksel framework geliştirdi. Modern GPU destekli hizmetler, katı gecikme gereksinimlerini karşılarken maliyetleri kontrol etmek zorunda. Bu çalışma, fiyatlandırmanın kullanıcı taleplerini şekillendirdiği ve bunun da sistem yoğunluğunu etkilediği dinamik durumu ele alıyor. Araştırma, büyük popülasyon Stackelberg oyun teorisi kullanarak bu karmaşık ilişkiyi modelliyor ve açık bir denge talep haritası türetiyor. Özellikle dikkat çekici olan bulgu, gecikmeden etkilenmeyen iş yüklerinin sürekli bir talep tabanı oluşturabileceği ve bunun sistemde çözülemeyen kuyruk birikimine yol açabileceği yapısal başarısızlık modu. Bu durum, sınırlı fiyat ve servis kapasitesi altında bile ortaya çıkabiliyor.
arXiv (Matematik) · 23 gün önce
0
FlexiCache: Yapay Zeka Modellerinin Hafıza Sorununa Akıllı Çözüm
Büyük dil modelleri (LLM) uzun metinlerle çalışırken devasa hafıza gereksinimleri nedeniyle performans sorunları yaşıyor. Araştırmacılar, bu modellerin dikkat mekanizmalarının farklı başlıklarının zamansal kararlılık özelliklerini inceleyerek FlexiCache adlı yeni bir sistem geliştirdi. Sistem, bazı dikkat başlıklarının sürekli aynı token'lara odaklandığını, diğerlerinin ise sık sık değiştiğini keşfetti. Bu bulguya dayanarak geliştirilen hierarşik önbellek yönetim sistemi, GPU hafıza kullanımını ve hesaplama yükünü önemli ölçüde azaltırken model doğruluğunu koruyor. FlexiCache, kararlı ve kararsız dikkat başlıklarını sınıflandırarak akıllı hafıza yönetimi yapıyor.
arXiv (CS + AI) · 23 gün önce
0
KOBİ'ler için AI finansal analizi: Boyuttan ziyade mimari tasarım önemli
Finansal sektörde yapay zeka kullanımı hızla yaygınlaşırken, büyük şirketlerin aksine küçük ve orta boy işletmeler (KOBİ) sınırlı kaynaklarla çalışmak zorunda. Yeni bir araştırma, KOBİ'lerin bulut GPU bütçeleri ve özel AI ekipleri olmadan da etkili finansal analiz yapabileceğini ortaya koyuyor. Çalışma, 8 milyar parametreli yerel bir dil modeliyle gerçekleştirilen testlerde, büyük ölçekli modellerin değil, doğru mimari tasarımın başarının anahtarı olduğunu gösteriyor. Bu bulgular, kaynak kısıtlı ortamlarda çalışan işletmeler için AI tabanlı finansal karar destek sistemlerinin nasıl optimize edilebileceği konusunda önemli ipuçları sunuyor.
arXiv (CS + AI) · 23 gün önce
0