“GPU” için sonuçlar
61 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
GPU Destekli Yeni Simülasyon Sistemi Esnek Robotları Hızlandıracak
Araştırmacılar, esnek çok gövdeli dinamik sistemlerin simülasyonunu büyük ölçüde hızlandıran yeni bir GPU tabanlı hesaplama çerçevesi geliştirdi. Total Lagrangian sonlu elemanlar yöntemine dayanan bu sistem, robotik kollar, araç süspansiyonları ve biyomedikal implantlar gibi karmaşık esnek yapıların davranışını gerçek zamanlı modelleyebiliyor. Yeni yaklaşım, geleneksel CPU tabanlı yöntemlere kıyasla önemli hız artışı sağlayarak, mühendislik tasarımından sanal gerçeklik uygulamalarına kadar geniş bir kullanım alanı sunuyor.
Yapay Zeka Matematiksel İspatları Farklı Alanlardan Öğrenerek Bulabiliyor
Yanasse projesi, matematiğin bir alanındaki ispat stratejilerini başka alanlara aktararak yeni teoremler bulabilen devrim niteliğinde bir sistem geliştirdi. Sistem, 27 farklı matematik alanından 217 bin ispat durumunu analiz ediyor ve GPU hızlandırmalı benzetim algoritmaları kullanarak farklı alanlar arasında bağlantı kuruyor. İlk denemede olasılık teorisinden temsil teorisine aktarılan stratejilerle 10 denemeden 4'ünde başarılı yeni ispatlar üretildi. Bu yaklaşım, matematikçilerin farklı alanlardan ilham alarak çalışma biçimini taklit ediyor.
Robot eğitimi web tarayıcısında: Yeni platform donanım sınırlarını kaldırıyor
Araştırmacılar, robotik eğitimindeki yüksek hesaplama maliyetleri ve karmaşık sistem kurulumları sorununu çözmek için Web-Gewu adlı yenilikçi bir platform geliştirdi. WebRTC teknolojisini kullanan bu sistem, fizik simülasyonlarını ve pekiştirmeli öğrenme süreçlerini bulut-kenar-istemci işbirliği mimarisinde çalıştırıyor. Platform, öğrencilerin güçlü bir bilgisayara ihtiyaç duymadan doğrudan web tarayıcısından robotlarla etkileşim kurmasını sağlıyor. Geleneksel merkezi bulut çözümlerinin aksine, sistem GPU ve bant genişliği maliyetlerini dramatik şekilde düşürürken düşük gecikme süresi sunuyor. Bu yaklaşım, robotik eğitimini demokratikleştirerek daha geniş kitleler için erişilebilir hale getiriyor.
Yapay Zeka Modellerinin İletişim Sorunu Çözüldü: GPU İçi Sıkıştırma Tekniği
Büyük yapay zeka modellerinin eğitiminde yaşanan iletişim darboğazı, araştırmacılar tarafından geliştirilen yeni bir teknikle aşılabilir hale geldi. CCCL adlı bu sistem, GPU'lar arası veri alışverişini sıkıştırma teknikleriyle hızlandırarak, büyük dil modellerinin performansını önemli ölçüde artırıyor. Geleneksel yöntemlerde GPU'lar arasındaki veri iletişimi büyük bir zaman kaybına neden olurken, yeni sistem bu sorunu GPU içerisinde gerçekleştirdiği sıkıştırma işlemleriyle çözüyor. Sistem, mevcut uygulamalarda herhangi bir kod değişikliği gerektirmeden entegre edilebiliyor ve vLLM gibi popüler platformlarda %10'a varan performans artışı sağlıyor. Bu gelişme, yapay zeka modellerinin eğitim süreçlerinin daha verimli hale gelmesine katkı sağlayarak, teknolojinin ilerlemesinde önemli bir adım teşkil ediyor.
Seyrek tensör hesaplamalarında çığır açan paralel işlem algoritması geliştirildi
Araştırmacılar, seyrek tensör cebirinde paralel işlem yükünü dengeli dağıtan ilk algoritmayı geliştirdiler. Seyrek tensörler, çoğunlukla sıfır değerli elemanlardan oluşan çok boyutlu veri yapıları olup, makine öğrenmesi ve bilimsel hesaplamalarda kritik öneme sahip. Ancak bu yapıların düzensiz ve veri-bağımlı doğası, paralel işlem birimlerine eşit iş yükü dağıtımını zorlaştırıyor. Yeni algoritma, mevcut paralel birleştirme yöntemlerini genelleştirerek çok operandlı ve çok boyutlu hiyerarşik seyrek veri yapılarıyla çalışabiliyor. Araştırmacılar algoritmayı mevcut bir derleme çerçevesine entegre ederek, çok çekirdekli CPU'lar ve GPU'lar için otomatik paralel kod üretimi sağladılar. Test sonuçları, üretilen kodun Intel MKL ve NVIDIA cuSPARSE gibi endüstri standardı kütüphanelerle rekabet edebilir performans gösterdiğini ortaya koyuyor. Bu gelişme, büyük veri işleme ve yapay zeka uygulamalarında önemli performans artışları sağlayabilir.
Yapay Zeka Sistemlerinde Yeni Güvenlik Açığı: Bellek Hatalarıyla Sessiz Manipülasyon
Araştırmacılar, büyük dil modellerinin (LLM) hizmet verdiği sistemlerde kritik bir güvenlik açığı keşfetti. vLLM gibi popüler sistemlerde kullanılan paylaşımlı önbellek bloklarının, bit düzeyindeki hatalarla manipüle edilebileceği ortaya çıktı. Bu saldırı yöntemi, GPU belleğindeki Rowhammer saldırılarına benzer şekilde çalışıyor ancak daha sinsi bir yapıya sahip. Saldırının üç temel özelliği tespit edildi: manipüle edilmiş çıktıların normal yanıtlardan ayırt edilememesi, sadece hedeflenen prefix'i paylaşan isteklerin etkilenmesi ve zaman içinde hasarın birikmesi. Bu durum, yapay zeka sistemlerinin güvenilirliği açısından yeni bir tehdit oluşturuyor çünkü saldırı tespit edilmesi zor ve kalıcı etkiler yaratıyor.
Yapay Zeka Kod Üretiminde Yeni Yaklaşım: Olasılıklı Düşünce Programları
Araştırmacılar, büyük dil modellerinin kod üretimi ve matematiksel akıl yürütme performansını artırmak için 'olasılıklı düşünce programları' adını verdikleri yeni bir test-zamanı çerçevesi geliştirdi. Bu yöntem, modelin daha az GPU hesaplaması kullanarak daha fazla kod örneği üretmesini sağlıyor. Geleneksel yaklaşımda uygun bir program elde edilene kadar sürekli örnekleme yapılırken, yeni teknik modelin olasılık dağılımını doğrudan programlara entegre ederek maliyetli hesaplama sürecini optimize ediyor. Özellikle büyük ölçekli kod üretimi projelerinde kaynak kullanımını dramatik şekilde azaltma potansiyeline sahip bu gelişme, yapay zeka destekli programlama araçlarının verimliliğini artırabilir.
FLASH: Esnek Malzemelerle Robot Manipülasyonunda Devrim
Araştırmacılar, robotların esnek ve yumuşak malzemelerle çalışmasını öğrenmesi için FLASH adlı yeni bir simülasyon sistemi geliştirdi. Bu GPU tabanlı sistem, geleneksel yaklaşımlardan 10-50 kat daha hızlı çalışarak robotların dakikalar içinde karmaşık manipülasyon görevlerini öğrenmesini sağlıyor. Isaac Sim gibi mevcut sistemler katı cisim manipülasyonunda başarılı olsa da, esnek malzemelerle çalışmada yetersiz kalıyordu. FLASH, sürekli değişen geometri ve çok sayıda temas kısıtlaması ile başa çıkabilecek şekilde GPU mimarisine özel olarak tasarlandı. Bu gelişme, robotların hamur yoğurma, kumaş katlama veya organik malzemelerle çalışma gibi görevleri daha etkili öğrenmesini sağlayabilir.
EcoShift: Süper bilgisayarlarda güç tüketimini optimize eden akıllı sistem
Araştırmacılar, yüksek performanslı bilgisayar kümelerinde enerji tüketimini optimize eden yeni bir sistem geliştirdi. EcoShift adlı bu framework, CPU ve GPU'ların birlikte çalıştığı sistemlerde güç sınırlamaları altında maksimum performans elde etmeyi hedefliyor. Mevcut sistemler adil paylaşım veya kullanım oranı gibi basit yaklaşımlar kullanırken, EcoShift her uygulamanın güç kısıtlamalarına olan duyarlılığını analiz ederek daha akıllı güç dağılımı yapıyor. Intel CPU ve NVIDIA A100/H100 GPU'larla yapılan testlerde, sistem mevcut teknolojilerden %6'ya kadar daha iyi performans gösterdi. Bu gelişme, enerji maliyetlerinin arttığı dönemde süper bilgisayarların daha verimli çalışmasını sağlayabilir.
Süper bilgisayarlarda enerji tasarrufu sağlayan akıllı zamanlama sistemi geliştirildi
Araştırmacılar, çok GPU'lu süper bilgisayar sistemlerinde enerji verimliliğini artıran yeni bir zamanlama algoritması geliştirdi. EcoSched adlı bu sistem, GPU kaynaklarının daha akıllı dağıtımını sağlayarak hem enerji tasarrufu hem de performans artışı elde ediyor. Geleneksel yöntemlerin aksine, her uygulama için optimal GPU sayısını belirleyip işleri eş zamanlı olarak planlamaktadır. H100, A100 ve V100 sistemlerinde yapılan testlerde %14,8'e varan enerji tasarrufu, %30,1 performans artışı ve %40,4 enerji-gecikme ürünü iyileştirmesi elde edildi. Bu gelişme, süper bilgisayarların artan enerji maliyetleri karşısında önemli bir çözüm sunuyor.
GPU'larda Seyrek Matris İşlemlerini Hızlandıran Yeni Yöntem: AsyncSparse
Araştırmacılar, bilimsel hesaplama ve makine öğrenmesinin temelini oluşturan seyrek matris çarpımı işlemlerini büyük ölçüde hızlandıran yeni bir yöntem geliştirdi. AsyncSparse adlı bu sistem, modern GPU mimarilerinin eşzamansız özelliklerini kullanarak performansı dramatik şekilde artırıyor. Özellikle NVIDIA'nın Tensor Memory Accelerator teknolojisi ve warp uzmanlaşması gibi gelişmiş özellikleri kullanan yöntem, mevcut sistemlere göre 6 kata kadar performans artışı sağlıyor. Geliştirilen iki farklı çekirdek tasarımı, hem yapılandırılmış hem de düzensiz seyreklik türleri için optimize edilmiş çözümler sunuyor. Bu gelişme, yapay zeka hesaplamalarından bilimsel simülasyonlara kadar geniş bir uygulama yelpazesinde önemli hız kazanımları vaat ediyor.
Li Auto'dan M100: Otonom Araçlar İçin Yeni Nesil Yapay Zeka İşlemcisi
Çinli otomobil üreticisi Li Auto, otonom sürüş ve büyük dil modelleri için özel tasarlanmış M100 adlı yeni bir yapay zeka işlemcisi mimarisi geliştirdi. Geleneksel GPU tabanlı sistemlerin maliyetli ve verimsiz olduğu alanlarda çözüm sunan M100, veri akışı tabanlı paralel mimariyle çalışıyor. Bu sistem, sadece hesaplama değil, aynı zamanda verilerin zaman ve uzam boyunlarında hareketini de optimize ediyor. Derleyici ve donanım arasındaki ortak tasarım yaklaşımı sayesinde, otonom sürüş sistemleri, büyük dil modelleri ve akıllı insan etkileşimi uygulamaları için hem performanslı hem de maliyet etkin bir çözüm sunuyor. Özellikle günümüzün rekabetçi otomobil platformlarında kritik öneme sahip bu alanlar için optimize edilmiş sistem, yapay zeka hesaplama mimarilerinde yeni bir yaklaşım sergiliyor.
KOBİ'ler için AI finansal analizi: Boyuttan ziyade mimari tasarım önemli
Finansal sektörde yapay zeka kullanımı hızla yaygınlaşırken, büyük şirketlerin aksine küçük ve orta boy işletmeler (KOBİ) sınırlı kaynaklarla çalışmak zorunda. Yeni bir araştırma, KOBİ'lerin bulut GPU bütçeleri ve özel AI ekipleri olmadan da etkili finansal analiz yapabileceğini ortaya koyuyor. Çalışma, 8 milyar parametreli yerel bir dil modeliyle gerçekleştirilen testlerde, büyük ölçekli modellerin değil, doğru mimari tasarımın başarının anahtarı olduğunu gösteriyor. Bu bulgular, kaynak kısıtlı ortamlarda çalışan işletmeler için AI tabanlı finansal karar destek sistemlerinin nasıl optimize edilebileceği konusunda önemli ipuçları sunuyor.
Büyük Dil Modellerinde CPU-GPU İş Birliği ile Performans Devrimi
Yapay zeka araştırmacıları, büyük dil modellerinin uzun metin işleme kapasitesini artıran yenilikçi bir hibrit sistem geliştirdi. HybridGen adlı bu teknoloji, CPU ve GPU'nun birlikte çalışmasını sağlayarak bellek sorunlarını çözüyor. Modern dil modelleri milyonlarca kelime işleyebildiğinde, gerekli bellek miktarı yüzlerce gigabayta çıkabiliyor. Bu durum hem bellek kapasitesini hem de veri aktarım hızını zorluyor. Geleneksel çözümler ya GPU ya da CPU kullanırken, yeni sistem her ikisini koordineli şekilde kullanarak donanım kaynaklarını maksimum verimlilikle değerlendiriyor. Araştırmacılar üç temel sorunu çözdü: çok boyutlu dikkat bağımlılıkları, uzun metinlerde artan CPU-GPU yük dengesizliği ve katmanlı belleklerin NUMA cezası. Sistem, dikkat mantığı paralelliği, geri bildirim odaklı zamanlayıcı ve anlam farkında önbellek haritalaması teknikleriyle bu sorunları aşıyor.
Türbülans Simülasyonlarını Hızlandıran Yapay Zeka Destekli Yazılım Paketi
Araştırmacılar, türbülanslı akış simülasyonlarını önemli ölçüde hızlandıran yeni bir açık kaynak yazılım paketi geliştirdi. IncompressibleNavierStokes.jl adlı bu Julia paketi, GPU ve CPU'larda eşzamanlı çalışabilen matrix-free çekirdekler kullanarak sıkışmayan Navier-Stokes denklemlerini çözüyor. Yazılımın en dikkat çekici özelliği, yapay sinir ağı modellerinin doğrudan simülasyon içine gömülebilmesi. Bu sayede türbülans modellemesi için neural network kapanış modelleri eğitilebiliyor. Yazılım, tek bir GPU üzerinde 840³ çözünürlüğe kadar doğrudan sayısal simülasyonlar gerçekleştirebiliyor. Geliştirilen sistem, türbülanslı kanal akışı testlerinde referans verilerle başarıyla doğrulandı. Bu gelişme, hesamalı akışkanlar dinamiği alanında yapay zekanın entegrasyonu açısından önemli bir adım olarak değerlendiriliyor.
Kuantum Bilgisayarlar için Yeni Hata Düzeltme Sistemi: GreenPeas
Araştırmacılar, kuantum bilgisayarların en büyük sorunlarından biri olan hata düzeltme işlemini devrimsel bir şekilde hızlandıran GreenPeas adlı yeni bir sistem geliştirdi. Kuantum bilgisayarlar, çevresel etkilerden dolayı sürekli hata yapma eğiliminde olduğundan, bu hataları gerçek zamanlı olarak tespit edip düzeltmek kritik önem taşıyor. Geleneksel yöntemler, tüm olası hata senaryolarını önceden hesaplayarak büyük miktarda bellek kullanıyordu. GreenPeas ise bu hesaplamaları ihtiyaç anında yaparak hem bellek kullanımını azaltıyor hem de işlem hızını artırıyor. Sistem, özellikle adaptif kuantum devreler için tasarlandı - bunlar çalışma sırasında ölçüm sonuçlarına göre yapılarını değiştirebilen gelişmiş kuantum devrelerdir. C++ ve CUDA teknolojileri kullanılarak geliştirilen sistem, GPU'ların paralel işlem gücünden yararlanarak binlerce işlemi eş zamanlı gerçekleştiriyor. Bu gelişme, pratik kuantum bilgisayarların gerçekleştirilmesinde önemli bir adım olarak görülüyor.
Yapay Zeka Modellerini Hızlandıran Yeni Yöntem: Spekülatif Doğrulama
Büyük dil modelleri (LLM'ler), kelime kelime üretim yapısı nedeniyle yavaş çalışıyor ve GPU kaynaklarını verimsiz kullanıyor. Araştırmacılar bu sorunu çözmek için 'spekülatif çözümleme' tekniği geliştirmişti - küçük bir yardımcı model birden fazla kelime tahmin ediyor, ana model de bu tahminleri toplu olarak doğruluyordu. Ancak yanlış tahminler sistem performansını düşürüyordu. Yeni geliştirilen 'Spekülatif Doğrulama' yöntemi ise tahmin doğruluğunu önceden kestiriyor ve doğrulama sürecini buna göre ayarlıyor. Sistem, yardımcı modelin tahminlerinin ne kadar doğru olacağını değerlendiren ek bir küçük model kullanıyor. Bu sayede gereksiz hesaplamalar azalıyor ve genel performans artıyor. Yöntem, özellikle büyük veri gruplarıyla çalışırken önemli hız kazanımları sağlıyor.
Neptune: Yapay Zeka Hesaplamalarını Hızlandıran Yeni Derleyici Teknolojisi
Araştırmacılar, derin öğrenme modellerinin GPU'larda daha verimli çalışmasını sağlayan Neptune adlı yeni bir tensor derleyici geliştirdi. Bu teknoloji, karmaşık matematiksel işlemleri birleştirerek bellek kullanımını optimize ediyor ve hesaplama hızını artırıyor. Özellikle dikkat mekanizmalarında kullanılan karmaşık döngü bağımlılıklarını çözebilen Neptune, mevcut derleyicilerin zorlandığı alanları da başarıyla ele alıyor. Sistem, matematiksel düzeltme ifadeleri kullanarak doğruluğu korurken performansı maksimize eden yenilikçi bir yaklaşım benimsiyor. On farklı benchmark testinde yapılan değerlendirmeler, Neptune'ün mevcut çözümlerden üstün performans sergilediğini gösteriyor.
FlexiCache: Yapay Zeka Modellerinin Hafıza Sorununa Akıllı Çözüm
Büyük dil modelleri (LLM) uzun metinlerle çalışırken devasa hafıza gereksinimleri nedeniyle performans sorunları yaşıyor. Araştırmacılar, bu modellerin dikkat mekanizmalarının farklı başlıklarının zamansal kararlılık özelliklerini inceleyerek FlexiCache adlı yeni bir sistem geliştirdi. Sistem, bazı dikkat başlıklarının sürekli aynı token'lara odaklandığını, diğerlerinin ise sık sık değiştiğini keşfetti. Bu bulguya dayanarak geliştirilen hierarşik önbellek yönetim sistemi, GPU hafıza kullanımını ve hesaplama yükünü önemli ölçüde azaltırken model doğruluğunu koruyor. FlexiCache, kararlı ve kararsız dikkat başlıklarını sınıflandırarak akıllı hafıza yönetimi yapıyor.
Live Avatar: Sesle Kontrol Edilen Gerçek Zamanlı Dijital Karakterler Geliştirildi
Araştırmacılar, ses komutlarıyla kontrol edilen dijital avatarları gerçek zamanlı olarak oluşturabilen Live Avatar teknolojisini geliştirdi. 14 milyar parametreye sahip yapay zeka modeli, saniyede 45 kare hızında çalışarak saatlerce kesintisiz avatar etkileşimi sağlayabiliyor. Teknoloji, mevcut difüzyon modellerinin sıralı işlem yapma zorunluluğunu aşarak, her GPU'ya farklı zaman adımları atayan yenilikçi bir paralel işleme yaklaşımı kullanıyor. Bu gelişme, video konferans, oyun, eğitim ve sosyal medya platformları için devrim niteliğinde uygulamalar sunuyor. Sistem, 10.000 saniyeyi aşan sürelerde bile görsel kalite kaybı yaşamadan çalışabiliyor ve kimlik kayması sorununu çözmüş durumda.
RainFusion2.0: Video üretiminde yapay zeka hesaplama maliyetlerini düşüren yeni sistem
Araştırmacılar, video ve görüntü üreten yapay zeka modellerinin aşırı yüksek hesaplama maliyetlerini çözmek için RainFusion2.0 adlı yeni bir sistem geliştirdi. Diffusion Transformer modellerinin dikkat mekanizmaları büyük hesaplama gücü gerektiriyor ve bu durum pratik uygulamaları sınırlıyor. Mevcut seyrek dikkat yöntemleri GPU'lar için tasarlandığından farklı donanımlarda verimli çalışamıyor. RainFusion2.0, önemsiz token'ları atlayarak hesaplamaları azaltan, çevrimiçi uyarlanabilir ve düşük ek yük gerektiren bir seyrek dikkat mekanizması sunuyor. Sistem, GPU dışındaki ASIC gibi farklı donanım türlerinde de verimli çalışacak şekilde tasarlandı. Bu gelişme, video üretimi yapay zekasının daha geniş alanlarda kullanılmasının önünü açabilir.
GPU bulut hizmetlerinde fiyatlama ve kapasite optimizasyonu için yeni matematiksel model
Araştırmacılar, çok kiracılı GPU bulut platformlarında fiyatlama ve kapasite ölçekleme problemini çözmek için oyun teorisi tabanlı yeni bir matematiksel framework geliştirdi. Modern GPU destekli hizmetler, katı gecikme gereksinimlerini karşılarken maliyetleri kontrol etmek zorunda. Bu çalışma, fiyatlandırmanın kullanıcı taleplerini şekillendirdiği ve bunun da sistem yoğunluğunu etkilediği dinamik durumu ele alıyor. Araştırma, büyük popülasyon Stackelberg oyun teorisi kullanarak bu karmaşık ilişkiyi modelliyor ve açık bir denge talep haritası türetiyor. Özellikle dikkat çekici olan bulgu, gecikmeden etkilenmeyen iş yüklerinin sürekli bir talep tabanı oluşturabileceği ve bunun sistemde çözülemeyen kuyruk birikimine yol açabileceği yapısal başarısızlık modu. Bu durum, sınırlı fiyat ve servis kapasitesi altında bile ortaya çıkabiliyor.
Karanlık Madde Olmadan da Açıklanabilir: Ultra Soluk Cüce Galaksilerin Sırrı
Bilim insanları, Local Group'taki ultra soluk cüce galaksilerin yüksek hız dağılımlarının mutlaka karanlık madde varlığını gerektirmediğini ortaya koyuyor. NBODY6++GPU simülasyonları kullanılarak yapılan araştırma, bu galaksilerin dinamik özelliklerinin çift yıldız sistemleri ve gelgit etkileşimleri gibi daha konvansiyonel faktörlerle açıklanabileceğini gösteriyor. Standart galaksi oluşum modelinin öngördüğü büyük miktarlardaki karanlık madde yerine, araştırmacılar sadece yıldızsal dinamikleri kullanarak bu sistemleri Hubble zamanı boyunca modellediler. Bulgular, gözlemsel verilerin alternatif açıklamalarının mümkün olduğunu ve evrenin yapı taşları hakkındaki anlayışımızı yeniden değerlendirmemiz gerekebileceğini işaret ediyor.
Yapay Zeka ile Kuantum Hesaplama Hızında Devrim: GPU Tabanlı Yeni Framework
Araştırmacılar, karmaşık kuantum sistemlerdeki Schrödinger denklemini çözmek için yapay zeka destekli yeni bir framework geliştirdi. cuNNQS-SCI adı verilen bu sistem, önceki hibrit CPU-GPU yaklaşımlarının yarattığı darboğazları aşarak, tamamen GPU tabanlı bir mimaride çalışıyor. Yeni sistem, özellikle büyük kuantum sistemlerin simülasyonunda karşılaşılan iletişim sorunlarını ve hesaplama yükünü önemli ölçüde azaltıyor. Neural Network Quantum States (NNQS) yöntemi temelinde geliştirilen framework, dağıtık yük dengeleme algoritması kullanarak performansı artırıyor. Bu gelişme, kuantum fiziği ve malzeme bilimi araştırmalarında daha büyük ve karmaşık sistemlerin incelenmesine olanak tanıyacak.