“GPU” için sonuçlar
44 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Yapay zeka destekli ilaç geliştirme araçları gerçek verilerle test edildi
Araştırmacılar, ilaç keşfinde kullanılan yapay zeka tabanlı araçların gerçek performansını büyük ölçekli bir veri setiyle test etti. DiffDock ve NMDN gibi yeni nesil AI araçlarının laboratuvar koşullarındaki başarısının gerçek dünyada ne kadar geçerli olduğu merak konusuydu. LIT-PCBA veri tabanından 15 hedef protein ve yaklaşık 578 bin ligand-protein çifti kullanılarak yapılan kapsamlı değerlendirmede, geleneksel AutoDock-GPU ile GNINA skorlamasının birleşimi en iyi sonuçları verdi. Çalışma, ilaç geliştirme sürecinde hangi hesaplama yöntemlerinin daha güvenilir olduğunu ortaya koyarak sektöre önemli rehberlik sağlıyor.
Yapay Zeka Veri Merkezleri için Yeni Enerji Tahmin Sistemi Geliştirildi
Yapay zeka veri merkezlerinde GPU'ların ani ve öngörülmesi zor enerji talebi, operasyonel verimlilik ve güç yönetimi açısından kritik bir sorun haline geldi. Araştırmacılar, bu sorunu çözmek için yenilikçi bir bilgi aktarımı çerçevesi geliştirdi. Sistem, önce yüksek kapasiteli bir öğretmen model ile çok adımlı yük tahminleri yapıyor, ardından bu bilgiyi hafif bir öğrenci modele aktararak düşük gecikme süreli tahminler gerçekleştiriyor. Bu yaklaşım, hassas tahmin yapabilme ile pratik kullanım arasındaki dengeyi kurmayı hedefliyor. Veri merkezlerinin artan enerji ihtiyaçları ve şebekelerle koordinasyonu düşünüldüğünde, bu tür akıllı tahmin sistemleri gelecekte daha da kritik hale gelecek.
Yapay Zeka Modellerinin Eğitiminde Hafıza Kullanımını Yarıya İndiren Yeni Teknik
Araştırmacılar, büyük dil modellerinin eğitimi sırasında GPU hafıza kullanımını dramatik şekilde azaltan AGoQ adlı yeni bir teknik geliştirdi. Bu yöntem, farklı katmanlar için uygun bit genişlikleri ayıran akıllı bir aktivasyon sıkıştırma algoritması ve 8-bit gradient depolama sistemi kullanıyor. 64 GPU'ya kadar test edilen sistem, hafıza kullanımını %52 oranında azaltırken, eğitim hızını 1.34 kata kadar artırdı. Geleneksel yöntemlerden farklı olarak, model doğruluğunda kayıp yaşanmadan bu verimliliği sağlıyor. Bu gelişme, büyük yapay zeka modellerinin eğitimini daha erişilebilir hale getirebilir ve daha az donanım kaynak gereksinimi sayesinde maliyetleri önemli ölçüde düşürebilir.
GPU Gücüyle Acil Fren Sistemlerinin Güvenliği Gerçek Zamanlı Test Ediliyor
Araçların otomatik acil fren (AEB) sistemleri, 2029'a kadar ABD'de satılan tüm yeni araçlarda zorunlu hale gelecek. Ancak mevcut sistemler, belirsizlikleri göz ardı eden basit hesaplamalar kullanıyor. Yeni geliştirilen GPU tabanlı Monte Carlo çerçevesi, yol koşulları, sensör hatası ve araç dinamiklerindeki belirsizlikleri hesaba katarak acil fren performansını gerçek zamanlı olarak değerlendiriyor. Bu yöntem, aerodinamik sürüklenme, yol eğimi ve fren aktüatör dinamikleri gibi karmaşık faktörleri içeren yüksek doğruluklu araç modelleri kullanıyor. Sistem, Monte Carlo simülasyonlarının bağımsızlığından yararlanarak her örnek için ayrı bir GPU iş parçacığı kullanıyor ve deterministik örnekleme ile tutarlı sonuçlar garanti ediyor.
ZipCCL: Büyük Dil Modellerinin Eğitimini Hızlandıran Yeni Sıkıştırma Teknolojisi
Araştırmacılar, büyük dil modellerinin eğitimindeki en önemli sorunlardan biri olan veri iletişim darboğazını çözmek için ZipCCL adında yeni bir sıkıştırma kütüphanesi geliştirdi. Bu teknoloji, makine öğrenmesi verilerinin Gauss dağılımına yakın özellik göstermesinden yararlanarak, kayıpsız sıkıştırma ile iletişim trafiğini azaltıyor. Geleneksel yaklaşımların aksine, sıkıştırma ve açma işlemlerinin maliyeti, azaltılan iletişim trafiğinin faydasından daha az. GPU için optimize edilmiş kerneller ve teorik temelli kodlama teknikleri sayesinde, büyük dil modellerinin dağıtık eğitimi önemli ölçüde hızlanabiliyor. Bu gelişme, yapay zeka modellerinin eğitim süreçlerini daha verimli hale getirerek, hem zaman hem de enerji tasarrufu sağlayabilir.
Büyük Dil Modellerinin Eğitimi İçin Hafıza Dostu Yeni Yöntem
Yapay zeka araştırmacıları, büyük dil modellerinin eğitimi sırasında karşılaşılan yüksek bellek tüketimi sorununa yenilikçi bir çözüm geliştirdi. AdaFRUGAL adı verilen bu yöntem, eğitim sürecini otomatik olarak optimize ederek hem GPU belleği kullanımını azaltıyor hem de eğitim süresini kısaltıyor. Geleneksel FRUGAL yönteminin aksine, AdaFRUGAL sabit parametreler yerine dinamik kontrol mekanizmaları kullanarak manuel ayarlama ihtiyacını ortadan kaldırıyor. İngilizce ve Vietnamca veri setleri üzerinde yapılan testler, bu yaklaşımın kaynak kısıtlı ortamlarda çalışan araştırmacılar için pratik bir çözüm sunduğunu gösteriyor.
Kuantum İlhamlı Algoritmalar Klasik Yöntemlerden 100 Kat Hızlı Çıktı
Kuantum işlemcilerin pratikte ne kadar avantajlı olduğu konusu bilim dünyasında halen tartışılıyor. Yeni bir araştırma, kuantum tavlama yönteminden ilham alan GPU tabanlı algoritmaların, çok amaçlı optimizasyon problemlerinde klasik yöntemlerden yaklaşık 100 kat daha hızlı çözüm üretebileceğini gösterdi. Bu çalışma, önceki kuantum üstünlüğü iddialarını sorguluyor ve klasik bilgisayarların halen güçlü rakipler olduğunu ortaya koyuyor. Araştırmacılar, kuantum işlemcilerin ön ve son işleme maliyetlerinin tam olarak hesaba katılmadığı durumların yanıltıcı sonuçlar doğurduğunu vurguluyor.
ARGUS: Yapay Zeka GPU Optimizasyonunda Çığır Açan Yeni Yaklaşım
Araştırmacılar, yapay zeka tabanlı kodlama ajanlarının GPU performansını artırmak için yenilikçi bir framework geliştirdi. ARGUS adlı bu sistem, veri akış değişmezlerini kullanarak GPU çekirdeklerinin optimizasyonunu gerçekleştiriyor. Mevcut AI ajanları fonksiyonel olarak doğru GPU kodları üretebilse de, matris çarpımı ve dikkat mekanizmaları gibi kritik hesaplamalarda performansları elle optimize edilmiş kütüphanelerin çok gerisinde kalıyor. ARGUS, bu sorunu çözmek için derlenme zamanında veri koreografisini kodlayan özel bir dil kullanıyor ve donanım talimatlarını Python benzeri sözdizimi ile erişilebilir hale getiriyor.
RainFusion2.0: Video üretiminde yapay zeka hesaplama maliyetlerini düşüren yeni sistem
Araştırmacılar, video ve görüntü üreten yapay zeka modellerinin aşırı yüksek hesaplama maliyetlerini çözmek için RainFusion2.0 adlı yeni bir sistem geliştirdi. Diffusion Transformer modellerinin dikkat mekanizmaları büyük hesaplama gücü gerektiriyor ve bu durum pratik uygulamaları sınırlıyor. Mevcut seyrek dikkat yöntemleri GPU'lar için tasarlandığından farklı donanımlarda verimli çalışamıyor. RainFusion2.0, önemsiz token'ları atlayarak hesaplamaları azaltan, çevrimiçi uyarlanabilir ve düşük ek yük gerektiren bir seyrek dikkat mekanizması sunuyor. Sistem, GPU dışındaki ASIC gibi farklı donanım türlerinde de verimli çalışacak şekilde tasarlandı. Bu gelişme, video üretimi yapay zekasının daha geniş alanlarda kullanılmasının önünü açabilir.
Yapay Zeka Sistemlerinde Yeni Güvenlik Açığı: Bellek Hatalarıyla Sessiz Manipülasyon
Araştırmacılar, büyük dil modellerinin (LLM) hizmet verdiği sistemlerde kritik bir güvenlik açığı keşfetti. vLLM gibi popüler sistemlerde kullanılan paylaşımlı önbellek bloklarının, bit düzeyindeki hatalarla manipüle edilebileceği ortaya çıktı. Bu saldırı yöntemi, GPU belleğindeki Rowhammer saldırılarına benzer şekilde çalışıyor ancak daha sinsi bir yapıya sahip. Saldırının üç temel özelliği tespit edildi: manipüle edilmiş çıktıların normal yanıtlardan ayırt edilememesi, sadece hedeflenen prefix'i paylaşan isteklerin etkilenmesi ve zaman içinde hasarın birikmesi. Bu durum, yapay zeka sistemlerinin güvenilirliği açısından yeni bir tehdit oluşturuyor çünkü saldırı tespit edilmesi zor ve kalıcı etkiler yaratıyor.
Yapay Zeka Merkezleri Elektrik Şebekesinde Salınımlara Neden Oluyor
Araştırmacılar, büyük ölçekli yapay zeka hesaplama merkezlerinin elektrik şebekesinde beklenmedik bir sorun yarattığını keşfetti. GPU tabanlı AI eğitimi sırasında ortaya çıkan düzenli güç dalgalanmaları, elektrik şebekesinde geniş alan salınımlarına yol açabiliyor. Bu durum, geleneksel yük artışlarından farklı olarak sürekli bir zorlayıcı etki yaratarak şebekenin doğal salınım modlarını güçlendirebiliyor. Çalışma, AI teknolojisinin yaygınlaşmasıyla birlikte elektrik altyapısında yeni bir mühendislik sorunu ortaya çıktığını gösteriyor.
Yapay Zeka Kod Üretiminde Yeni Yaklaşım: Olasılıklı Düşünce Programları
Araştırmacılar, büyük dil modellerinin kod üretimi ve matematiksel akıl yürütme performansını artırmak için 'olasılıklı düşünce programları' adını verdikleri yeni bir test-zamanı çerçevesi geliştirdi. Bu yöntem, modelin daha az GPU hesaplaması kullanarak daha fazla kod örneği üretmesini sağlıyor. Geleneksel yaklaşımda uygun bir program elde edilene kadar sürekli örnekleme yapılırken, yeni teknik modelin olasılık dağılımını doğrudan programlara entegre ederek maliyetli hesaplama sürecini optimize ediyor. Özellikle büyük ölçekli kod üretimi projelerinde kaynak kullanımını dramatik şekilde azaltma potansiyeline sahip bu gelişme, yapay zeka destekli programlama araçlarının verimliliğini artırabilir.
GPU Destekli Yeni Simülasyon Sistemi Esnek Robotları Hızlandıracak
Araştırmacılar, esnek çok gövdeli dinamik sistemlerin simülasyonunu büyük ölçüde hızlandıran yeni bir GPU tabanlı hesaplama çerçevesi geliştirdi. Total Lagrangian sonlu elemanlar yöntemine dayanan bu sistem, robotik kollar, araç süspansiyonları ve biyomedikal implantlar gibi karmaşık esnek yapıların davranışını gerçek zamanlı modelleyebiliyor. Yeni yaklaşım, geleneksel CPU tabanlı yöntemlere kıyasla önemli hız artışı sağlayarak, mühendislik tasarımından sanal gerçeklik uygulamalarına kadar geniş bir kullanım alanı sunuyor.
Yapay Zeka Modellerini Hızlandıran Yeni Yöntem: Spekülatif Doğrulama
Büyük dil modelleri (LLM'ler), kelime kelime üretim yapısı nedeniyle yavaş çalışıyor ve GPU kaynaklarını verimsiz kullanıyor. Araştırmacılar bu sorunu çözmek için 'spekülatif çözümleme' tekniği geliştirmişti - küçük bir yardımcı model birden fazla kelime tahmin ediyor, ana model de bu tahminleri toplu olarak doğruluyordu. Ancak yanlış tahminler sistem performansını düşürüyordu. Yeni geliştirilen 'Spekülatif Doğrulama' yöntemi ise tahmin doğruluğunu önceden kestiriyor ve doğrulama sürecini buna göre ayarlıyor. Sistem, yardımcı modelin tahminlerinin ne kadar doğru olacağını değerlendiren ek bir küçük model kullanıyor. Bu sayede gereksiz hesaplamalar azalıyor ve genel performans artıyor. Yöntem, özellikle büyük veri gruplarıyla çalışırken önemli hız kazanımları sağlıyor.
GPU'larda Seyrek Matris İşlemlerini Hızlandıran Yeni Yöntem: AsyncSparse
Araştırmacılar, bilimsel hesaplama ve makine öğrenmesinin temelini oluşturan seyrek matris çarpımı işlemlerini büyük ölçüde hızlandıran yeni bir yöntem geliştirdi. AsyncSparse adlı bu sistem, modern GPU mimarilerinin eşzamansız özelliklerini kullanarak performansı dramatik şekilde artırıyor. Özellikle NVIDIA'nın Tensor Memory Accelerator teknolojisi ve warp uzmanlaşması gibi gelişmiş özellikleri kullanan yöntem, mevcut sistemlere göre 6 kata kadar performans artışı sağlıyor. Geliştirilen iki farklı çekirdek tasarımı, hem yapılandırılmış hem de düzensiz seyreklik türleri için optimize edilmiş çözümler sunuyor. Bu gelişme, yapay zeka hesaplamalarından bilimsel simülasyonlara kadar geniş bir uygulama yelpazesinde önemli hız kazanımları vaat ediyor.
GPUOS: GPU'ları Daha Verimli Kullanmak İçin Yeni İşletim Sistemi Yaklaşımı
Araştırmacılar, yapay zeka uygulamalarında karşılaşılan performans sorunlarını çözmek için GPUOS adlı yeni bir sistem geliştirdi. Özellikle küçük tensor işlemlerinin yoğun olduğu derin öğrenme uygulamalarında, GPU çekirdeklerini başlatma süresi hesaplama süresini aşabiliyor. GPUOS, sürekli çalışan tek bir GPU çekirdeği kullanarak ve yeni operatörleri çalışma anında sistem içine enjekte ederek bu sorunu çözüyor. Bu yaklaşım, geleneksel yöntemlere kıyasla önemli performans artışları sağlayarak AI uygulamalarının daha hızlı çalışmasını mümkün kılıyor.
Li Auto'dan M100: Otonom Araçlar İçin Yeni Nesil Yapay Zeka İşlemcisi
Çinli otomobil üreticisi Li Auto, otonom sürüş ve büyük dil modelleri için özel tasarlanmış M100 adlı yeni bir yapay zeka işlemcisi mimarisi geliştirdi. Geleneksel GPU tabanlı sistemlerin maliyetli ve verimsiz olduğu alanlarda çözüm sunan M100, veri akışı tabanlı paralel mimariyle çalışıyor. Bu sistem, sadece hesaplama değil, aynı zamanda verilerin zaman ve uzam boyunlarında hareketini de optimize ediyor. Derleyici ve donanım arasındaki ortak tasarım yaklaşımı sayesinde, otonom sürüş sistemleri, büyük dil modelleri ve akıllı insan etkileşimi uygulamaları için hem performanslı hem de maliyet etkin bir çözüm sunuyor. Özellikle günümüzün rekabetçi otomobil platformlarında kritik öneme sahip bu alanlar için optimize edilmiş sistem, yapay zeka hesaplama mimarilerinde yeni bir yaklaşım sergiliyor.
Neptune: Yapay Zeka Hesaplamalarını Hızlandıran Yeni Derleyici Teknolojisi
Araştırmacılar, derin öğrenme modellerinin GPU'larda daha verimli çalışmasını sağlayan Neptune adlı yeni bir tensor derleyici geliştirdi. Bu teknoloji, karmaşık matematiksel işlemleri birleştirerek bellek kullanımını optimize ediyor ve hesaplama hızını artırıyor. Özellikle dikkat mekanizmalarında kullanılan karmaşık döngü bağımlılıklarını çözebilen Neptune, mevcut derleyicilerin zorlandığı alanları da başarıyla ele alıyor. Sistem, matematiksel düzeltme ifadeleri kullanarak doğruluğu korurken performansı maksimize eden yenilikçi bir yaklaşım benimsiyor. On farklı benchmark testinde yapılan değerlendirmeler, Neptune'ün mevcut çözümlerden üstün performans sergilediğini gösteriyor.
ENTIRE: Yapay Zeka ile 3D Görüntü İşleme Süresi Tahmin Etme Devri
Araştırmacılar, 3D hacimsel görüntülerin işlenme süresini önceden tahmin edebilen ENTIRE adlı yapay zeka sistemini geliştirdi. Bu sistem, büyük veri setlerinin görselleştirilmesinde kritik olan işlem süresini, görüntü çözünürlüğü, kamera ayarları ve veri karakteristikleri gibi faktörleri analiz ederek yüksek doğrulukla öngörebiliyor. Tıbbi görüntüleme, bilimsel simülasyonlar ve endüstriyel tasarımda kullanılan hacimsel renderlamada zaman planlaması büyük önem taşıyor. ENTIRE, hem CPU hem de GPU tabanlı sistemlerde test edildi ve farklı senaryolara hızla adapte olabileceği kanıtlandı.
Robot eğitimi web tarayıcısında: Yeni platform donanım sınırlarını kaldırıyor
Araştırmacılar, robotik eğitimindeki yüksek hesaplama maliyetleri ve karmaşık sistem kurulumları sorununu çözmek için Web-Gewu adlı yenilikçi bir platform geliştirdi. WebRTC teknolojisini kullanan bu sistem, fizik simülasyonlarını ve pekiştirmeli öğrenme süreçlerini bulut-kenar-istemci işbirliği mimarisinde çalıştırıyor. Platform, öğrencilerin güçlü bir bilgisayara ihtiyaç duymadan doğrudan web tarayıcısından robotlarla etkileşim kurmasını sağlıyor. Geleneksel merkezi bulut çözümlerinin aksine, sistem GPU ve bant genişliği maliyetlerini dramatik şekilde düşürürken düşük gecikme süresi sunuyor. Bu yaklaşım, robotik eğitimini demokratikleştirerek daha geniş kitleler için erişilebilir hale getiriyor.
FlexiCache: Yapay Zeka Modellerinin Hafıza Sorununa Akıllı Çözüm
Büyük dil modelleri (LLM) uzun metinlerle çalışırken devasa hafıza gereksinimleri nedeniyle performans sorunları yaşıyor. Araştırmacılar, bu modellerin dikkat mekanizmalarının farklı başlıklarının zamansal kararlılık özelliklerini inceleyerek FlexiCache adlı yeni bir sistem geliştirdi. Sistem, bazı dikkat başlıklarının sürekli aynı token'lara odaklandığını, diğerlerinin ise sık sık değiştiğini keşfetti. Bu bulguya dayanarak geliştirilen hierarşik önbellek yönetim sistemi, GPU hafıza kullanımını ve hesaplama yükünü önemli ölçüde azaltırken model doğruluğunu koruyor. FlexiCache, kararlı ve kararsız dikkat başlıklarını sınıflandırarak akıllı hafıza yönetimi yapıyor.
KOBİ'ler için AI finansal analizi: Boyuttan ziyade mimari tasarım önemli
Finansal sektörde yapay zeka kullanımı hızla yaygınlaşırken, büyük şirketlerin aksine küçük ve orta boy işletmeler (KOBİ) sınırlı kaynaklarla çalışmak zorunda. Yeni bir araştırma, KOBİ'lerin bulut GPU bütçeleri ve özel AI ekipleri olmadan da etkili finansal analiz yapabileceğini ortaya koyuyor. Çalışma, 8 milyar parametreli yerel bir dil modeliyle gerçekleştirilen testlerde, büyük ölçekli modellerin değil, doğru mimari tasarımın başarının anahtarı olduğunu gösteriyor. Bu bulgular, kaynak kısıtlı ortamlarda çalışan işletmeler için AI tabanlı finansal karar destek sistemlerinin nasıl optimize edilebileceği konusunda önemli ipuçları sunuyor.
FLASH: Esnek Malzemelerle Robot Manipülasyonunda Devrim
Araştırmacılar, robotların esnek ve yumuşak malzemelerle çalışmasını öğrenmesi için FLASH adlı yeni bir simülasyon sistemi geliştirdi. Bu GPU tabanlı sistem, geleneksel yaklaşımlardan 10-50 kat daha hızlı çalışarak robotların dakikalar içinde karmaşık manipülasyon görevlerini öğrenmesini sağlıyor. Isaac Sim gibi mevcut sistemler katı cisim manipülasyonunda başarılı olsa da, esnek malzemelerle çalışmada yetersiz kalıyordu. FLASH, sürekli değişen geometri ve çok sayıda temas kısıtlaması ile başa çıkabilecek şekilde GPU mimarisine özel olarak tasarlandı. Bu gelişme, robotların hamur yoğurma, kumaş katlama veya organik malzemelerle çalışma gibi görevleri daha etkili öğrenmesini sağlayabilir.
Yapay Zeka ile Graf Analizi: Büyük Veri Setlerinde Alt Grafları Bulma Sorunu Çözüldü
Araştırmacılar, büyük ölçekli graf verilerinde alt graf eşleştirmesi problemini çözmek için yenilikçi bir yapay zeka yaklaşımı geliştirdi. Graf Sinir Ağları tabanlı bu yöntem, sosyal ağlardan biyolojik moleküllere kadar geniş bir alanda kullanılabiliyor. Çalışma, dağıtık sistemlerde çalışan akıllı yük dengeleme, çok-GPU işbirliği ve sorgu optimizasyonu teknikleriyle büyük veri analizinde çığır açıyor. Bu gelişme, kompleks ağ yapılarının analizinde hem hız hem de doğruluk açısından önemli ilerlemeler vadediyor.