“GPU” için sonuçlar
61 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Mobil cihazlarda yapay zeka modellerinin gecikme süresini doğru tahmin eden yeni sistem
Akıllı telefonlarda çalışan yapay zeka uygulamaları için kritik önem taşıyan gecikme süresi tahmini konusunda önemli bir gelişme yaşandı. Araştırmacılar, mobil cihazların işlemci frekanslarının sürekli değişmesi nedeniyle oluşan tahmin zorluklarını çözen FLAME adlı sistemi geliştirdi. Geleneksel yöntemler, işlemcilerin enerji tasarrufu için frekanslarını dinamik olarak ayarlaması sebebiyle gerçek kullanımda yetersiz kalıyordu. Özellikle küçük dil modelleri gibi yeni nesil yapay zeka uygulamalarında bu sorun daha da kritik hale geliyor. Yeni sistem, CPU ve GPU arasındaki karmaşık asenkron etkileşimi dikkate alarak çok daha doğru tahminler yapabiliyor. Bu gelişme, mobil cihazlarda çalışan yapay zeka uygulamalarının performansını optimize etmek ve enerji verimliliğini artırmak açısından büyük önem taşıyor.
AI Çiplerinde 8-bit Hesaplamalarla Kuantum Kimyası Simülasyonları 364% Hızlandı
Araştırmacılar, yapay zeka çiplerinde kuantum kimyası hesaplamalarını büyük ölçüde hızlandıran yenilikçi bir yöntem geliştirdi. NVIDIA Tensor Core'lar gibi AI donanımlarında 8-bit tam sayı aritmetiği kullanan adaptif hassasiyet algoritması, yoğunluk uydurma methodunu önemli ölçüde hızlandırıyor. RTX 4090'da %204, RTX 6000 Ada'da ise %364'e varan hız artışları elde edilen çalışmada, hesaplama doğruluğundan taviz verilmiyor. Bu gelişme, AI donanımının bilimsel hesaplamalarda nasıl etkili kullanılabileceğini gösteriyor.
Fleet: Çok Çekirdekli GPU'lar İçin Yeni Görev Yönetim Sistemi Geliştirildi
Modern GPU'lar çoklu çip tasarımı benimserken, mevcut programlama modelleri bu yapıyı tam olarak kullanamıyor. Araştırmacılar, GPU'ların çip düzeyindeki organizasyonunu daha iyi değerlendiren Fleet adlı yeni bir sistem geliştirdi. Bu sistem, yapay zeka modellerinin çalıştırılması gibi bellek yoğun işlemlerde performansı artırmayı hedefliyor. Fleet, görevleri GPU'nun farklı seviyelerine akıllıca dağıtarak, önbellek kullanımını optimize ediyor ve gereksiz veri trafiğini azaltıyor. Özellikle büyük dil modellerinin çalıştırılmasında önemli iyileştirmeler sağlayabilecek bu yaklaşım, GPU programlamanın geleceğini şekillendirebilir.
Büyük Dil Modellerini TPU'larda Hızlandıran Yeni Sistem: Ragged Paged Attention
Araştırmacılar, büyük dil modellerinin Google'ın Tensor İşlem Birimleri (TPU) üzerinde daha verimli çalışmasını sağlayan yenilikçi bir sistem geliştirdiler. Ragged Paged Attention (RPA) adı verilen bu sistem, ChatGPT benzeri yapay zeka uygulamalarının maliyetini düşürürken performansını artırıyor. Çoğu mevcut sistem GPU odaklı tasarlandığı için, TPU'ların benzersiz mimarisinden tam olarak yararlanamıyordu. RPA, özellikle dinamik bellek yönetimi ve dikkat hesaplamaları konusunda üç temel teknik kullanarak bu sorunu çözüyor. Sistem, değişken uzunluktaki metinleri işlerken daha esnek davranabiliyor ve hesaplama kaynaklarını daha verimli kullanıyor. Bu gelişme, büyük dil modellerinin daha uygun maliyetli donanımlarda çalıştırılmasının önünü açarak, yapay zeka teknolojilerinin yaygınlaşmasına katkı sağlayabilir.
NeuroMesh: Farklı Robot Türlerinin Birlikte Çalışması İçin Yeni Yapay Zeka Sistemi
Araştırmacılar, farklı donanım özelliklerine sahip robotların daha etkili bir şekilde işbirliği yapabilmesi için NeuroMesh adlı yeni bir yapay zeka çerçevesi geliştirdi. Bu sistem, hava ve kara robotlarının aynı görevde koordineli çalışmasını sağlayan birleşik bir altyapı sunuyor. NeuroMesh, robotlar arası iletişimi standartlaştırarak ve paralel işlem mimarisi kullanarak, farklı robot türlerinin gerçek zamanlı olarak bilgi paylaşmasını ve ortak kararlar almasını mümkün kılıyor. Sistem, GPU ve CPU'yu hibrit olarak kullanarak yüksek performans elde ediyor ve çeşitli görev türlerinde başarılı sonuçlar veriyor.
EasyRider: Yapay Zeka Eğitiminin Elektrik Şebekesine Verdiği Zararı Önlüyor
Binlerce GPU ile büyük ölçekli yapay zeka modeli eğitimleri, elektrik şebekelerini tehdit eden güç dalgalanmalarına neden oluyor. Araştırmacılar, bu sorunu çözmek için EasyRider adlı yeni bir güç mimarisi geliştirdi. GPU'ların eğitim sırasında milisaniyeler içinde maksimum güçten boşta bekleme moduna geçmesi, transformatörlere ve koruma ekipmanlarına zarar verebilecek ani voltaj ve frekans değişikliklerine yol açıyor. EasyRider sistemi, raf seviyesinde pasif bileşenler ve aktif kontrollü yardımcı enerji depolama kullanarak bu güç dalgalanmalarını yumuşatıyor. Sistem, sık şarj/deşarj döngülerinde enerji depolama sisteminin ömrünü maksimize etmek için sürekli izleme yapıyor. Bu teknoloji, yapay zeka altyapısının elektrik şebekesi güvenliği açısından sürdürülebilirliğini artırıyor.
PINNACLE: Fizik Tabanlı Yapay Zeka Modelleri İçin Yeni Açık Kaynak Çerçeve
Araştırmacılar, fizik yasalarını yapay zeka modellerine entegre eden PINN (Physics-Informed Neural Networks) teknolojisi için PINNACLE adlı kapsamlı bir açık kaynak platform geliştirdi. Bu yenilikçi çerçeve, klasik ve kuantum hesaplama yöntemlerini birleştirerek bilimsel problemlerin çözümünde önemli ilerlemeler sunuyor. Platform, çoklu GPU desteği, gelişmiş eğitim stratejileri ve modüler yapısıyla araştırmacılara elektromanyetik dalga yayılımından akışkanlar mekaniğine kadar geniş bir yelpazede fizik problemlerini çözme imkanı tanıyor. PINNACLE'ın sunduğu performans karşılaştırmaları ve ölçeklenebilirlik analizleri, bilimsel hesaplamalarda yapay zekanın kullanımını demokratikleştirmeyi hedefliyor.
PoSME: Sıralı Bellek İşlemleri için Yeni Kriptografik Güvenlik Sistemi
Araştırmacılar, bilgisayar belleği üzerinde sıralı işlemleri zorunlu kılan PoSME adlı yeni bir kriptografik sistem geliştirdi. Bu sistem, bellek hücrelerini zincirleyerek işlemlerin doğru sırada yapılmasını garanti ediyor ve güvenlik açıklarını önlüyor. PoSME, her adımda veri bağımlı adresleri okuyarak ve her bloğun değeri ile hash kodunu karşılıklı bağımlı hale getirerek çalışıyor. Sistem, donanım tabanlı saldırılara karşı güçlü direnç gösteriyor ve GPU'ların CPU'lara göre 14-19 kat daha yavaş performans sergilediğini ortaya koyuyor. Bu gelişme, blockchain ve kripto para sistemlerinin güvenliği açısından önemli bir adım olarak değerlendiriliyor.
Yapay Zeka Modellerindeki Zararlı Davranışları Kökten Silmek Artık Mümkün
Araştırmacılar, yapay zeka modellerindeki zararlı ve güvenli olmayan davranışları doğrudan kaynaklarından silmek için yeni bir yöntem geliştirdi. Mistral ve LLaVA gibi hizalanmış modeller bile eğitim sürecinden kalma istenmeyen davranışlar sergileyebiliyor. Mevcut güvenlik yöntemleri sadece tercih edilen yanıtları teşvik ediyor ancak zararlı çıktılara neden olan alt ağları doğrudan kaldırmıyor. Yeni geliştirilen 'budama' çerçevesi, gradyant-free bir atıf mekanizması kullanarak bu tehlikeli parametreleri tespit ediyor ve kaldırıyor. Sistem, GPU kaynaklarını verimli kullanırken farklı mimarilerde genelleştirilebiliyor. Deneysel sonuçlar, zararlı üretimlerde önemli azalma ve jailbreak saldırılarına karşı daha iyi direnç gösterirken model performansında minimal kayıp olduğunu ortaya koyuyor.
NVIDIA'nın GPU Güvenlik Sisteminin İç Yapısı İlk Kez Deşifre Edildi
Yapay zeka iş yüklerini güvenli bir şekilde işlemek için tasarlanan NVIDIA GPU Confidential Computing (GPU-CC) sistemi, araştırmacılar tarafından kapsamlı bir güvenlik analizine tabi tutuldu. Sistemin kapalı kutu yapısının zorluklarına rağmen, araştırma ekibi GPU-CC'nin mimarisini, önyükleme sürecini ve güvenlik mekanizmalarını başarıyla çözümledi. Bu çalışma, yapay zeka uygulamalarında veri güvenliğinin nasıl sağlandığına dair önemli bilgiler sunuyor. Özellikle CPU ve GPU arasındaki veri transferlerinin güvenliği konusunda yapılan deneysel çalışmalar, sistemin güven modelinin etkinliğini değerlendiriyor. Sonuçlar, yapay zeka güvenliği alanında çalışan araştırmacılar ve geliştiriciler için kritik öneme sahip.
Otonom AI Sistemlerinde CPU'nun Gizli Rolü Keşfedildi
Araştırmacılar, otonom yapay zeka sistemlerinin performans darboğazlarını CPU merkezli bir bakış açısıyla inceledi. Geleneksel AI sistemlerinin aksine, plan yapabilen, araç kullanabilen ve anlık adaptasyon gösterebilen agentic AI sistemleri, heterojen CPU-GPU mimarilerde çalışıyor. Yeni çalışma, bu sistemlerdeki CPU'nun kritik rolünü ortaya koydu. Araştırma, farklı donanım sistemlerinde uçtan uca gecikme ve verim analizleri yaparak, performans engellerini belirlemeyi amaçlıyor. Bu bulgular, gelecekteki otonom AI sistemlerinin tasarımında CPU optimizasyonunun önemini vurguluyor ve mevcut GPU-odaklı yaklaşımları sorgulayan önemli bir perspektif sunuyor.
Yapay Zeka Kümeleme Algoritmalarında Belirsizlik Hesaplamasında Çığır Açan Yöntem
Araştırmacılar, veri kümeleme işlemlerinde belirsizlik hesaplaması için yeni bir matematiksel çerçeve geliştirdi. Bu yöntem, geleneksel model tabanlı yaklaşımların aksine, kümeleri veri yoğunluğunun doğrudan fonksiyonları olarak ele alıyor ve belirli parametrik formlar varsaymıyor. Martingale posterior dağılımları ve yoğunluk tabanlı kümeleme tekniklerini birleştiren sistem, normalizing flows gibi gelişmiş yoğunluk tahminleyicilerini kullanabiliyor. Bu da büyük ölçekli veri setlerinde verimli çalışmasını ve modern GPU donanımında paralel işlem yapabilmesini sağlıyor. Yöntem, kümeleme yapısının belirsizlik düzeyini daha doğru hesaplayarak, yapay zeka uygulamalarında daha güvenilir sonuçlar elde etmeyi mümkün kılıyor.
Yapay zeka modelleri için yeni derleyici teknolojisi: Event Tensor
Araştırmacılar, büyük dil modellerinin çalışmasını hızlandıran yeni bir derleyici teknolojisi geliştirdi. Event Tensor adı verilen bu sistem, GPU işlemcilerde karşılaşılan performans sorunlarını çözerek yapay zeka uygulamalarının daha verimli çalışmasını sağlıyor. Teknoloji, özellikle ChatGPT benzeri dil modellerinin yanıt verme hızını artırıyor. Geleneksel yaklaşımlar, GPU'da farklı işlemlerin başlatılması sırasında oluşan gecikmeler ve eşzamanlama sorunları yaşıyor. Event Tensor, bu işlemleri tek bir sürekli çekirdek halinde birleştirerek bu problemleri ortadan kaldırıyor. Sistem aynı zamanda değişken boyutlardaki verileri ve veriye bağlı hesaplamaları etkin şekilde yönetiyor. Test sonuçları, yeni teknolojinin büyük dil modellerinin hizmet verme süresini önemli ölçüde azalttığını ve sistem başlatma maliyetlerini düşürdüğünü gösteriyor.