“paralel işlem” için sonuçlar
26 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Yapay Zeka Dil Modellerinde Hız Devrimine Yeni Yaklaşım: Efficient-DLM
Stanford araştırmacıları, mevcut dil modellerinin hızını artırmak için yenilikçi bir yöntem geliştirdi. Geleneksel otoregresif modelleri, paralel işlem yapabilen difüzyon modellerine dönüştüren bu teknik, hem hızı artırıyor hem de doğruluğu koruyor. Araştırma, ChatGPT gibi modellerin kelime kelime üretim yapma yavaşlığını aşmaya odaklanıyor. Yeni yaklaşım, önceden eğitilmiş modellerin ağırlık dağılımlarını koruyarak daha etkili bir dönüşüm sağlıyor. Blok bazlı dikkat mekanizması kullanan sürekli eğitim şeması, hem nedensel ilişkileri hem de çift yönlü modellemeyi destekliyor. Bu gelişme, yapay zeka asistanlarının yanıt hızını önemli ölçüde artırabilir.
Yapay Zeka Modellerini Daha Verimli Çalıştıran Yeni Paralel İşlem Tekniği
Araştırmacılar, büyük yapay zeka modellerinin eğitimi ve çalışması sırasında bellek kullanımını optimize eden yeni bir teknik geliştirdi. TSP (Tensor ve Sequence Parallelism) adı verilen bu yöntem, geleneksel paralel işlem yaklaşımlarını birleştirerek hem model ağırlıklarını hem de veri dizilerini aynı cihaz ekseni üzerinde paylaştırıyor. Bu sayede her cihazın bellek yükü önemli ölçüde azalırken, büyük dil modellerinin daha az donanım kaynağıyla çalıştırılması mümkün hale geliyor. Özellikle attention mekanizmaları ve gated MLP'ler için özel çalışma zamanı programları geliştiren teknik, iletişim maliyeti artışı pahasına bellek verimliliğinde önemli kazanımlar sağlıyor.
Yapay Zeka Modelleri 13 Kat Daha Hızlı Çalışabilecek
Araştırmacılar, büyük dil modellerinin veri çıkarma işlemlerini dramatik şekilde hızlandıran yeni bir algoritma geliştirdi. Hyper-Parallel Decoding (HPD) adı verilen bu yöntem, geleneksel sıralı işlem yaklaşımını terk ederek paralel hesaplama kullanıyor. Özellikle belge analizi ve öznitelik çıkarma görevlerinde, algoritma aynı anda birden fazla bağımsız metin dizisi üretebiliyor. Bu breakthrough, yapay zeka modellerinin hem maliyet hem de zaman açısından verimliliğini önemli ölçüde artırıyor. Tek bir komut içinde 96 tokena kadar paralel işlem yapabilen sistem, tüm büyük dil modelleriyle uyumlu çalışıyor ve inferans maliyetlerini 13,8 kata kadar düşürebiliyor.
Yapay Zeka Destekli Elektron Mikroskobundan Büyük Atılım
Araştırmacılar, taramalı elektron mikroskoplarında (SEM) nadir mikroyapısal özelliklerin tespiti için devrim niteliğinde bir Python yazılımı geliştirdi. SPARSE adı verilen bu açık kaynaklı sistem, geleneksel yöntemlere göre görüntüleme süresini dramatik şekilde kısaltıyor. İki aşamalı yaklaşım kullanan sistem, önce geniş alanları hızla tarayarak ilgi çekici bölgeleri tespit ediyor, ardından bu bölgeleri yüksek çözünürlükle yeniden görüntülüyor. Paralel işlem mimarisi sayesinde hesaplama süresi, görüntü alma süresini uzatmıyor. Çelik malzemelerde hasar tespiti üzerinde test edilen sistem, malzeme biliminden biyolojiye kadar pek çok alanda kullanılabilir. Bu teknoloji, mikroskop platformlarına ve farklı tespit yöntemlerine uyum sağlayabilen modüler yapısıyla bilim insanlarına önemli zaman tasarrufu sunuyor.
HELIX: Robot sistemleri için güvenli kod üretim teknolojisi geliştirildi
Araştırmacılar, siber-fiziksel kontrol sistemleri için HELIX adlı yeni bir kod üretim sistemi geliştirdi. Bu sistem, matematiksel formüllerden başlayarak robot sistemleri gibi kritik uygulamalar için hem yüksek performanslı hem de güvenilir kod üretebiliyor. HELIX'in en önemli özelliği, ürettiği kodun doğruluğunu matematiksel olarak garanti edebilmesi. Sistem, yüksek seviyeli matematiksel tanımlamalardan başlayarak, bir dizi cebirsel dönüşüm uygular ve sonunda verimli bir kod haline getirir. Bu süreçte anlam bütünlüğü korunarak, orijinal formülasyondan son koda kadar her adım doğrulanır. Özellikle paralel işleme optimize edilmiş vektör ve matris hesaplamaları için geliştirilmiş bu teknoloji, kritik güvenlik gerektiren robotik uygulamalarda önemli bir ilerleme sağlıyor.
Yapay Zeka Hafızasını Güçlendiren Yeni Matematiksel Model: Mamba'ya Bilineer Güncelleme
Yapay zeka modellerinin hafıza ve hesaplama kapasitelerini artırmak için yeni bir yaklaşım geliştirildi. Mamba gibi Seçici Durum Uzayı Modelleri (SSM'ler), şu anda diagonal durum geçişleri kullanarak hem hafıza tutma hem de çarpımsal hesaplama yeteneklerinde sınırlı kalıyor. Araştırmacılar, bu modellere bilineer girdi modülasyonu ekleyerek performansı önemli ölçüde artırdılar. Yeni sistem, Koopman bilineer formları kullanarak durum-girdi çarpımı gerçekleştiriyor ve iki farklı uygulama sunuyor: tam bilineer hesaplama yapan Coupled-BIM ve paralel işleme uyumlu Coupled-GM. Test sonuçları, Coupled-GM'nin hafıza tutma kapasitesini, Coupled-BIM'in ise hem hafızayı hem de bilineer hesaplama yeteneğini belirgin şekilde geliştirdiğini gösterdi.
Büyük dil modellerinin paralel çalıştırılması için yeni sistem geliştirildi
Araştırmacılar, büyük dil modellerinin parçalara ayrılarak daha verimli çalıştırılması için DeInfer adlı yeni bir sistem geliştirdi. Mevcut yaklaşımlar model performansını artırmaya odaklanırken, paralel işleme verimliliğini göz ardı ediyordu. DeInfer sistemi, parçalara ayrılmış dil modellerinin birden fazla işlemci üzerinde eş zamanlı çalışmasını optimize ederek bu sorunu çözüyor. Sistem, çoklu optimizasyon teknikleri içeriyor ve mevcut gelişmiş yöntemlerle uyumlu çalışabiliyor. Kapsamlı deneyler, DeInfer'in üstün performans sergilediğini ve parçalanmış büyük dil modellerinin paralel çıkarım süreçlerini önemli ölçüde hızlandırabileceğini gösteriyor. Bu gelişme, yapay zeka uygulamalarında büyük modellerin daha verimli kullanılmasını mümkün kılabilir.
Yapay Zeka Editörlerini Hızlandıran Yeni Yöntem: Copy-as-Decode
Araştırmacılar, büyük dil modellerinin metin düzenleme performansını dramatik şekilde artıran Copy-as-Decode adlı yeni bir yöntem geliştirdi. Mevcut sistemler bir metni düzenlerken değişmemiş kısımları bile baştan yeniden üretiyor, bu da gereksiz hesaplama yükü oluşturuyor. Yeni yaklaşım, değişmeyen bölümleri kopyalama ve yeni içerik üretme olmak üzere iki temel işlemle çalışıyor. Sistem, giriş metnindeki değişmemiş kısımları tespit ediyor ve bunları tek seferde paralel olarak işleyerek zaman kazanıyor. Test sonuçları, bu yöntemin geleneksel yaklaşıma göre 6.8 ila 303 kat daha hızlı olabildiğini gösteriyor. Bu gelişme, kod editörleri, metin düzenleyiciler ve AI asistanları için önemli performans artışları sağlayabilir.
DMax: Yapay Zeka Dil Modellerinde Çığır Açan Hızlı Kod Çözme Yöntemi
Araştırmacılar, difüzyon tabanlı dil modellerinin performansını artıran yenilikçi bir yaklaşım geliştirdi. DMax adı verilen bu yöntem, geleneksel modellerin hata birikimi sorununu çözerek, paralel işlem gücünden daha verimli yararlanmayı sağlıyor. Sistem, maske gömme tekniği ile token gömme arasında kademeli bir geçiş yaparak, modelin kendi hatalarından öğrenmesini ve kendini düzeltmesini mümkün kılıyor. Bu gelişme, yapay zeka sistemlerinin daha hızlı ve daha doğru metin üretmesinin önünü açarak, ChatGPT benzeri uygulamaların performansını önemli ölçüde artırabilir. Özellikle büyük ölçekli dil işleme görevlerinde zaman tasarrufu sağlayan bu teknik, AI endüstrisinde verimlilik devriminin habercisi olabilir.
Yapay Zeka Çipleri Artık Sıfır Bilgi İspatları İçin Kullanılabilecek
Araştırmacılar, kripto para ve blockchain dünyasında kritik öneme sahip sıfır bilgi ispatlarının hesaplanmasını hızlandırmak için yapay zeka çiplerini kullanmanın yolunu buldu. MORPH adlı yeni framework, TPU gibi AI çiplerinin güçlü matrix işleme kapasitesini sıfır bilgi ispat hesaplamalarında kullanarak bu süreçleri dramatik şekilde hızlandırıyor. Sıfır bilgi ispatları, bir kişinin gizli bir bilgiye sahip olduğunu o bilgiyi açıklamadan kanıtlamasına olanak tanıyan kriptografik yöntemler. Ancak bu hesaplamalar çok maliyetli ve yavaş. Yeni yaklaşım, bu sorunu yapay zeka çiplerinin sahip olduğu paralel işlem gücüyle çözmeyi hedefliyor.
Yapay Zeka Metinlerini 3 Kat Daha Hızlı Üretiyor: Yeni CreditDecoding Yöntemi
Araştırmacılar, difüzyon tabanlı büyük dil modellerinin metin üretim hızını önemli ölçüde artıran yeni bir yöntem geliştirdi. CreditDecoding adı verilen bu teknik, modellerin geçmiş tahminlerini analiz ederek doğru kelimeleri daha erken tespit etmeyi başarıyor. Çalışma, mevcut paralel kod çözme sistemlerindeki önemli bir verimsizliği ortaya koyuyor: modeller genellikle doğru kelimeyi tahmin ettikten sonra bile güven seviyesi yetersiz olduğu için aynı pozisyonları tekrar tekrar işliyor. Yeni yöntem bu sorunu çözerek hem hızı artırıyor hem de daha sağlam sonuçlar üretiyor.
Yapay Zeka Modellerinin Paralel Test Zamanı Ölçeklendirme Yaklaşımında Yeni Yöntem
Araştırmacılar, büyük dil modellerinin performansını artırmak için kullanılan paralel test zamanı ölçeklendirme (TTS) yaklaşımını, gizli muhakeme modellerine uyarladı. Geleneksel yöntemler, birden fazla düşünce zinciri oluşturup sonuçları oylamayla birleştirirken, yeni yaklaşım sürekli vektör uzayında çalışan modeller için tasarlandı. Ekip, Monte Carlo Dropout ve Gaussian Gürültü ekleme gibi belirsizlik temelli örnekleme stratejileri geliştirdi. Ayrıca, adım adım karşıtsal öğrenme ile eğitilen Gizli Ödül Modeli (LatentRM) sayesinde farklı çözüm yollarını daha etkili bir şekilde değerlendirip birleştirebildi. Bu yenilik, yapay zeka sistemlerinin muhakeme yeteneklerini geliştirirken hesaplama verimliliğini de artırıyor.
Küçük Yapay Zeka Modeli, Çok-Ajan Sistemleri Yönetmede Büyük Başarı
Araştırmacılar, karmaşık görevleri çözmek için birden fazla yapay zeka ajanını koordine eden yeni bir sistem geliştirdi. 'Agent-as-Tool' adlı bu yaklaşım, farklı ajanları ve araçları standart bir formatta birleştirerek paralel çalışmalarını sağlıyor. ParaManager adlı hafif orkestratör, büyük görevleri alt parçalara bölerek eş zamanlı olarak farklı ajanlara dağıtabiliyor. Bu sistem, geleneksel seri çalışma modellerinden farklı olarak, ajanların aynı anda farklı alt görevler üzerinde çalışmasına olanak tanıyor. İki aşamalı eğitim süreci ile geliştirilen sistem, daha esnek ve genişletilebilir bir yapı sunuyor.
Yapay Zeka Dil Modellerini 10 Kat Hızlandıran Yeni Örnekleme Yöntemi
Araştırmacılar, yapay zeka dil modellerinin metin üretme hızını dramatik şekilde artıran yeni bir yöntem geliştirdi. Neural Indicator Sampling (NI Sampling) adlı bu teknik, hangi kelimelerin hangi sırayla işlenmesi gerektiğini akıllıca belirleyerek, geleneksel yöntemlere kıyasla 10 kata kadar hızlanma sağlıyor. Yöntem, ayrık difüzyon dil modellerinde token örnekleme sırasını optimize ederek, doğru tahminleri tam olarak kullanıyor ve böylece örnekleme iterasyon sayısını büyük ölçüde azaltıyor. Bu gelişme, doğruluğu korurken paralel işleme imkanı sunarak yapay zeka modellerinin verimliliğinde önemli bir ilerleme kaydediyor.
Paralel İşlem Yapabilen Yeni Ising Makinesi Gerçek Zamanlı Uygulamalar İçin Geliştirildi
Araştırmacılar, karmaşık optimizasyon problemlerini çözmek için kullanılan Ising makinelerinde önemli bir ilerleme kaydetti. Geleneksel olarak, bu makinelerdeki spin'ler paralel olarak güncellendiğinde çözüm yeteneği bozuluyordu. Ancak yeni çalışmada, spin dinamiklerine eklenen 'eylemsizlik' terimi sayesinde bu sorun aşıldı. FPGA donanımında yapılan deneyler, paralel işlemin başarı oranını düşürmek yerine artırdığını gösterdi. Bu gelişme, yoğun bağlantılı problemlerin hızlı çözümü için probabilistik Ising makinelerinin kullanımında büyük bir engeli kaldırıyor ve gerçek zamanlı uygulamalara kapı açıyor.
Live Avatar: Sesle Kontrol Edilen Gerçek Zamanlı Dijital Karakterler Geliştirildi
Araştırmacılar, ses komutlarıyla kontrol edilen dijital avatarları gerçek zamanlı olarak oluşturabilen Live Avatar teknolojisini geliştirdi. 14 milyar parametreye sahip yapay zeka modeli, saniyede 45 kare hızında çalışarak saatlerce kesintisiz avatar etkileşimi sağlayabiliyor. Teknoloji, mevcut difüzyon modellerinin sıralı işlem yapma zorunluluğunu aşarak, her GPU'ya farklı zaman adımları atayan yenilikçi bir paralel işleme yaklaşımı kullanıyor. Bu gelişme, video konferans, oyun, eğitim ve sosyal medya platformları için devrim niteliğinde uygulamalar sunuyor. Sistem, 10.000 saniyeyi aşan sürelerde bile görsel kalite kaybı yaşamadan çalışabiliyor ve kimlik kayması sorununu çözmüş durumda.
Seyrek tensör hesaplamalarında çığır açan paralel işlem algoritması geliştirildi
Araştırmacılar, seyrek tensör cebirinde paralel işlem yükünü dengeli dağıtan ilk algoritmayı geliştirdiler. Seyrek tensörler, çoğunlukla sıfır değerli elemanlardan oluşan çok boyutlu veri yapıları olup, makine öğrenmesi ve bilimsel hesaplamalarda kritik öneme sahip. Ancak bu yapıların düzensiz ve veri-bağımlı doğası, paralel işlem birimlerine eşit iş yükü dağıtımını zorlaştırıyor. Yeni algoritma, mevcut paralel birleştirme yöntemlerini genelleştirerek çok operandlı ve çok boyutlu hiyerarşik seyrek veri yapılarıyla çalışabiliyor. Araştırmacılar algoritmayı mevcut bir derleme çerçevesine entegre ederek, çok çekirdekli CPU'lar ve GPU'lar için otomatik paralel kod üretimi sağladılar. Test sonuçları, üretilen kodun Intel MKL ve NVIDIA cuSPARSE gibi endüstri standardı kütüphanelerle rekabet edebilir performans gösterdiğini ortaya koyuyor. Bu gelişme, büyük veri işleme ve yapay zeka uygulamalarında önemli performans artışları sağlayabilir.
Kuantum Bilgisayarlar için Yeni Hata Düzeltme Sistemi: GreenPeas
Araştırmacılar, kuantum bilgisayarların en büyük sorunlarından biri olan hata düzeltme işlemini devrimsel bir şekilde hızlandıran GreenPeas adlı yeni bir sistem geliştirdi. Kuantum bilgisayarlar, çevresel etkilerden dolayı sürekli hata yapma eğiliminde olduğundan, bu hataları gerçek zamanlı olarak tespit edip düzeltmek kritik önem taşıyor. Geleneksel yöntemler, tüm olası hata senaryolarını önceden hesaplayarak büyük miktarda bellek kullanıyordu. GreenPeas ise bu hesaplamaları ihtiyaç anında yaparak hem bellek kullanımını azaltıyor hem de işlem hızını artırıyor. Sistem, özellikle adaptif kuantum devreler için tasarlandı - bunlar çalışma sırasında ölçüm sonuçlarına göre yapılarını değiştirebilen gelişmiş kuantum devrelerdir. C++ ve CUDA teknolojileri kullanılarak geliştirilen sistem, GPU'ların paralel işlem gücünden yararlanarak binlerce işlemi eş zamanlı gerçekleştiriyor. Bu gelişme, pratik kuantum bilgisayarların gerçekleştirilmesinde önemli bir adım olarak görülüyor.
Yapay Zeka Kümeleme Algoritmalarında Belirsizlik Hesaplamasında Çığır Açan Yöntem
Araştırmacılar, veri kümeleme işlemlerinde belirsizlik hesaplaması için yeni bir matematiksel çerçeve geliştirdi. Bu yöntem, geleneksel model tabanlı yaklaşımların aksine, kümeleri veri yoğunluğunun doğrudan fonksiyonları olarak ele alıyor ve belirli parametrik formlar varsaymıyor. Martingale posterior dağılımları ve yoğunluk tabanlı kümeleme tekniklerini birleştiren sistem, normalizing flows gibi gelişmiş yoğunluk tahminleyicilerini kullanabiliyor. Bu da büyük ölçekli veri setlerinde verimli çalışmasını ve modern GPU donanımında paralel işlem yapabilmesini sağlıyor. Yöntem, kümeleme yapısının belirsizlik düzeyini daha doğru hesaplayarak, yapay zeka uygulamalarında daha güvenilir sonuçlar elde etmeyi mümkün kılıyor.
NeuroMesh: Farklı Robot Türlerinin Birlikte Çalışması İçin Yeni Yapay Zeka Sistemi
Araştırmacılar, farklı donanım özelliklerine sahip robotların daha etkili bir şekilde işbirliği yapabilmesi için NeuroMesh adlı yeni bir yapay zeka çerçevesi geliştirdi. Bu sistem, hava ve kara robotlarının aynı görevde koordineli çalışmasını sağlayan birleşik bir altyapı sunuyor. NeuroMesh, robotlar arası iletişimi standartlaştırarak ve paralel işlem mimarisi kullanarak, farklı robot türlerinin gerçek zamanlı olarak bilgi paylaşmasını ve ortak kararlar almasını mümkün kılıyor. Sistem, GPU ve CPU'yu hibrit olarak kullanarak yüksek performans elde ediyor ve çeşitli görev türlerinde başarılı sonuçlar veriyor.
Yeni FPGA Hızlandırıcı Süper Bilgisayarlarda İş Yükü Dağılımını Devrimleştiriyor
Süper bilgisayar sistemlerinde iş yüklerinin verimli dağıtılması, modern hesaplamalı bilim için kritik bir zorluktur. Geleneksel yazılım tabanlı zamanlayıcılar, öngörülemeyen iş yükleri karşısında yetersiz kalıyor ve kaynak kullanımı optimal seviyede gerçekleşmiyor. Araştırmacılar bu soruna donanım temelli bir çözüm getirdi: Hercules ve Stannic adlı iki FPGA destekli hızlandırıcı mimarisi. Bu yenilikçi sistemler, paralel işleme, ön hesaplama ve uzamsal bellek erişimi teknikleriyle zamanlama süreçlerini dramatik şekilde hızlandırıyor. Hercules görev odaklı, Stannic ise program odaklı yaklaşım benimsiyor. Bu gelişme, özellikle paylaşımlı süper bilgisayar kümelerinde kaynakların daha verimli kullanılmasını sağlayarak, bilimsel hesaplamaların hızını artırabilir.
Yapay Zeka Modelleri İçin Yeni Budama Tekniği: STOP ile %90 Doğruluk
Araştırmacılar, büyük mantıksal akıl yürütme modellerinde paralel işleme verimliliğini artıran yenilikçi bir yöntem geliştirdi. STOP (Super TOken for Pruning) adlı bu teknik, modellerin gereksiz hesaplama yollarını erken aşamada tespit edip elemesini sağlıyor. Çalışma, 1.5 milyardan 20 milyar parametreye kadar farklı büyüklükteki modellerde test edildi ve kayda değer başarı elde etti. Özellikle GPT-OSS-20B modelinde AIME25 veri setindeki doğruluk oranı %84'ten %90'a yükseldi. Bu gelişme, yapay zeka modellerinin hem daha verimli çalışmasını hem de daha az enerji tüketmesini mümkün kılıyor.
TRON: Işıkla Çalışan Yapay Zeka İşlemcisi Geliştirildi
Araştırmacılar, derin öğrenme hesaplamalarını optik yöntemlerle gerçekleştiren yenilikçi bir sistem geliştirdi. TRON adlı bu sistem, geleneksel elektronik işlemcilere alternatif olarak ışığın paralel işleme gücünden yararlanıyor. Çok saçılımlı ortam ve dijital mikro ayna dizisi kullanan sistem, farklı sinir ağı mimarilerini optik olarak uygulayabiliyor. En önemli özelliği, hem optik parametrelerini hem de ağ mimarisini otomatik olarak optimize edebilmesi. Bu yaklaşım, yapay zeka hesaplamalarında büyük enerji tasarrufu sağlama potansiyeli taşırken, aynı zamanda çok daha hızlı işlem yapabilme imkanı sunuyor. Optik işlemciler, elektronik sistemlerin aksine ışık hızında çalışarak paralel hesaplama avantajı sağlıyor.
DepCap ile Yapay Zeka Dil Modellerinde Çığır Açan Hızlandırma
Araştırmacılar, diffüzyon dil modellerinin çıkarım hızını artırmak için DepCap adlı yeni bir yöntem geliştirdi. Geleneksel otoregresif modellerin aksine paralel çözme potansiyeli sunan diffüzyon dil modelleri, kalite-hız dengesini optimize etmekte zorlanıyordu. DepCap, blok sınırlarını belirlemek için adımlar arası sinyaller ve paralel çözme için token düzeyinde çakışma sinyalleri kullanarak bu sorunu çözüyor. Eğitim gerektirmeyen bu çerçeve, sabit blok programları yerine adaptif yaklaşım benimsiyor. Mevcut yöntemlerin muhafazakar güven tabanlı paralel çözme stratejilerinin getirdiği kısıtlamaları aşarak, hem üretim kalitesini koruyor hem de çözme hızını önemli ölçüde artırıyor. Bu gelişme, büyük dil modellerinin pratik uygulamalarında verimliliği artırma konusunda önemli bir adım teşkil ediyor.