“bellek” için sonuçlar
110 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Bal arıları drone'lara navigasyon öğretiyor
Bilim kurgu gibi görünse de artık gerçek: sera içindeki domatesleri inceleyen, kargo teslimatı yapan ve endüstriyel alanları kontrol eden drone'lar etrafımızda uçuşuyor. Drone sürüleri teknolojisi hızla gelişirken, bu hava araçlarının navigasyon sistemleri hâlâ büyük miktarda işlem gücü ve bellek gerektiriyor. Bu durum drone'ları ağır, pahalı ve enerji açısından verimsiz yapıyor. Araştırmacılar bu sorunu çözmek için doğaya yöneliyor ve bal arılarının navigasyon yeteneklerinden ilham alıyor. Arıların minimal enerji harcayarak nasıl mükemmel navigasyon yaptığını anlamaya çalışan bilim insanları, bu bilgileri drone teknolojisine uyarlamaya odaklanıyor.
Batarya Güvenliği İçin Yeni Yapay Zeka Modeli: KAN-Therm
Lityum-iyon bataryalarda sıcaklık kontrolü hayati öneme sahip. Aşırı ısınma yangın ve patlama riskine yol açarken, yetersiz ısınma performansı düşürür. Araştırmacılar, batarya yönetim sistemleri için yeni bir yapay zeka modeli olan KAN-Therm'i geliştirdi. Bu model, Kolmogorov-Arnold ağlarını kullanarak batarya çekirdek sıcaklığını hızlı ve doğru şekilde tahmin ediyor. Geleneksel fizik tabanlı modeller yüksek hesaplama gücü gerektirirken, klasik sinir ağları çok fazla bellek tüketiyor. KAN-Therm ise hem düşük bellek kullanımı hem de hızlı işlem yapabilme özelliğiyle öne çıkıyor. Model, öğrenebilir doğrusal olmayan aktivasyon fonksiyonları sayesinde karmaşık ısıl davranışları daha az kaynak kullanarak modelleyebiliyor.
Mobil Cihazlar için Yeni AI Dil İşleme Algoritması Hızı İkiye Katladı
Araştırmacılar, mobil cihazlarda yapay zeka dil modellerinin çalışmasını hızlandıran yeni bir algoritma geliştirdi. Peek2 adlı bu sistem, GPT-3 ve LLaMA-3 gibi popüler AI modellerinde kullanılan metin işleme sürecini optimize ediyor. Geleneksel yöntemlerin aksine regex kullanmayan bu yaklaşım, daha az bellek tüketirken performansı 2,5 kata kadar artırabiliyor. Mobil ve kenar bilişim cihazlarında AI uygulamalarının daha verimli çalışması için kritik bir gelişme olan bu çalışma, büyük dil modellerinin günlük hayatta daha yaygın kullanılmasının önünü açabilir.
Yapay Zeka Modellerini Daha Verimli Çalıştıran Yeni Paralel İşlem Tekniği
Araştırmacılar, büyük yapay zeka modellerinin eğitimi ve çalışması sırasında bellek kullanımını optimize eden yeni bir teknik geliştirdi. TSP (Tensor ve Sequence Parallelism) adı verilen bu yöntem, geleneksel paralel işlem yaklaşımlarını birleştirerek hem model ağırlıklarını hem de veri dizilerini aynı cihaz ekseni üzerinde paylaştırıyor. Bu sayede her cihazın bellek yükü önemli ölçüde azalırken, büyük dil modellerinin daha az donanım kaynağıyla çalıştırılması mümkün hale geliyor. Özellikle attention mekanizmaları ve gated MLP'ler için özel çalışma zamanı programları geliştiren teknik, iletişim maliyeti artışı pahasına bellek verimliliğinde önemli kazanımlar sağlıyor.
Yapay Zeka Modellerinde Uzun Menzil Sorunu: KV Önbellekleri Çözüm Olabilir Mi?
Büyük dil modellerinin hızını artırmak için kullanılan spekülatif çözümleme yönteminde kritik bir sorun keşfedildi. Araştırmacılar, mevcut yaklaşımların uzun metinlerde doğruluk kaybı yaşadığını ve bunun nedeninin bağlam bilgisinin yanlış sıkıştırılması olduğunu ortaya koydu. Geleneksel yöntemler, gelecekteki tahminler için önemli bilgileri gözden kaçırırken, KV önbellek sistemleri tüm bağlam verilerini koruyarak daha tutarlı sonuçlar veriyor. Bu keşif, yapay zeka modellerinin uzun metinlerle çalışma performansını önemli ölçüde iyileştirebilir ve özellikle uzun makale özetleme, kitap analizi gibi uygulamalarda devrim yaratabilir.
Yapay Zeka Soru-Cevap Sistemleri İçin Devrim Niteliğinde Hafıza Teknolojisi
Araştırmacılar, büyük dil modellerinin bilgi grafiklerinden veri çekerken karşılaştığı temel soruna çözüm buldu. CacheRAG adlı yeni sistem, yapay zekanın geçmiş sorulardan öğrenmesini sağlayarak performansı dramatik şekilde artırıyor. Geleneksel sistemler her soruyu sıfırdan işlerken, bu teknoloji hafıza kullanarak daha akıllı ve tutarlı yanıtlar üretiyor. Sistem, şema bağımsız arayüzü ve semantik önbellek mekanizması sayesinde hem uzman olmayan kullanıcılar için erişilebilir hem de teknik açıdan daha güvenilir. Bu gelişme, yapay zeka asistanlarından arama motorlarına kadar geniş bir yelpazede uygulanabilir ve AI sistemlerinin insan benzeri öğrenme kabiliyeti kazanmasında önemli bir adım.
Robotik Navigasyonda Yapay Zeka Hızlandırma: VLN-Cache Sistemi Geliştirildi
Görsel-dil navigasyon sistemlerinde kullanılan büyük yapay zeka modellerinin hesaplama maliyeti, gerçek zamanlı uygulamalarda ciddi bir engel oluşturuyor. Araştırmacılar, bu sorunu çözmek için VLN-Cache adlı yenilikçi bir sistem geliştirdi. Bu sistem, görsel verilerin tekrar kullanımını optimize ederek hesaplama yükünü azaltıyor. Ancak mevcut yöntemler sabit kamera ve değişmeyen odak noktası varsayımına dayanıyor - bu da navigasyon sistemlerinin doğasıyla çelişiyor. Yeni sistem, kamera açısı değişikliklerinin neden olduğu görsel dinamikleri ve görevin ilerlemesiyle değişen anlam dinamiklerini dikkate alıyor. VLN-Cache, görüş açısı değişikliklerini telafi eden haritalama sistemi ve görevin farklı aşamalarında önemsiz hale gelen verileri filtreleyen akıllı bir süzgeç içeriyor.
Radyo Dalgalarıyla Uzaktan Yapay Sinir Ağı Eğitimi Gerçekleştirildi
Araştırmacılar, manyetik tünel bağlantıları kullanarak radyo frekansı sinyalleriyle uzaktan kontrol edilebilen yeni bir yapay sinir ağı geliştirdi. Bu sistem, her sinaps için ayrı bağlantı gerektirmeden 11 adet manyetik bileşeni radyo dalgalarıyla programlayabiliyor. Geliştirilen 22 sinapslı ağ, aynı donanım üzerinde hem el yazısı rakam tanıma hem de drone RF imzası belirleme görevlerini başarıyla gerçekleştirdi. Bu yenilikçi yaklaşım, bellek içi hesaplama sistemlerinin ölçeklenebilirlik sorununa çözüm sunarak, daha verimli ve esnek yapay zeka donanımları geliştirilmesine olanak sağlıyor.
Büyük Dil Modellerinin Eğitimi İçin Hafıza Dostu Yeni Yöntem
Yapay zeka araştırmacıları, büyük dil modellerinin eğitimi sırasında karşılaşılan yüksek bellek tüketimi sorununa yenilikçi bir çözüm geliştirdi. AdaFRUGAL adı verilen bu yöntem, eğitim sürecini otomatik olarak optimize ederek hem GPU belleği kullanımını azaltıyor hem de eğitim süresini kısaltıyor. Geleneksel FRUGAL yönteminin aksine, AdaFRUGAL sabit parametreler yerine dinamik kontrol mekanizmaları kullanarak manuel ayarlama ihtiyacını ortadan kaldırıyor. İngilizce ve Vietnamca veri setleri üzerinde yapılan testler, bu yaklaşımın kaynak kısıtlı ortamlarda çalışan araştırmacılar için pratik bir çözüm sunduğunu gösteriyor.
Akıllı Telefonlarda Yapay Zeka Devrimi: Samsung Galaxy'de Çok Dilli LLM
Araştırmacılar, Samsung Galaxy S24 ve S25 cihazlarında büyük dil modellerini (LLM) verimli şekilde çalıştıran yenilikçi bir sistem geliştirdi. Bu çalışma, akıllı telefonların sınırlı bellek ve işlem gücü kısıtları altında çoklu görevleri destekleyen tek bir yapay zeka modelinin nasıl çalıştırılabileceğini gösteriyor. Sistem, farklı uygulama alanları için özelleştirilmiş LoRA modüllerini kullanarak tek seferde resmi, kibar veya eğlenceli gibi farklı tarzlarda yanıtlar üretebiliyor. Dynamic Self-Speculative Decoding tekniği sayesinde gecikme süresi 6 kata kadar azaltılmış. Bu gelişme, yapay zekanın mobil cihazlarda daha geniş kullanım alanı bulmasının önünü açıyor ve kullanıcılara bulut bağlantısı olmadan gelişmiş AI deneyimi sunuyor.
Grafik uygulamaları için daha akıllı dallanma tahmin sistemleri geliştiriliyor
Sosyal ağlar ve veri analizi gibi büyük grafik uygulamalarında işlemci performansını artırmak için yeni bir yaklaşım geliştirildi. Araştırmacılar, bu uygulamalarda sıkça yaşanan 'dallanma tahmin hatalarını' azaltacak optimize edilmiş sistemler üzerinde çalışıyor. Geleneksel olarak bellek hiyerarşisi ana darboğaz olarak görülürken, bu çalışma işlemcilerin karar verme süreçlerindeki hataları minimize ederek önemli performans kazançları elde edilebileceğini gösteriyor. Grafik işleme uygulamalarında programın akışını önceden tahmin etmek zorlaşıyor ve bu durum işlemci performansını ciddi şekilde etkiliyor. Yeni yaklaşım, mevcut dallanma tahmin teknolojilerini grafik uygulamalarının özel gereksinimlerine göre optimize ediyor.
Lizard: Büyük Dil Modellerini Hızlandıran Yenilikçi Çerçeve Geliştirildi
Araştırmacılar, ChatGPT benzeri büyük dil modellerinin en büyük sorunlarından birini çözen Lizard adlı yenilikçi bir çerçeve geliştirdi. Transformer mimarisindeki büyük dil modelleri, uzun metinlerle çalışırken kvadratik karmaşıklık nedeniyle ciddi hesaplama ve bellek darboğazları yaşıyor. Lizard, önceden eğitilmiş modelleri subkuadratik mimarilere dönüştürerek bu sorunu çözüyor. Geleneksel softmax attention mekanizmasının yerini alan yeni yaklaşım, model kalitesini korurken hesaplama maliyetini önemli ölçüde düşürüyor. Önceki doğrusallaştırma yöntemlerinden farklı olarak, Lizard adaptive bellek kontrolü sağlayan öğrenilebilir modüller içeriyor ve uzun dizilerde daha iyi genelleme yapabiliyor.
Büyük Dil Modellerinde Bellek Sorununu Çözen Yeni Mimari: AQPIM
Araştırmacılar, büyük dil modellerinin karşılaştığı bellek darboğazı sorununa çözüm getiren AQPIM adlı yeni bir yaklaşım geliştirdi. Processing-in-Memory (PIM) mimarileri, makine öğrenmesinde veri-yoğun işlemlerde umut vaat etse de, özellikle Transformer tabanlı modellerde artan aktivasyon bellek ihtiyacı önemli bir engel oluşturuyor. Uzun bağlamlı senaryolarda üretilen devasa KV önbellek boyutları, PIM'in sınırlı bellek kapasitesini aşabiliyor. Geleneksel yaklaşımlar bu sorunu çözmekte yetersiz kalıyor. AQPIM, aktivasyon özelliklerine uygun kümeleme tabanlı vektör kuantizasyon yöntemleri kullanarak hem bant genişliği hem de hesaplama verimliliğini artırıyor. Bu gelişme, büyük dil modellerinin daha verimli çalışmasına olanak tanıyarak yapay zeka uygulamalarında önemli bir adım olarak değerlendiriliyor.
AccelCIM: Yapay Zeka Çiplerinde Bellek-İçi Hesaplama Devrimini Getiren Yeni Mimari
Araştırmacılar, derin öğrenme modellerinin çalıştırılması için SRAM tabanlı bellek-içi hesaplama (CIM) hızlandırıcılarının verimliliğini artıran AccelCIM adlı yeni bir framework geliştirdi. Bu sistem, geleneksel çip mimarilerinin aksine, veriyi işlemciye taşımak yerine doğrudan bellekte hesaplama yaparak enerji tüketimini ve gecikmeyi büyük ölçüde azaltıyor. AccelCIM, özellikle büyük dil modelleri gibi kapsamlı yapay zeka uygulamalarında kritik olan veri akışı optimizasyonu sorununu çözüyor. Framework, çip tasarımcılarına sistematik bir keşif alanı sunarak, farklı CIM makro konfigürasyonlarını ve makro-dizi organizasyonlarını değerlendirme imkanı sağlıyor. Cycle-accurate simülasyonlar ve post-layout analizi ile desteklenen bu yaklaşım, gelecekteki AI çiplerinin tasarımında önemli kılavuzluk edecek pratik çözümler sunuyor.
Yapay Zeka Modelleri İçin Yeni Bellek Sıkıştırma Yöntemi Geliştirildi
Büyük dil modellerinin uzun metinleri işlerken karşılaştığı en büyük sorunlardan biri bellek yetersizliğidir. Araştırmacılar, her katmanın farklı sıkıştırma yöntemlerine farklı tepkiler verdiğini keşfederek MoE-nD adlı yenilikçi bir sistem geliştirdi. Bu sistem, her katman için optimal bellek sıkıştırma karışımını otomatik olarak belirliyor. Geleneksel yöntemler tüm katmanlara aynı sıkıştırma tekniğini uygularken, yeni yaklaşım katman bazında özelleştirilmiş stratejiler kullanıyor. Test sonuçları, bu yöntemin mevcut tekniklere göre önemli performans artışı sağladığını gösteriyor. Gelişme, yapay zeka modellerinin daha uzun metinlerle daha verimli çalışmasının yolunu açıyor.
Yapay Zeka Sistemlerinde Yeni Güvenlik Açığı: Bellek Hatalarıyla Sessiz Manipülasyon
Araştırmacılar, büyük dil modellerinin (LLM) hizmet verdiği sistemlerde kritik bir güvenlik açığı keşfetti. vLLM gibi popüler sistemlerde kullanılan paylaşımlı önbellek bloklarının, bit düzeyindeki hatalarla manipüle edilebileceği ortaya çıktı. Bu saldırı yöntemi, GPU belleğindeki Rowhammer saldırılarına benzer şekilde çalışıyor ancak daha sinsi bir yapıya sahip. Saldırının üç temel özelliği tespit edildi: manipüle edilmiş çıktıların normal yanıtlardan ayırt edilememesi, sadece hedeflenen prefix'i paylaşan isteklerin etkilenmesi ve zaman içinde hasarın birikmesi. Bu durum, yapay zeka sistemlerinin güvenilirliği açısından yeni bir tehdit oluşturuyor çünkü saldırı tespit edilmesi zor ve kalıcı etkiler yaratıyor.
Kuantum Bilgisayarlar İçin Eliptik Eğri Şifreleme Algoritması Optimize Edildi
Araştırmacılar, günümüzde yaygın olarak kullanılan eliptik eğri şifreleme sistemlerini kırmak için tasarlanan Shor algoritmasının kuantum bilgisayarlardaki uygulamasını önemli ölçüde iyileştirdi. Çalışma, algoritmanın çalışması için gereken mantıksal kubit sayısını minimize etmeye odaklanıyor. Ekip, modüler ters alma işlemi sırasında bellek kullanımını optimize eden yeni bir yöntem geliştirdi. Bu yaklaşım, ara değişkenleri kompakt bir şekilde depolayan uzunluk kayıtları ve konum kontrollü aritmetik kullanıyor. Sonuçta elde edilen devre, önceki yöntemlere kıyasla çok daha az kubit gerektiriyor ve kuantum bilgisayarların pratik uygulamaları için kritik bir adım oluşturuyor.
&inator: C Kodlarını Güvenli Rust Diline Dönüştüren Yeni Araç
Araştırmacılar, C programlama dilinde yazılmış sistem yazılımlarını Rust diline otomatik olarak çeviren yeni bir araç geliştirdi. &inator adı verilen bu sistem, C kodlarının arayüz tanımlamalarını Rust'un güvenlik kurallarına uygun şekilde dönüştürebiliyor. Geleneksel C dilinin bellek güvenliği konusundaki eksiklikleri, yazılım güvenlik açıklarının temel nedenlerinden biri olarak görülürken, Rust dili sahiplik ve ödünç alma mekanizmaları sayesinde bu sorunları compile-time'da çözüyor. Yeni araç, kısıtlama tabanlı bir formülasyon kullanarak semantik eşdeğerlik ve tip doğruluğunu sağlarken, en basit ve maliyetsiz tip yapılarını tercih ediyor. Gerçek C programları üzerinde yapılan testlerde başarılı sonuçlar alınması, sistem yazılımlarının daha güvenli hale getirilmesi açısından önemli bir adım olarak değerlendiriliyor.
Yapay Zeka Modelleri Artık Çok Daha Az Bellek Kullanacak
Stanford ve diğer kurumlardan araştırmacılar, mevcut Transformer tabanlı yapay zeka modellerinin yüksek bellek tüketimi sorununa çözüm ürettiler. Geliştirdikleri yeni yaklaşım, tekrarlayan sinir ağı mimarileri kullanarak metin gömme işlemlerini sabit bellek kullanımıyla gerçekleştiriyor. Mamba2, RWKV ve xLSTM gibi modellerde test edilen bu yöntem, uzun metinlerde bile bellek kullanımını sabit tutarken performansta rekabetçi sonuçlar veriyor. Bu gelişme, yapay zeka uygulamalarının daha verimli çalışmasını ve kaynak kısıtlı ortamlarda bile güçlü dil modellerinin kullanılabilmesini sağlayabilir. Araştırma, özellikle uzun metin analizlerinde büyük avantaj sunuyor.
Yapay Zeka Modellerini Eğitmenin Yeni Yolu: Bi-LoRA Tekniği Geliştirildi
Araştırmacılar, büyük yapay zeka modellerini daha verimli şekilde eğitmek için Bi-LoRA adlı yeni bir teknik geliştirdi. Bu yöntem, modellerin genelleme yeteneğini artıran SAM algoritmasının yüksek bellek ve hesaplama maliyeti sorununu çözüyor. Geleneksel LoRA yönteminin sınırlı alt uzayda çalışma problemi, ikinci bir yardımcı modül ekleyerek aşılıyor. Bi-LoRA, ana modülün görev odaklı öğrenme yaparken yardımcı modülün SAM'in adversarial pertürbasyonlarını yakalamasını sağlıyor. Bu yaklaşım, büyük dil modellerinin sınırlı veriyle eğitilmesinde karşılaşılan genelleme problemlerine çözüm sunuyor. Özellikle parametre-verimli ince ayar yapılması gereken büyük ölçekli modeller için umut verici sonuçlar gösteriyor.
SinkRouter: Büyük dil modellerinde uzun metinleri 3 kat hızla işleyen yeni teknik
Araştırmacılar, büyük dil modellerinin uzun metinleri işlerken karşılaştığı bellek darboğazını çözen yenilikçi bir yöntem geliştirdi. SinkRouter adlı bu teknik, modellerin dikkat mekanizmasındaki 'attention sink' fenomenini analiz ederek, gereksiz hesaplamaları atlayabiliyor. Geleneksel yöntemlerin aksine doğruluktan ödün vermeden 3 kata kadar hızlanma sağlayan sistem, ChatGPT benzeri modellerin kitap boyutundaki metinleri daha verimli işlemesini mümkün kılıyor. Bu gelişme, yapay zeka sistemlerinin günlük kullanımda daha hızlı ve ekonomik çalışmasının yolunu açıyor.
Chameleon: Büyük Dil Modellerinin Eğitiminde Akıllı Hata Toleransı Sistemi
Büyük dil modellerinin eğitimi sırasında yaşanan kesintiler ve hatalar, milyar dolarlık projelerde ciddi zaman ve kaynak kayıplarına yol açıyor. Araştırmacılar, bu soruna çözüm olarak Chameleon adlı adaptif sistem geliştirdi. Bu yenilikçi yaklaşım, bir hata meydana geldiğinde en optimal kurtarma stratejisini gerçek zamanlı olarak seçebiliyor. Geleneksel yedekli hesaplama, dinamik paralellik ve veri yönlendirme yöntemlerinin aksine, Chameleon birleşik performans modeli ve hızlı yürütme planı arama algoritması kullanıyor. 32 kartlık küme üzerinde yapılan testlerde sistem, hata sonrası ve hatasız eğitim arasında sadece %11'lik performans farkı bırakırken, model yakınsama kalitesini ve verimli bellek kullanımını koruyor.
Yapay Zeka Modellerini Daha Verimli Analiz Eden Yeni Yöntem Geliştildi
Araştırmacılar, yapay zeka modellerinin eğitim verilerinden nasıl etkilendiğini analiz etmek için yeni bir yöntem geliştirdi. Bu yöntem, 'dropout' tekniğini kullanarak hesaplama maliyetlerini önemli ölçüde azaltıyor. Büyük yapay zeka modelleri için kritik olan bu gelişme, modellerin davranışlarını anlamayı ve şeffaflığı artırmayı hedefliyor. Geleneksel etki fonksiyonları, hangi eğitim verilerinin modelin performansını nasıl etkilediğini hesaplarken çok fazla işlem gücü ve bellek gerektiriyordu. Yeni yaklaşım, bu sorunu çözerek daha verimli model analizi yapılmasına olanak tanıyor. Bu gelişme, yapay zeka modellerinin daha güvenilir ve anlaşılabilir hale getirilmesi için önemli bir adım sayılıyor.
COREY: Yapay Zeka Modellerini Hızlandıran Yeni Zamanlama Algoritması
Araştırmacılar, Mamba tipi yapay zeka modellerinin performansını artırmak için COREY adlı yenilikçi bir zamanlama algoritması geliştirdi. Bu sistem, aktivasyon entropisini kullanarak modelin çalışma zamanında otomatik olarak en verimli işlem parça boyutlarını belirliyor. Mamba modelleri doğrusal zamanda sekans işleme yapabilmesine rağmen, pratikte bellek bant genişliği sınırlamaları yaşıyor. COREY, sabit genişlikli histogramlar aracılığıyla tahmin edilen entropi değerlerini kullanarak bu sorunu çözmeyi hedefliyor. Sistem, mevcut Triton çekirdeği üzerinde çalışan tek parametreli bir otomatik ayarlayıcı olarak tasarlandı. Test sonuçları, entropi güdümlü gruplama yönteminin gecikme süresini ve DRAM trafiğini azalttığını gösteriyor. RTX 3070 kartında Mamba-370M modeli ile yapılan deneylerde, entropi hesaplama ve parça seçiminin model üretim sürecinin kritik yolunda başarıyla çalışabildiği kanıtlandı.