Arama · son güncelleme 6 sa önce
8.369
toplam haber
3
kategori
70+
bilim kaynağı
1-7 / 7 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
6 gün önce

FPGA Tabanlı Yapay Zeka Sistemi Nesne Tespitinde Çığır Açtı

Araştırmacılar, sınırlı kaynaklara sahip cihazlarda çalışabilen yeni nesil bir yapay zeka sistemi geliştirdi. FPGA teknolojisi ve optimize edilmiş YOLOv3-Tiny algoritmasını birleştiren bu sistem, gömülü cihazlarda nesne tespit performansını önemli ölçüde artırıyor. Sistemde kullanılan düşük-bit kuantizasyon ve donanım hızlandırıcı tasarımı, hesaplama karmaşıklığını azaltırken enerji verimliliğini maksimuma çıkarıyor. Bu yenilik, otonom araçlardan güvenlik kameralarına kadar birçok alanda kullanılabilecek pratik çözümler sunuyor. Özellikle mobil ve IoT cihazlarda yapay zeka uygulamalarının yaygınlaşması için kritik bir adım teşkil ediyor.

arXiv — Kimyasal Fizik 0
Teknoloji & Yapay Zeka
4 May

Yapay Zeka Modellerini Hızlandıran Yeni Sıkıştırma Tekniği Geliştirildi

Araştırmacılar, büyük dil modellerinin boyutunu küçültmek için ARHQ adlı yenilikçi bir yöntem geliştirdi. Bu teknik, modellerin performansını korurken boyutlarını önemli ölçüde azaltabiliyor. Geleneksel sıkıştırma yöntemlerinin aksine, ARHQ hata yayılımını önlemek için ağırlıkları iki ayrı dala bölerek işlem yapıyor. Yöntem, hassas hesaplamalar gerektiren kısımları yüksek kalitede tutarken, diğer bölümleri güvenle sıkıştırıyor. Qwen3-4B modeli üzerindeki testler, bu yaklaşımın mantıksal düşünme yeteneklerini koruduğunu gösteriyor. Bu gelişme, yapay zeka modellerinin mobil cihazlarda ve sınırlı kaynaklara sahip sistemlerde daha verimli çalışmasının önünü açıyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
30 Apr

Yapay Zeka Modellerinin Sıkıştırılması Hafızalarını Nasıl Etkiliyor?

Büyük dil modellerinin daha hızlı çalışması için kullanılan kuantizasyon tekniklerinin, modellerin faktörel bilgi hatırlama yetenekleri üzerindeki etkisi araştırıldı. Çalışma, modellerin sıkıştırılması sırasında bilgi kaybı yaşandığını ve bu durumun özellikle küçük modellerde daha belirgin olduğunu ortaya koyuyor. Araştırmacılar, üç farklı kuantizasyon yöntemi kullanarak modellerin bilgi depolama ve çok aşamalı mantık yürütme kapasitelerini test etti. Sonuçlar, sıkıştırma işleminin genellikle modellerin öğrendiği bilgilere erişim yeteneğini zayıflattığını gösteriyor. Ancak ilginç bir şekilde, bazı durumlarda düşük bit hassasiyetle sıkıştırılmış modellerin performansı beklenenden daha iyi çıkabiliyor. Bu bulgular, yapay zeka modellerinin pratik uygulamalarda kullanım için optimize edilmesi sürecinde dikkat edilmesi gereken önemli dengeleri gözler önüne seriyor.

arXiv (Dilbilim & NLP) 0
Teknoloji & Yapay Zeka
21 Apr

Büyük Dil Modellerinde Bellek Sorununu Çözen Yeni Mimari: AQPIM

Araştırmacılar, büyük dil modellerinin karşılaştığı bellek darboğazı sorununa çözüm getiren AQPIM adlı yeni bir yaklaşım geliştirdi. Processing-in-Memory (PIM) mimarileri, makine öğrenmesinde veri-yoğun işlemlerde umut vaat etse de, özellikle Transformer tabanlı modellerde artan aktivasyon bellek ihtiyacı önemli bir engel oluşturuyor. Uzun bağlamlı senaryolarda üretilen devasa KV önbellek boyutları, PIM'in sınırlı bellek kapasitesini aşabiliyor. Geleneksel yaklaşımlar bu sorunu çözmekte yetersiz kalıyor. AQPIM, aktivasyon özelliklerine uygun kümeleme tabanlı vektör kuantizasyon yöntemleri kullanarak hem bant genişliği hem de hesaplama verimliliğini artırıyor. Bu gelişme, büyük dil modellerinin daha verimli çalışmasına olanak tanıyarak yapay zeka uygulamalarında önemli bir adım olarak değerlendiriliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Veri Sıkıştırmada Devrim: Polar Kodlama ile Kayıpsız Bilgi Aktarımı

Araştırmacılar, dağıtık kaynak kodlama için yeni bir polar kodlama yöntemi geliştirdi. Bu teknik, Gaussian kaynaklardan gelen verileri minimum bozulmayla sıkıştırarak iletebiliyor. Özellikle 5G ağları için tasarlanan kısa blok uzunluklu çok seviyeli polar kodlar kullanılarak, Wyner-Ziv polar kodlu kuantizasyon (WZ-PCQ) sistemi geliştirildi. Bu sistem, geleneksel ayrı blok işleme yöntemlerine kıyasla toplam bozulmayı önemli ölçüde azaltıyor. Çalışma, veri iletişiminde hem kaliteyi artıran hem de bant genişliği kullanımını optimize eden bir yaklaşım sunuyor. Bulgular, özellikle mobil iletişim ve veri depolama alanlarında önemli iyileştirmeler sağlayabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerini Küçültme Yöntemleri Kapsamlı Olarak Karşılaştırıldı

Büyük dil modellerinin pratik kullanımda karşılaştığı boyut sorunu için geliştirilen üç temel sıkıştırma yöntemini karşılaştıran yeni bir çalışma, önemli bulgular ortaya koyuyor. UniComp adı verilen değerlendirme çerçevesi ile budama, kuantizasyon ve bilgi damıtma teknikleri performans, güvenilirlik ve verimlilik açısından incelendi. Araştırma, sıkıştırma işlemlerinin modellerin bilgi hatırlama yeteneğini koruduğunu ancak çok adımlı muhakeme, çok dilli işleme ve talimat takip etme becerilerini olumsuz etkilediğini gösteriyor. Ayrıca, bir modelin performansını koruması onun güvenilirliğini de koruyacağı anlamına gelmediği ortaya çıkıyor. Bu bulgular, AI modellerinin gerçek dünya uygulamalarında nasıl optimize edilmesi gerektiği konusunda yeni perspektifler sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerini Hızlandıran Yeni Sıkıştırma Tekniği: GSQ

Büyük dil modellerinin (LLM) yerel cihazlarda çalışması için geliştirilen yeni bir sıkıştırma yöntemi, mevcut tekniklerin sınırlarını aşmayı hedefliyor. GSQ adlı bu teknik, parametre başına 2-3 bit kullanarak modelleri sıkıştırırken doğruluk kaybını minimum seviyede tutuyor. Araştırmacılar, karmaşık vektör tabanlı yöntemlerin aksine basit skaler kuantizasyon tekniklerini optimize ederek, hem uygulama kolaylığı hem de yüksek performans sağlayan bir çözüm geliştirdi. Bu gelişme, yapay zeka modellerinin mobil cihazlar ve kişisel bilgisayarlarda daha verimli çalışmasının önünü açabilir.

arXiv (CS + AI) 0