"kuantizasyon" için 12 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
12 haber
Kuantum Algoritmaları İçin Yeni Matematiksel Model: Deutsch Algoritması Örneği
Araştırmacılar, kuantum bilgisayarlarda kullanılan Deutsch algoritmasının davranışını modellemek için yeni bir yaklaşım geliştirdi. İkinci kuantizasyon formalizmi içinde iki seviyeli harmonik osilatör kullanarak, algoritmanın fiziksel durumlarını ve olası hatalarını tam olarak tahmin edebilen bir projeksiyon evrim modeli oluşturdular. Bu yöntem, kuantum kapılarındaki durum dönüşümlerini sistematik olarak analiz etme imkanı sunuyor. Çalışma, kuantum algoritmaların geliştirilmesi ve hata analizi açısından önemli bir araç sağlıyor. Yeni model sayesinde kuantum hesaplamalardaki projeksiyon hataları da dahil olmak üzere tüm süreç matematiksel olarak tanımlanabiliyor.
arXiv — Kuantum Fiziği · 9 gün önce
0
Yapay Zeka Modellerini Hızlandıran Yeni Sıkıştırma Tekniği Geliştirildi
Araştırmacılar, büyük dil modellerinin boyutunu küçültmek için ARHQ adlı yenilikçi bir yöntem geliştirdi. Bu teknik, modellerin performansını korurken boyutlarını önemli ölçüde azaltabiliyor. Geleneksel sıkıştırma yöntemlerinin aksine, ARHQ hata yayılımını önlemek için ağırlıkları iki ayrı dala bölerek işlem yapıyor. Yöntem, hassas hesaplamalar gerektiren kısımları yüksek kalitede tutarken, diğer bölümleri güvenle sıkıştırıyor. Qwen3-4B modeli üzerindeki testler, bu yaklaşımın mantıksal düşünme yeteneklerini koruduğunu gösteriyor. Bu gelişme, yapay zeka modellerinin mobil cihazlarda ve sınırlı kaynaklara sahip sistemlerde daha verimli çalışmasının önünü açıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Kuantum Fiziğinde Yeni Yaklaşım: λ-Minkowski Uzayında Alan Teorisi
Teorik fizikçiler, λ-Minkowski uzayında skaler alan teorisinin kuantizasyonu için iki farklı matematiksel yaklaşımı karşılaştırdı. Batalin-Vilkovisky formalizmi kullanılarak yapılan bu çalışma, standart ve örgülü kuantizasyon yöntemlerinin farklı sonuçlar verdiğini ortaya koydu. Standart kuantizasyon yönteminde dört-nokta korelasyon fonksiyonu için iki farklı diagram sınıfı ortaya çıkarken, örgülü yaklaşımda sadece tek bir sınıf elde edildi. Bu bulgular, kuantum alan teorisinin matematik temellerini daha iyi anlamamız açısından önemli. Çalışma, özellikle nonkomütatif geometri ve kuantum fiziği arasındaki ilişkiyi derinlemesine inceleyerek, gelecekteki teorik fizik araştırmaları için yeni perspektifler sunuyor.
arXiv — Matematiksel Fizik · 13 gün önce
0
Yapay Zeka Modellerinin Sıkıştırılması Hafızalarını Nasıl Etkiliyor?
Büyük dil modellerinin daha hızlı çalışması için kullanılan kuantizasyon tekniklerinin, modellerin faktörel bilgi hatırlama yetenekleri üzerindeki etkisi araştırıldı. Çalışma, modellerin sıkıştırılması sırasında bilgi kaybı yaşandığını ve bu durumun özellikle küçük modellerde daha belirgin olduğunu ortaya koyuyor. Araştırmacılar, üç farklı kuantizasyon yöntemi kullanarak modellerin bilgi depolama ve çok aşamalı mantık yürütme kapasitelerini test etti. Sonuçlar, sıkıştırma işleminin genellikle modellerin öğrendiği bilgilere erişim yeteneğini zayıflattığını gösteriyor. Ancak ilginç bir şekilde, bazı durumlarda düşük bit hassasiyetle sıkıştırılmış modellerin performansı beklenenden daha iyi çıkabiliyor. Bu bulgular, yapay zeka modellerinin pratik uygulamalarda kullanım için optimize edilmesi sürecinde dikkat edilmesi gereken önemli dengeleri gözler önüne seriyor.
arXiv (Dilbilim & NLP) · 14 gün önce
0
Schrödinger Denklemi Gauge Teorisi Olarak Yeniden Yorumlandı
Fizikçiler, kuantum mekaniğinin temel denklemi olan Schrödinger denklemini gauge teorisi perspektifinden yeniden formüle ettiler. Madelung gösterimi kullanılarak başlayan bu çalışma, olasılık akımını gauge alanları ile ifade ediyor. 2+1 boyutlu teoride tek-form, 3+1 boyutlu teoride ise iki-form gauge alanları kullanılıyor. Bu yaklaşım, Schrödinger denklemi, kuantum hidrodinamiği ve gauge formulasyonu arasında yerel bir eşdeğerlik kuruyor. Global bilgi ise dalga fonksiyonunun sıfır noktaları etrafındaki faz sarmalının kuantizasyonu ile taşınıyor. Araştırma, elektromanyetik etkileşim, Berry bağlantıları ve anyonik sektörler gibi karmaşık fiziksel yapıları da bu yeni çerçevede organize ediyor.
arXiv — Matematiksel Fizik · 14 gün önce
0
Kuantum Geometrinin Gizemi: Ayna Simetri ile Yeni Keşifler
Matematiksel fizikçiler, holomorfik simplektik manifoldların kuantizasyonu konusunda önemli bir adım attı. Araştırmacılar, SYZ ayna simetrisi kullanarak brane kuantizasyonunu inceledi ve coisotropik A-branlerin matematiksel çerçevesini geliştirdi. Bu çalışma, Fukaya kategorilerinin genişletilmesi ve homolojik ayna simetrinin öngörüleriyle uyumlu hale getirilmesi açısından kritik öneme sahip. Gukov-Witten'in brane kuantizasyonu yaklaşımından yola çıkan araştırma, holomorfik deformasyon kuantizasyonunun nasıl ortaya çıktığını açıklıyor. SYZ fibrasyonuna sahip manifoldların analizi, geometrik kuantizasyonun temel mekanizmalarını anlamamıza yeni perspektifler sunuyor.
arXiv — Matematiksel Fizik · 14 gün önce
0
Bilgisayar Simülasyonlarında Yuvarlama Hatasız Yeni Hesaplama Yöntemi
Araştırmacılar, fizik simülasyonlarında karşılaşılan yuvarlama hatası sorununu çözen yeni bir hesaplama yöntemi geliştirdi. Geleneksel simülasyonlarda, ondalık sayılarla yapılan hesaplamalar zaman içinde küçük hatalar biriktirerek sonuçları bozuyor. Yeni yaklaşım, durumları belirli değerlere 'kuantalayarak' ve tam sayı transferi operatörleri kullanarak bu problemi tamamen ortadan kaldırıyor. Sistem, korunum yasalarını aritmetik düzeyde tam olarak uygulayarak, enerji veya kütle gibi büyüklüklerin simülasyon boyunca değişmeden kalmasını garanti ediyor. Bu yöntem özellikle şok dalgaları ve keskin süreksizliklerin bulunduğu karmaşık fiziksel olaylarda önemli avantajlar sunuyor.
arXiv (Fizik) · 14 gün önce
0
Büyük Dil Modellerinde Bellek Sorununu Çözen Yeni Mimari: AQPIM
Araştırmacılar, büyük dil modellerinin karşılaştığı bellek darboğazı sorununa çözüm getiren AQPIM adlı yeni bir yaklaşım geliştirdi. Processing-in-Memory (PIM) mimarileri, makine öğrenmesinde veri-yoğun işlemlerde umut vaat etse de, özellikle Transformer tabanlı modellerde artan aktivasyon bellek ihtiyacı önemli bir engel oluşturuyor. Uzun bağlamlı senaryolarda üretilen devasa KV önbellek boyutları, PIM'in sınırlı bellek kapasitesini aşabiliyor. Geleneksel yaklaşımlar bu sorunu çözmekte yetersiz kalıyor. AQPIM, aktivasyon özelliklerine uygun kümeleme tabanlı vektör kuantizasyon yöntemleri kullanarak hem bant genişliği hem de hesaplama verimliliğini artırıyor. Bu gelişme, büyük dil modellerinin daha verimli çalışmasına olanak tanıyarak yapay zeka uygulamalarında önemli bir adım olarak değerlendiriliyor.
arXiv (CS + AI) · 23 gün önce
0
Veri Sıkıştırmada Devrim: Polar Kodlama ile Kayıpsız Bilgi Aktarımı
Araştırmacılar, dağıtık kaynak kodlama için yeni bir polar kodlama yöntemi geliştirdi. Bu teknik, Gaussian kaynaklardan gelen verileri minimum bozulmayla sıkıştırarak iletebiliyor. Özellikle 5G ağları için tasarlanan kısa blok uzunluklu çok seviyeli polar kodlar kullanılarak, Wyner-Ziv polar kodlu kuantizasyon (WZ-PCQ) sistemi geliştirildi. Bu sistem, geleneksel ayrı blok işleme yöntemlerine kıyasla toplam bozulmayı önemli ölçüde azaltıyor. Çalışma, veri iletişiminde hem kaliteyi artıran hem de bant genişliği kullanımını optimize eden bir yaklaşım sunuyor. Bulgular, özellikle mobil iletişim ve veri depolama alanlarında önemli iyileştirmeler sağlayabilir.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Modellerini Küçültme Yöntemleri Kapsamlı Olarak Karşılaştırıldı
Büyük dil modellerinin pratik kullanımda karşılaştığı boyut sorunu için geliştirilen üç temel sıkıştırma yöntemini karşılaştıran yeni bir çalışma, önemli bulgular ortaya koyuyor. UniComp adı verilen değerlendirme çerçevesi ile budama, kuantizasyon ve bilgi damıtma teknikleri performans, güvenilirlik ve verimlilik açısından incelendi. Araştırma, sıkıştırma işlemlerinin modellerin bilgi hatırlama yeteneğini koruduğunu ancak çok adımlı muhakeme, çok dilli işleme ve talimat takip etme becerilerini olumsuz etkilediğini gösteriyor. Ayrıca, bir modelin performansını koruması onun güvenilirliğini de koruyacağı anlamına gelmediği ortaya çıkıyor. Bu bulgular, AI modellerinin gerçek dünya uygulamalarında nasıl optimize edilmesi gerektiği konusunda yeni perspektifler sunuyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Modellerini Hızlandıran Yeni Sıkıştırma Tekniği: GSQ
Büyük dil modellerinin (LLM) yerel cihazlarda çalışması için geliştirilen yeni bir sıkıştırma yöntemi, mevcut tekniklerin sınırlarını aşmayı hedefliyor. GSQ adlı bu teknik, parametre başına 2-3 bit kullanarak modelleri sıkıştırırken doğruluk kaybını minimum seviyede tutuyor. Araştırmacılar, karmaşık vektör tabanlı yöntemlerin aksine basit skaler kuantizasyon tekniklerini optimize ederek, hem uygulama kolaylığı hem de yüksek performans sağlayan bir çözüm geliştirdi. Bu gelişme, yapay zeka modellerinin mobil cihazlar ve kişisel bilgisayarlarda daha verimli çalışmasının önünü açabilir.
arXiv (CS + AI) · 23 gün önce
0