"token sıkıştırma" için 175 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
175 haber
Matematikçiler Ses ve Görüntü İşlemede Devrim Yaratacak Yeni Yöntem Geliştirdi
Matematik dünyasında önemli bir gelişme yaşandı. Araştırmacılar, bir fonksiyonun sadece büyüklük bilgilerinden yola çıkarak orijinal halini geri kazanma probleminde çığır açan bir sonuca ulaştı. Gabor dönüşümü olarak bilinen bu matematiksel araç, ses ve görüntü işlemeden tıbbi görüntülemeye kadar geniş bir kullanım alanına sahip. Yeni çalışma, belirli koşullar altında sadece genlik bilgisinden hareketle orijinal sinyalin tam olarak geri elde edilebileceğini matematiksel olarak kanıtladı. Bu buluş özellikle dijital sinyal işleme, görüntü analizi ve veri sıkıştırma teknolojilerinde önemli ilerlemelere kapı açabilir.
arXiv (Matematik) · 26 gün önce
0
Yapay Zeka Modelleri İçin Yeni Budama Tekniği: STOP ile %90 Doğruluk
Araştırmacılar, büyük mantıksal akıl yürütme modellerinde paralel işleme verimliliğini artıran yenilikçi bir yöntem geliştirdi. STOP (Super TOken for Pruning) adlı bu teknik, modellerin gereksiz hesaplama yollarını erken aşamada tespit edip elemesini sağlıyor. Çalışma, 1.5 milyardan 20 milyar parametreye kadar farklı büyüklükteki modellerde test edildi ve kayda değer başarı elde etti. Özellikle GPT-OSS-20B modelinde AIME25 veri setindeki doğruluk oranı %84'ten %90'a yükseldi. Bu gelişme, yapay zeka modellerinin hem daha verimli çalışmasını hem de daha az enerji tüketmesini mümkün kılıyor.
arXiv (CS + AI) · 26 gün önce
0
Evrenin Genişlemesini Ölçmenin Yeni Yolu: Kozmoloji Araştırmalarında Devrim
Astronomlar, evrenin genişleme hızını ve karanlık enerjinin özelliklerini belirlemek için yenilikçi bir yöntem geliştirdi. Tomografik Alcock-Paczyński testi ile İşaretli Korelasyon Fonksiyonları'nı birleştiren bu yaklaşım, geleneksel yöntemlere göre çok daha hassas sonuçlar veriyor. Araştırma, madde yoğunluğu parametresindeki belirsizliği %48, karanlık enerji durum denklemindeki belirsizliği ise %45 oranında azaltmayı başardı. Bu gelişme, evrenin yapısını ve geleceğini anlamamızda önemli bir adım teşkil ediyor. Yöntem aynı zamanda karmaşık istatistiksel verileri daha verimli şekilde işlemek için yeni bir sıkıştırma tekniği de sunuyor.
arXiv (Astronomi) · 26 gün önce
0
Apple Intelligence'ta Kritik Güvenlik Açığı: Serpent Saldırısı Token Hırsızlığına Yol Açıyor
Güvenlik araştırmacıları, Apple Intelligence'ın güvenlik sisteminde ciddi bir açık keşfetti. 'Serpent' adı verilen bu saldırı yöntemi, kullanıcıların cihazlarından erişim tokenlarını çalarak bunları farklı cihazlarda kullanmayı mümkün kılıyor. Apple'ın yapay zeka hizmeti, anonim erişim tokenleri kullanarak iki aşamalı güvenlik sistemiyle kullanıcı gizliliğini korumayı hedefliyordu. Ancak araştırma, bu koruma mekanizmasının traffic analizi, tersine mühendislik ve Apple'ın resmi belgelerinin karşılaştırılması yoluyla aşılabileceğini gösteriyor. En güncel macOS 26 Tahoe sürümünde bile başarılı saldırılar gerçekleştirilen bu keşif, yapay zeka hizmetlerinin güvenlik mimarilerinde köklü revizyonlara ihtiyaç olduğunu ortaya koyuyor. Çalıntı tokenlar, mağdurun kullanım limitlerini tüketerek ek zararlara yol açabiliyor.
arXiv (CS + AI) · 26 gün önce
0
Yapay zeka halüsinasyonlarına çözüm: Tersine çevrilebilir kodlama yaklaşımı
Araştırmacılar, büyük dil modellerinin (LLM) en büyük sorunlarından olan halüsinasyon ve eksik bilgi üretme problemlerine yenilikçi bir çözüm geliştirdi. Tersine çevrilebilir problemler için önerilen bu yaklaşım, LLM'leri hem kodlayıcı hem de kod çözücü olarak kullanarak, bilgi teorisindeki kayıpsız sıkıştırma mantığını benimsiyor. Donanım mantık tasarımı alanında test edilen yöntem, Logic Condition Tables'tan (LCT) Hardware Description Language koduna dönüştürme işleminde dikkat çekici başarı gösterdi. Yedi farklı LLM ile yapılan deneylerde, iki boyutlu network-on-chip yönlendiricisi için 1500-2000 satırlık HDL kodu üretildi. Sistemin doğruluğu, üretilen kodun tekrar LCT'ye dönüştürülmesi ve orijinalle karşılaştırılmasıyla test edildi. Bu yaklaşım sadece doğru üretilen mantık kodlarını doğrulamakla kalmıyor, hatalı olanları da tespit ederek geliştiricilere önemli destek sağlıyor.
arXiv (CS + AI) · 26 gün önce
0
Yapay Zeka Modelleri Monte Carlo Yöntemiyle 3 Kat Hızlandı
Stanford araştırmacıları, büyük dil modellerinin çıkarım hızını artırmak için Sequential Monte Carlo Speculative Decoding (SMC-SD) adlı yeni bir yöntem geliştirdi. Geleneksel spekülatif kod çözme yöntemlerinde, ucuz bir taslak model önerilerde bulunur ve pahalı hedef model bu önerileri doğrular. Ancak ilk hatada tüm taslak blok reddedilir. Yeni yaklaşım, token'ları tamamen reddetmek yerine yeniden ağırlıklandırıyor ve önemlilik ağırlıklı yeniden örnekleme kullanıyor. Bu sayede hesaplama verimliliği artırılırken teorik doğruluk sınırları korunuyor. LLM çıkarımı genellikle bellek bant genişliği ile sınırlandığı için, paralel hesaplamalar neredeyse bedava geliyor ve sistem boşta kalan hesaplama gücünü verimli şekilde kullanabiliyor.
arXiv (CS + AI) · 26 gün önce
0
Yapay Zeka Mantıksal Bilgiyi Nasıl Sıkıştırır? Yeni Matematiksel Teori
Araştırmacılar, yapay zeka sistemlerinin mantıksal bilgileri nasıl sıkıştırabileceğine dair yeni bir matematiksel teori geliştirdi. Bu çalışma, bilgi kaybı yaşayan sıkıştırma yöntemlerini mantıksal çıkarım sistemlerine uyarlamayı hedefliyor. Klasik sıkıştırma yöntemleri her sembolün birebir korunmasına odaklanırken, bu yaklaşım mantıksal bütünlüğün korunmasını esas alıyor. Teoriye göre, bir bilgi tabanındaki gereksiz mantıksal sonuçlar ayıklanarak, sadece temel çekirdek bilgiler saklanabilir. Bu yöntem, yapay zeka sistemlerinin büyük bilgi tabanlarını daha verimli şekilde depolamasına ve işlemesine olanak tanıyabilir. Araştırma, özellikle otomatik teorem ispatlama ve bilgi temsili alanlarında devrim yaratma potansiyeli taşıyor.
arXiv (CS + AI) · 26 gün önce
0
Küçük yapay zeka modelleri büyüklerden dikkat odağı öğrenerek akıl yürütme becerisi kazanıyor
Araştırmacılar, büyük dil modellerinin sahip olduğu akıl yürütme yeteneklerini daha küçük modellere aktarmak için yenilikçi bir yöntem geliştirdi. Geleneksel yaklaşımların aksine, bu yeni teknik sadece düşünce zinciri süreçlerini değil, büyük modellerin akıl yürütme sırasında kritik bilgilere nasıl odaklandığını da öğretiyor. Çalışma, dil modellerinin akıl yürütme sürecinde anahtar bilgilere doğru kademeli olarak dikkatlerini kaydırdığını ortaya koyuyor. Bu keşif temelinde geliştirilen Mixture-of-Layers modülü, öğrenci modelin doğru bilgilere adım adım odaklanmasını sağlıyor. Yöntem, hesaplama maliyetlerini düşürürken akıl yürütme performansını koruması açısından yapay zeka alanında önemli bir ilerleme sunuyor.
arXiv (CS + AI) · 26 gün önce
0
Korece Odaklı Yapay Zeka Modelleri Token Budama Yöntemiyle Optimize Ediliyor
Araştırmacılar, büyük dil modellerini belirli diller için optimize etmek amacıyla 'token budama' tekniğini kullanarak kapsamlı bir değerlendirme gerçekleştirdi. Korece odaklı doğal dil işleme görevlerine odaklanan çalışma, Qwen3, Gemma-3, Llama-3 ve Aya gibi son teknoloji çok dilli modelleri test etti. Token budama, hedef uygulamayla ilgisiz dillere ait token'ları ve gömme parametrelerini sistemden çıkaran bir sıkıştırma tekniği olarak öne çıkıyor. Bulgular, bu yöntemin dil karmaşasını ortadan kaldırarak üretim kararlılığını önemli ölçüde artırdığını ve özellikle makine çevirisinde Korece'ye özgü görevlerde performansı sıklıkla iyileştirdiğini gösteriyor.
arXiv (CS + AI) · 26 gün önce
0
Milyarlarca atıfı içeren dev bilimsel veri seti artık normal bilgisayarlarda kullanılabilir
Avrupa'nın en büyük açık bilim platformu OpenAIRE'ın sahip olduğu dev atıf veri seti, şimdiye kadar boyutu nedeniyle sadece süper bilgisayarlarda işlenebiliyordu. 200 milyondan fazla yayın ve 2 milyardan fazla atıf içeren bu veri kümesi, sıkıştırılmamış haliyle terabayt boyutlarında yer kaplıyordu. Araştırmacılar, bu devasa veri setini 32 GB'a kadar küçülterek normal bilgisayarlarda da kullanılabilir hale getirmeyi başardı. Bu gelişme, bilim insanlarının yayınlar arası ilişkileri analiz etmesini, araştırma trendlerini takip etmesini ve bilimsel ağları incelemesini çok daha kolay hale getiriyor. Özellikle akademik araştırmalar, bibliyometrik analizler ve bilim politikası çalışmaları için büyük önem taşıyan bu çalışma, bilimsel verilere erişimde demokratikleşme sağlıyor.
arXiv (CS + AI) · 26 gün önce
0
Yapay Zeka Öneri Sistemlerinin Matematiksel Gizemi Çözüldü
Günümüzde e-ticaret ve dijital platformlarda yaygın kullanılan yapay zeka öneri sistemlerinin çalışma mekanizması teorik olarak açıklandı. Araştırmacılar, bu sistemlerde kullanılan oto-regresif token tahmin yönteminin, matematiksel olarak tam kelime dağarcığı maksimum olabilirlik tahmin yöntemiyle birebir eşdeğer olduğunu kanıtladı. Bu keşif, Netflix'ten Amazon'a kadar pek çok platformda 'sıradaki ne önerilsin' kararını veren algoritmaların teorik temellerini aydınlatıyor. Çalışma, öneri sistemlerinin sadece deneysel optimizasyonla değil, sağlam matematiksel temeller üzerine de inşa edilebileceğini gösteriyor. Bu teorik anlayış, gelecekte daha etkili ve öngörülebilir öneri algoritmaları geliştirilmesine katkı sağlayabilir.
arXiv (CS + AI) · 26 gün önce
0