...
"transformer" için 131 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
131 haber
Teknoloji & Yapay Zeka
Güvenli AI Sisteminde Kritik Güvenlik Açığı Keşfedildi
Araştırmacılar, yapay zeka modellerinin güvenli çıkarım yapması için tasarlanan Euston adlı sistemde ciddi bir güvenlik açığı tespit etti. IEEE güvenlik konferansında sunulan bu sistem, veri iletiminde yaklaşık 3 kata kadar bandwidth tasarrufu sağlıyordu. Ancak yeni araştırma, sistemin kullandığı tekli değer ayrışımı tabanlı protokolün, özel verilerin ifşa olmasına yol açabileceğini ortaya koydu. Model sahibi kişiler, kullanıcıların gizli verilerini kolayca elde edebiliyor. Bu keşif, güvenli AI sistemlerinin tasarımında mahremiyet korumasının ne kadar kritik olduğunu bir kez daha gözler önüne seriyor.
Teknoloji & Yapay Zeka
Tek Fotoğraftan 3D Avatar: AvatarPointillist Teknolojisi Geliştirildi
Araştırmacılar, tek bir portre fotoğrafından dinamik 3D avatarlar oluşturabilen yeni bir yapay zeka sistemi geliştirdi. AvatarPointillist adlı bu teknoloji, Transformer mimarisi kullanarak otomatik olarak nokta bulutları üretir ve bunları gerçekçi avatarlara dönüştürür. Sistem, kişinin karmaşıklığına göre nokta yoğunluğunu dinamik olarak ayarlayabilir ve her nokta için hareket bilgilerini tahmin ederek avatarların doğal animasyonlar yapmasını sağlar. Bu gelişme, sanal gerçeklik, oyun endüstrisi ve dijital içerik üretimi alanlarında önemli uygulamalara sahip olabilir.
Teknoloji & Yapay Zeka
RainFusion2.0: Video üretiminde yapay zeka hesaplama maliyetlerini düşüren yeni sistem
Araştırmacılar, video ve görüntü üreten yapay zeka modellerinin aşırı yüksek hesaplama maliyetlerini çözmek için RainFusion2.0 adlı yeni bir sistem geliştirdi. Diffusion Transformer modellerinin dikkat mekanizmaları büyük hesaplama gücü gerektiriyor ve bu durum pratik uygulamaları sınırlıyor. Mevcut seyrek dikkat yöntemleri GPU'lar için tasarlandığından farklı donanımlarda verimli çalışamıyor. RainFusion2.0, önemsiz token'ları atlayarak hesaplamaları azaltan, çevrimiçi uyarlanabilir ve düşük ek yük gerektiren bir seyrek dikkat mekanizması sunuyor. Sistem, GPU dışındaki ASIC gibi farklı donanım türlerinde de verimli çalışacak şekilde tasarlandı. Bu gelişme, video üretimi yapay zekasının daha geniş alanlarda kullanılmasının önünü açabilir.
Teknoloji & Yapay Zeka
Telugu Dili İçin Duygu Analizi: İnsan Merkezli Yapay Zeka Yaklaşımı
Araştırmacılar, 96 milyondan fazla konuşuru olan Telugu dili için yenilikçi bir duygu analizi sistemi geliştirdi. Hindistan'ın önemli dillerinden biri olan Telugu, makine öğrenmesi alanında 'düşük kaynak' kategorisinde yer alıyor. Bilim insanları, sadece doğruluk oranına odaklanmak yerine, yapay zekanın insan düşüncesiyle nasıl uyumlaştırılabileceğini araştırdı. TeSent adlı büyük ölçekli veri setini oluşturdular - bu set Telugu metinlerinin duygu etiketleriyle birlikte, ana dili konuşucularının mantıklı açıklamalarını da içeriyor. Beş farklı transformer modelini test ettikleri araştırmada, insan mantığını model eğitimine dahil etmenin önemini vurguladılar. Bu yaklaşım, özellikle veri kıtlığı yaşanan diller için yapay zeka sistemlerinin daha güvenilir ve yorumlanabilir olmasını sağlayabilir.
Teknoloji & Yapay Zeka
Robotlar İçin Yeni AI Modeli: OmniVLA-RL Uzamsal Anlayış ve Eylem Hassasiyetini Artırıyor
Araştırmacılar, robotların çevreyi görsel olarak algılayıp doğru eylemler gerçekleştirmesini sağlayan yeni bir yapay zeka modeli geliştirdi. OmniVLA-RL adı verilen bu sistem, mevcut görsel-dil-eylem modellerinin temel sorunlarını çözerek robotların uzamsal algısını ve hareket hassasiyetini önemli ölçüde artırıyor. Model, farklı uzmanlık alanlarını birleştiren Mix-of-Transformers tasarımı kullanırken, Flow-GSPO adlı yeni bir öğrenme yöntemiyle de destekleniyor. LIBERO test platformundaki değerlendirmeler, sistemin mevcut en gelişmiş yöntemleri geride bıraktığını gösteriyor. Bu gelişme, robotların günlük yaşamda daha etkili görevler üstlenmesinin önünü açabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Artık Çok Daha Az Bellek Kullanacak
Stanford ve diğer kurumlardan araştırmacılar, mevcut Transformer tabanlı yapay zeka modellerinin yüksek bellek tüketimi sorununa çözüm ürettiler. Geliştirdikleri yeni yaklaşım, tekrarlayan sinir ağı mimarileri kullanarak metin gömme işlemlerini sabit bellek kullanımıyla gerçekleştiriyor. Mamba2, RWKV ve xLSTM gibi modellerde test edilen bu yöntem, uzun metinlerde bile bellek kullanımını sabit tutarken performansta rekabetçi sonuçlar veriyor. Bu gelişme, yapay zeka uygulamalarının daha verimli çalışmasını ve kaynak kısıtlı ortamlarda bile güçlü dil modellerinin kullanılabilmesini sağlayabilir. Araştırma, özellikle uzun metin analizlerinde büyük avantaj sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Görsel Üretiminde Devrim: Hesaplama Gücünü Akıllıca Dağıtan Yöntem
Araştırmacılar, yüksek çözünürlüklü görselleri daha verimli üretebilen yeni bir yapay zeka modeli geliştirdi. DepthVAR adlı bu sistem, her görsel parçası için farklı miktarlarda hesaplama gücü kullanarak, mevcut yöntemlerden çok daha hızlı çalışıyor. Geleneksel modeller tüm görsel bölgeler için aynı işlem yoğunluğunu uygularken, yeni yaklaşım her pikselin karmaşıklığına göre kaynak ayırıyor. Bu breakthrough, yapay zekanın görsel içerik üretimindeki verimliliğini artırarak, daha az enerji tüketimi ile kaliteli sonuçlar elde edilmesini sağlıyor. Özellikle yüksek çözünürlüklü görsel üretim uygulamalarında önemli performans artışları vaat ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliğinde Yeni Çözümler: 7 Farklı Disiplinden İlham
Araştırmacılar, yapay zeka sistemlerine yönelik prompt injection saldırılarını tespit etmek için geleneksel yöntemlerin ötesinde 7 yenilikçi teknik geliştirdi. Mevcut açık kaynak savunma sistemleri, düzenli ifade eşleştirme ve fine-tuned transformer sınıflandırıcıları kullanıyor ancak bu yöntemler ciddi güvenlik açıklarına sahip. Düzenli ifadeler parafrazlanmış saldırıları kaçırırken, fine-tuned sınıflandırıcılar uyarlanabilir düşmanlara karşı savunmasız kalıyor. Yeni araştırma, adli dilbilim, malzeme bilimi, ağ güvenliği, biyoinformatik, ekonomi, epidemiyoloji ve derleyici teorisi gibi farklı disiplinlerden teknikleri uyarlayarak bu sorunlara çözüm önerisi sunuyor. Bu interdisipliner yaklaşım, AI güvenliğinde daha dayanıklı savunma mekanizmaları geliştirilmesi açısından önemli bir adım.
Teknoloji & Yapay Zeka
Rydberg Atomları ile Kuantum Haberleşmede Yapay Zeka Atılımı
Bilim insanları, Rydberg atom tabanlı kuantum alıcılarda kanal tahmini için yeni bir yapay zeka çerçevesi geliştirdi. URformer adlı Transformer tabanlı mimari, holografik görüntülerden elde edilen verileri işleyerek kuantum haberleşme sistemlerinin performansını önemli ölçüde artırıyor. Bu yenilikçi yaklaşım, geleneksel yöntemlerin aksine makine öğrenmesi ile fiziksel algoritmaları birleştirerek, kuantum teknolojilerinde kanal tahmininde devrim yaratabilir. Sistem, öğrenilebilir filtre ağları, adaptif kapılama mekanizmaları ve verimli kanal Transformer modülleri içeren üç temel bileşenle çalışıyor.
Teknoloji & Yapay Zeka
Bilimsel Makaleleri Sınıflandırmada Yapay Zeka Modelleri Test Edildi
Araştırmacılar, artan bilimsel literatürü düzenlemek için farklı yapay zeka yaklaşımlarını karşılaştırdı. Çalışmada, bilimsel makaleleri gruplandırma ve sınıflandırma işlemlerinde özet metinleri, yapılandırılmış bilgi üçlüleri ve hibrit yaklaşımlar test edildi. Dört farklı transformer modeli kullanılarak yapılan deneylerde, sade özet metinlerinin en başarılı sonucu verdiği ortaya çıktı. Bu bulgu, karmaşık bilgi yapılarının her zaman daha iyi performans sağlamadığını gösteriyor. Araştırma, bilim insanlarının literatür tarama ve sınıflandırma süreçlerini iyileştirmek için önemli ipuçları sunuyor.
Teknoloji & Yapay Zeka
Yapay zeka modelleri artık daha yaratıcı çözümler üretebilecek
Araştırmacılar, yapay zeka modellerinin yaratıcılık konusundaki en büyük eksiklerinden birini çözmeye yönelik yeni bir yöntem geliştirdi. UAG (Evrensel Kaçınma Üretimi) adı verilen bu teknik, AI sistemlerinin aynı soruna farklı yaklaşımlarla çoklu çözümler üretmesini sağlıyor. Mevcut yöntemler çok fazla hesaplama gücü gerektirirken, yeni sistem minimal ek işlem gücüyle çalışıyor. Test sonuçları, bu yaklaşımın yapay zeka modellerinin çeşitlilik kapasitesini 1,9 kata kadar artırdığını ve 4,4 kat daha hızlı çalıştığını gösteriyor. Yöntem hem diffüzyon hem de transformer modellerinde etkili olduğu için geniş uygulama alanına sahip.