...
"transformer" için 131 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
131 haber
Teknoloji & Yapay Zeka
Robotlar İçin Dokunma ve Görme Duyularını Birleştiren Yeni Yapay Zeka Modeli
Araştırmacılar, robotların dokunma ve görme duyularını birleştirerek çevreyi daha iyi algılayabilmesi için ViTaPEs adlı yeni bir yapay zeka modeli geliştirdi. Bu model, transformer mimarisini kullanarak görsel ve dokunsal verileri aynı anda işleyebiliyor. Robotik alanında önemli bir gelişme olan bu sistem, malzeme dokusunu, sertliğini ve kuvvet bilgilerini görsel verilerle harmanlayarak daha kapsamlı çevresel algı sağlıyor. Model, iki aşamalı konumsal kodlama sistemi kullanarak her modaliteye özel yerel kodlamalar ve ortak global kodlamalar uyguluyor. Bu yaklaşım, robotların farklı görevlerde ve ortamlarda daha başarılı performans göstermesini sağlayabilir.
Teknoloji & Yapay Zeka
Otonom Araçlar İçin Yeni Hareket Tahmin Sistemi: RetroMotion
Araştırmacılar, otonom araçların trafikteki diğer kullanıcıların gelecekteki hareketlerini daha iyi tahmin edebilmesi için RetroMotion adlı yenilikçi bir sistem geliştirdi. Geleneksel yöntemlerden farklı olarak, bu sistem gelecekteki bilgileri geçmişe doğru akıtarak daha doğru tahminler yapabiliyor. Çok sayıda araç ve yayanın bulunduğu karmaşık trafik senaryolarında, sistem önce her bir kullanıcı için bireysel hareket tahminleri oluşturuyor, sonra da aralarındaki etkileşimleri modelleyerek ortak hareket desenlerini belirliyor. Transformer mimarisi kullanan bu yaklaşım, pozisyon belirsizliklerini matematiksel dağılımlarla modelleyerek daha hassas sonuçlar elde ediyor. Waymo, Argoverse 2 ve V2X-Seq gibi prestijli veri setlerinde test edilen sistem, mevcut yöntemlere göre önemli performans artışları gösterdi.
Teknoloji & Yapay Zeka
Yapay zeka ile malzeme simülasyonlarında dev sıçrama
Araştırmacılar, hafif ve çok işlevli kafes metamalzemelerin özelliklerini hesaplamak için devrim niteliğinde bir yapay zeka sistemi geliştirdiler. GMT (Geometric Multigrid Transformer) adlı bu sistem, geleneksel yöntemlerin yüzlerce kat daha hızlı çalışırken mühendislik kalitesinde doğruluk sunuyor. Sistem, geometrik çok-ızgara yöntemini transformer mimarisiyle birleştirerek fiziksel tutarlılığı korurken hesaplama süresini dramatik olarak azaltıyor. Bu gelişme, havacılık, otomotiv ve inşaat sektörlerinde yeni nesil hafif malzeme tasarımını hızlandıracak.
Teknoloji & Yapay Zeka
Kuantum Sinir Ağları: Gerçek Performansları Ne Kadar Güvenilir?
Kuantum makine öğrenmesi alanında büyük umutlarla karşılanan kuantum sinir ağlarının gerçek dünya performansları kapsamlı bir şekilde incelendi. Araştırmacılar, üç farklı hibrit kuantum-klasik mimarinin doğruluk ve dayanıklılık açısından detaylı karşılaştırmasını gerçekleştirdi. Çalışma, kuantum konvolüsyonel ağlar, kuantum tekrarlayan ağlar ve kuantum görü transformerlerinin MNIST gibi basit veri setlerinde mükemmel performans gösterdiğini, ancak karmaşık görevlerde öğrenme verimliliğinin düştüğünü ortaya koydu. Bu bulgular, kuantum sinir ağlarının pratik uygulamalardaki gerçek potansiyeli hakkında önemli ipuçları sunuyor ve alandaki değerlendirme eksikliklerini gideriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri İçin Yeni Hibrit Mimari: Daha Az Parametre, Daha İyi Performans
Araştırmacılar, dil modellemesi için yeni bir yapay zeka mimarisi geliştirdi. UniMatrix adı verilen bu sistem, geleneksel Transformer modellerinin avantajlarını yapılandırılmış tekrarlayan durumlarla birleştiriyor. Çalışma, modellerin daha az parametre kullanarak nasıl daha etkili olabileceğini araştırıyor. Küçük ölçekli testlerde, UniMatrix ailesinin bazı varyantları WikiText-2 veri setinde geleneksel Transformer modellerini geride bıraktı. Ancak araştırma, çağrışımsal hafıza görevlerinde sınırlamaları da ortaya koydu. Bu çalışma, yapay zeka modellerinin verimliliğini artırmak için hibrit yaklaşımların potansiyelini gösteriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Elle Yazılmış Kurallar Olmadan Dil Yapısını Öğrendi
Araştırmacılar, semantik ayrıştırma alanında çığır açan bir yöntem geliştirdiler. Yeni sistem, önceden yazılmış kompozisyonel kurallar kullanmadan dilin yapısal özelliklerini öğrenebiliyor. Nöral hücresel otomaton tabanlı model, SLOG veri setinde 17 yapısal genelleme kategorisinin 11'inde mükemmel sonuçlar elde etti. Transformer tabanlı modeller yapısal genelleme konusunda başarısız olurken, mevcut AM-Parser sistemi elle yazılmış cebirsel kurallara ihtiyaç duyuyor. Yeni yaklaşım ise tüm kompozisyonel kuralları veriden öğrenerek bu sınırlamaları aşıyor. Bu gelişme, doğal dil işleme alanında makinelerin dil yapısını daha esnek şekilde kavramasının önünü açıyor.
Teknoloji & Yapay Zeka
FARM: Molekülleri Fonksiyonel Gruplarıyla Anlamak İçin Yeni Yapay Zeka Modeli
Araştırmacılar, küçük molekülleri daha etkili bir şekilde analiz edebilmek için FARM adlı yenilikçi bir yapay zeka modeli geliştirdi. Bu model, moleküllerin fonksiyonel gruplarını atom düzeyinde tanıyarak, SMILES dizileri ile doğal dil arasında köprü kuruyor. FARM, moleküler yapıları hem metin hem de grafik formatında zenginleştirilmiş şekilde temsil ediyor. Bu yenilik, ilaç keşfi ve kimyasal araştırmalarda kullanılan transformer tabanlı modellerin performansını artırma potansiyeli taşıyor. Fonksiyonel grup bilgisini moleküler temsillere entegre eden sistem, kimyasal bilgiyi daha doğal bir dille ifade etmeyi mümkün kılıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Kas Aktivitesini Hareket Sensörlerinden Tahmin Ediyor
Araştırmacılar, giyilebilir robotik sistemler için yeni bir yapay zeka çözümü geliştirdi. GEGLU-Transformer adlı bu sistem, hareket sensörlerinden (IMU) kas aktivitesini (EMG) tahmin edebiliyor. Geleneksel EMG ölçümleri laboratuvar dışında güvenilirlik sorunları yaşarken, bu yeni yaklaşım sadece hareket verilerini kullanarak kas kasılmalarını kestirebiliyor. Sistem, farklı kişilerde %70'e varan doğruluk oranları gösteriyor ve çok az kalibrasyon verisiyle kişiye özel uyarlama yapabiliyor. Bu teknoloji, protez uzuv kontrolü, rehabilitasyon robotları ve spor performans analizi gibi alanlarda devrim yaratabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Transformers'ına Evrensel Konum Algısı Getiren URoPE Sistemi
Araştırmacılar, yapay zeka modellerinin farklı geometrik uzaylarda konum bilgisini daha etkin işlemesi için URoPE adlı yeni bir sistem geliştirdi. Mevcut Transformer modellerinde kullanılan konum kodlama yöntemleri genellikle tek boyutlu diziler veya düzenli 2D/3D ızgaralarla sınırlıydı. URoPE, bu kısıtlamayı aşarak kamera görüşleri arasında veya 2D ile 3D uzaylar arasında geometrik akıl yürütme gerektiren bilgisayarlı görü görevlerinde kullanılabiliyor. Sistem, her görüntü parçası için 3D noktaları örnekleyip bunları sorgu görüntü düzlemine yansıtarak çalışıyor. Parametresiz olan bu yaklaşım, küresel koordinat sistemlerinin seçiminden bağımsız ve kamera özelliklerini dikkate alan bir yapıya sahip.
Teknoloji & Yapay Zeka
Lizard: Büyük Dil Modellerini Hızlandıran Yenilikçi Çerçeve Geliştirildi
Araştırmacılar, ChatGPT benzeri büyük dil modellerinin en büyük sorunlarından birini çözen Lizard adlı yenilikçi bir çerçeve geliştirdi. Transformer mimarisindeki büyük dil modelleri, uzun metinlerle çalışırken kvadratik karmaşıklık nedeniyle ciddi hesaplama ve bellek darboğazları yaşıyor. Lizard, önceden eğitilmiş modelleri subkuadratik mimarilere dönüştürerek bu sorunu çözüyor. Geleneksel softmax attention mekanizmasının yerini alan yeni yaklaşım, model kalitesini korurken hesaplama maliyetini önemli ölçüde düşürüyor. Önceki doğrusallaştırma yöntemlerinden farklı olarak, Lizard adaptive bellek kontrolü sağlayan öğrenilebilir modüller içeriyor ve uzun dizilerde daha iyi genelleme yapabiliyor.
Teknoloji & Yapay Zeka
Büyük Dil Modellerinde Bellek Sorununu Çözen Yeni Mimari: AQPIM
Araştırmacılar, büyük dil modellerinin karşılaştığı bellek darboğazı sorununa çözüm getiren AQPIM adlı yeni bir yaklaşım geliştirdi. Processing-in-Memory (PIM) mimarileri, makine öğrenmesinde veri-yoğun işlemlerde umut vaat etse de, özellikle Transformer tabanlı modellerde artan aktivasyon bellek ihtiyacı önemli bir engel oluşturuyor. Uzun bağlamlı senaryolarda üretilen devasa KV önbellek boyutları, PIM'in sınırlı bellek kapasitesini aşabiliyor. Geleneksel yaklaşımlar bu sorunu çözmekte yetersiz kalıyor. AQPIM, aktivasyon özelliklerine uygun kümeleme tabanlı vektör kuantizasyon yöntemleri kullanarak hem bant genişliği hem de hesaplama verimliliğini artırıyor. Bu gelişme, büyük dil modellerinin daha verimli çalışmasına olanak tanıyarak yapay zeka uygulamalarında önemli bir adım olarak değerlendiriliyor.