“transformer” için sonuçlar
132 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
ArGEnT: Karmaşık Geometrilerde Makine Öğrenmesi İçin Yeni Transformer Mimarisi
Bilimsel makine öğrenmesinde karmaşık ve değişken geometrilere sahip sistemlerin çözüm operatörlerini öğrenmek büyük bir zorluktu. Araştırmacılar, bu sorunu çözmek için ArGEnT adında yeni bir Transformer tabanlı mimari geliştirdi. Bu sistem, tasarım optimizasyonu ve kontrol problemlerinde kullanılabilecek esnek bir vekil modelleme çerçevesi sunuyor. ArGEnT, nokta bulutu temsillerinden geometrik bilgiyi doğrudan kodlayarak, keyfi uzamsal konumlarda değerlendirme yapabiliyor. Üç farklı dikkat mekanizması varyantı ile geometrik özellikleri farklı stratejilerle dahil ediyor. Bu gelişme, mühendislik tasarımından fizik simülasyonlarına kadar geniş bir uygulama alanında devrim yaratabilir.
Yapay Zeka Mantık Yürütmeyi Nasıl Öğreniyor? Transformer Modellerde Yeni Keşif
Araştırmacılar, transformer tabanlı yapay zeka modellerinin mantıksal çıkarım yeteneklerini inceledi. Çalışmada, "A, B'den büyük; B, C'den büyük; o halde A, C'den büyük" türü geçişli mantık yürütme davranışı analiz edildi. İki farklı öğrenme türü karşılaştırıldı: model ağırlıklarına gömülü öğrenme ve bağlam içi öğrenme. Bulgular, bu iki yaklaşımın tamamen farklı stratejiler geliştirdiğini gösterdi. Ağırlık tabanlı öğrenen modeller, insanlar ve hayvanlarınkine benzer doğrusal ilişki haritaları oluştururken, bağlam içi öğrenen modeller genellikle ezberleme stratejisi benimsiyor. Ancak eğitim verileri geçişli çıkarımı gerektirdiğinde, bu modeller de mantıksal genelleme yapabiliyorlar. Araştırma, yapay zeka sistemlerinin akıl yürütme mekanizmalarını anlamak açısından önemli ipuçları sunuyor.
Yapay Zeka ile Moleküllerin Elektron Davranışını Daha Hızlı Tahmin Etmek
Kimyasal hesaplamalarda kritik olan elektron korelasyonlarının belirlenmesi için yeni bir yapay zeka yaklaşımı geliştirildi. Ranking Configuration Interaction (RCI) adı verilen bu yöntem, moleküllerdeki elektron davranışlarını tahmin etmek için geleneksel yöntemlerden farklı olarak 'sıralama' stratejisi kullanıyor. Transformer mimarisi kullanan sistem, elektronların orbital bağımlılıklarını daha doğru modelleyerek, kimyasal reaksiyonların ve moleküler özelliklerin hesaplanmasında önemli iyileştirmeler sağlıyor. Bu gelişme, ilaç tasarımından malzeme bilimlerine kadar pek çok alanda hesaplama kimyasının geleceğini şekillendirebilir.
Beyin dil öğrenirken tahmin ve geri bildirimi farklı şekillerde işliyor
Stanford araştırmacıları, yetişkinlerin yeni bir dil öğrenirken beyin aktivitelerini 7 gün boyunca takip etti. 102 katılımcının yapay bir dil öğrenme sürecini fMRI ile görüntüleyen çalışma, beynin tahmin ve geri bildirim sinyallerini nasıl farklı şekilde işlediğini ortaya koydu. Transformer yapay zeka modelleriyle karşılaştırma yapan araştırma, grup düzeyinde tahmin odaklı işlemlerin daha baskın olduğunu, ancak bireysel öğrenme başarısının geri bildirim mekanizmalarıyla daha güçlü ilişki gösterdiğini buldu. Çalışma, dil öğrenme sürecinde beynin duyusal ağlardan üst düzey dil ve çağrışım ağlarına geçiş yaptığını göstererek, soyutlama sürecinin nöral temellerini aydınlatıyor. Bu bulgular, kişiselleştirilmiş dil öğretim yöntemlerinin geliştirilmesine katkı sağlayabilir.
Yapay Zeka Kimyasal Simülasyonları Hızlandırıyor: OrbEvo Modeli
Araştırmacılar, moleküllerin elektron davranışlarını simüle etmek için kullanılan zaman-bağımlı yoğunluk fonksiyonel teorisi (TDDFT) hesaplamalarını hızlandıran yeni bir yapay zeka modeli geliştirdi. OrbEvo adlı bu sistem, graph transformer mimarisi kullanarak moleküllerin dış elektrik alan etkisiyle değişen dalga fonksiyonlarını öğreniyor. Geleneksel TDDFT yöntemleri, optik absorpsiyon ve elektron dinamiği gibi özelikleri hesaplamak için çok ince zaman adımlarıyla tüm elektronik durumları simüle etmek zorunda kalıyor ve bu işlem oldukça zaman alıyor. Yeni model, moleküler simetriler ve dış elektrik alanların etkilerini dikkate alarak bu süreci önemli ölçüde hızlandırabiliyor. Bu gelişme, kimyasal reaksiyonların anlaşılması ve yeni malzemelerin tasarımı açısından büyük önem taşıyor.
ORBIT: Tek Hücreli Veri Analizinde Çığır Açan Yapay Zeka Modeli
Araştırmacılar, tek hücreli RNA dizileme verilerinden gen programları arasındaki karmaşık etkileşimleri öğrenebilen ORBIT adlı yeni bir yapay zeka modeli geliştirdi. Bu öz-denetimli transformer modeli, deneysel müdahale verilerine ihtiyaç duymadan, gen programlarının birbirlerini nasıl etkilediğini analiz edebiliyor. 191.890 prefrontal korteks çekirdeği üzerinde yapılan testlerde, ORBIT'in Alzheimer hastalığı ile ilişkili gen aktivasyon yapılarını başarıyla tespit ettiği görüldü. Model, her gen programının diğer programlar üzerindeki yönlü etkisini ölçerek, hücre tipine özgü yol değişikliklerini belirleyebiliyor. Bu teknoloji, hastalıkların hücresel düzeydeki mekanizmalarının anlaşılmasında önemli bir adım.
Beyin görüntüleme yapay zekası: fMRI verilerinden düz harita çözümü
Bilim insanları, fonksiyonel MRI verilerini analiz etmek için yeni bir yapay zeka modeli geliştirdi. CortexMAE adlı bu sistem, 3 boyutlu beyin görüntülerini 2 boyutlu düz haritalara dönüştürerek Vision Transformer teknolojisini beyin verilerine uyarladı. 2100 saatlik açık fMRI verisi üzerinde eğitilen model, beyin aktivitelerini daha iyi anlayabilmek için geliştirildi. Araştırmacılar ayrıca fMRI modelleri için ilk açık değerlendirme platformu olan Brainmarks'ı da hayata geçirdi. Çalışmada düz harita, bölütleme ve hacim tabanlı temsil yöntemleri karşılaştırıldı. Sonuçlar düz harita yaklaşımının genel olarak en iyi performansı sergilediğini gösterdi. Bu gelişme, beyin görüntüleme teknolojilerinde yapay zekanın kullanımına yeni perspektifler kazandırıyor.
Yapay Zeka Modellerinde Tekrar Tuzağını Çözen Yeni Yöntem Geliştirildi
Büyük dil modellerinin en önemli sorunlarından biri olan 'mod çöküşü' için yeni bir çözüm geliştirildi. Bu sorun, yapay zeka modellerinin aynı cümleleri tekrar etmesi veya yaratıcılığını kaybetmesi olarak kendini gösteriyor. Araştırmacılar, sorunu dinamik sistemler açısından ele alarak, modelin iç temsillerinin düşük boyutlu bir alana sıkışması olarak tanımladılar. Geliştirdikleri 'Güçlendirilmiş Mod Düzenleme' adlı yöntem, modelin hafıza yapısına hafif müdahaleler yaparak bu tuzaktan kaçmasını sağlıyor. Yöntem, birden fazla büyük dil modelinde test edildi ve önemli başarılar elde edildi. Bu gelişme, yapay zeka asistanlarının daha tutarlı ve yaratıcı metinler üretmesine katkı sağlayabilir.
Transformer'larda Yerel Dikkat Mekanizmasının Gücü Matematiksel Olarak Açıklandı
Yapay zeka dünyasının en önemli mimarilerinden transformer'ların yerel dikkat mekanizması, şaşırtıcı bir şekilde küresel dikkattan daha iyi sonuçlar verebiliyor. Araştırmacılar, bu paradoksal durumun nedenini matematiksel olarak açıkladı. Yerel dikkat, her kelimenin sadece sınırlı sayıda önceki kelimeye odaklanmasını sağlayarak hem hesaplama maliyetini düşürüyor hem de model performansını artırıyor. Çalışma, bu mekanizmanın ifade gücünü lineer zamansal mantık çerçevesinde analiz ederek, yerel dikkat eklenmesinin modele ek bir geçmiş operatörü kazandırdığını gösteriyor. Bu keşif, dil modellerinin nasıl çalıştığına dair temel anlayışımızı derinleştiriyor.
Yapay Zeka Artık Mesajlardaki Karışık Duyguları Ayırt Edebiliyor
Stanford araştırmacıları, sosyal medya mesajlarındaki karmaşık duygusal yapıları analiz edebilen yeni bir yapay zeka sistemi geliştirdi. Geleneksel duygu analizi araçları bir metnin genel tonunu 'olumlu', 'olumsuz' veya 'nötr' olarak sınıflandırırken, yeni sistem aynı mesajda hem olumlu hem olumsuz duyguların bir arada bulunabileceğini tespit edebiliyor. Directed Social Regard (DSR) adı verilen bu yaklaşım, özellikle siyasi söylemler ve sosyal medya manipülasyonlarında sıkça görülen karmaşık mesajları analiz etmek için tasarlandı. Sistem, bir mesajdaki farklı hedeflere yönelik savunuculuk, yardımseverlik, karşıtlık ve zararlı içerikleri aynı anda tespit edebiliyor. Bu gelişme, çevrimiçi platformlardaki nefret söylemi, dezenformasyon ve manipülasyon kampanyalarının daha etkili şekilde tespit edilmesine olanak sağlayabilir.
SST V2: Yapay Zeka Modellerinde Sürekli Mantık Yürütme Atılımı
Araştırmacılar, mevcut transformer modellerinin sınırlarını aşan yeni bir yapay zeka mimarisi geliştirdi. State Stream Transformer (SST) V2, geleneksel modellerin aksine pozisyonlar arası gizli bilgiyi koruyor ve sürekli bir mantık yürütme süreci sağlıyor. Bu yenilik, AI modellerinin daha verimli öğrenmesini ve daha derin düşünme kapasitesini mümkün kılıyor. Model, her katmanda doğrusal olmayan bir tekrarlama mekanizması kullanarak, gizli durumları tüm dizi boyunca akıtıyor. En önemli özelliği ise çıkarım sırasında her pozisyonda sürekli düşünebilme yetisi - tıpkı insanların karar vermeden önce düşünmesi gibi. İki aşamalı paralel eğitim prosedürü sayesinde verimli öğrenme sağlanırken, gizli durum analizi modelin farklı anlamsal alanlarda gezinerek mantık yürüttüğünü gösteriyor.
Yapay Zeka Modelleri Gerçekten Öğreniyor mu Yoksa Ezberlemiş Şablonları mı Kullanıyor?
Büyük dil modelleri program yazma görevlerinde etkileyici sonuçlar elde ediyor, ancak gerçek öğrenme yetenekleri belirsizliğini koruyor. Araştırmacılar, transformer modellerin gerçekten genelleme yapıp yapmadığını test etmek için kontrollü bir deney ortamı geliştirdi. Milyonlarca benzersiz program üzerinde yapılan testler, modellerin yeni durumlarla karşılaştıklarında ciddi sınırları olduğunu ortaya çıkardı. Bu bulgular, yapay zekanın öğrenme mekanizmalarının düşünülenden daha karmaşık olduğunu gösteriyor.
Yapay Zeka Modelleri Uzun Metinleri İşlemede Yeni Mimarilerle İlerliyor
Dil modelleri için uzun metinleri etkili şekilde işlemek kritik bir zorluktu. Stanford araştırmacıları, parça tabanlı seyrek dikkat mekanizmalarının nasıl çalıştığını sistematik olarak inceledi. Çalışma, üç temel tasarım ilkesinin birleşiminin başarının anahtarı olduğunu ortaya koydu: ifadesel parça kodlayıcılar, atlama bağlantıları ve hiyerarşik dikkat yapıları. Bu bulgular, gelecekteki dil modellerinin çok daha uzun bağlamları verimli şekilde işlemesine olanak sağlayabilir ve ChatGPT benzeri sistemlerin kapasitelerini artırabilir.
Endonezya'da AI kullanımına öğrenci tepkilerini ölçen yeni analiz sistemi
Endonezya'daki üniversite öğrencilerinin yapay zekâ teknolojilerine bakış açısını analiz eden yenilikçi bir çalışma, makine öğrenmesi ve transformer modelleri kullanarak duygu analizi gerçekleştirdi. 2.295 öğrenci görüşünün incelendiği araştırmada, geleneksel makine öğrenmesi yöntemleri ile modern derin öğrenme yaklaşımları karşılaştırıldı. Çalışma sonuçları, transformer tabanlı DistilBERT modelinin %84,78 doğrulukla en iyi performansı gösterdiğini ortaya koydu. Bu tür analizler, eğitim kurumlarının AI entegrasyonu süreçlerinde öğrenci görüşlerini daha iyi anlamalarına yardımcı oluyor ve teknoloji kabul süreçlerinin optimize edilmesine katkı sağlıyor.
Yapay zeka ile malzeme simülasyonlarında dev sıçrama
Araştırmacılar, hafif ve çok işlevli kafes metamalzemelerin özelliklerini hesaplamak için devrim niteliğinde bir yapay zeka sistemi geliştirdiler. GMT (Geometric Multigrid Transformer) adlı bu sistem, geleneksel yöntemlerin yüzlerce kat daha hızlı çalışırken mühendislik kalitesinde doğruluk sunuyor. Sistem, geometrik çok-ızgara yöntemini transformer mimarisiyle birleştirerek fiziksel tutarlılığı korurken hesaplama süresini dramatik olarak azaltıyor. Bu gelişme, havacılık, otomotiv ve inşaat sektörlerinde yeni nesil hafif malzeme tasarımını hızlandıracak.
Robotlar İçin Dokunma ve Görme Duyularını Birleştiren Yeni Yapay Zeka Modeli
Araştırmacılar, robotların dokunma ve görme duyularını birleştirerek çevreyi daha iyi algılayabilmesi için ViTaPEs adlı yeni bir yapay zeka modeli geliştirdi. Bu model, transformer mimarisini kullanarak görsel ve dokunsal verileri aynı anda işleyebiliyor. Robotik alanında önemli bir gelişme olan bu sistem, malzeme dokusunu, sertliğini ve kuvvet bilgilerini görsel verilerle harmanlayarak daha kapsamlı çevresel algı sağlıyor. Model, iki aşamalı konumsal kodlama sistemi kullanarak her modaliteye özel yerel kodlamalar ve ortak global kodlamalar uyguluyor. Bu yaklaşım, robotların farklı görevlerde ve ortamlarda daha başarılı performans göstermesini sağlayabilir.
Otonom Araçlar İçin Yeni Hareket Tahmin Sistemi: RetroMotion
Araştırmacılar, otonom araçların trafikteki diğer kullanıcıların gelecekteki hareketlerini daha iyi tahmin edebilmesi için RetroMotion adlı yenilikçi bir sistem geliştirdi. Geleneksel yöntemlerden farklı olarak, bu sistem gelecekteki bilgileri geçmişe doğru akıtarak daha doğru tahminler yapabiliyor. Çok sayıda araç ve yayanın bulunduğu karmaşık trafik senaryolarında, sistem önce her bir kullanıcı için bireysel hareket tahminleri oluşturuyor, sonra da aralarındaki etkileşimleri modelleyerek ortak hareket desenlerini belirliyor. Transformer mimarisi kullanan bu yaklaşım, pozisyon belirsizliklerini matematiksel dağılımlarla modelleyerek daha hassas sonuçlar elde ediyor. Waymo, Argoverse 2 ve V2X-Seq gibi prestijli veri setlerinde test edilen sistem, mevcut yöntemlere göre önemli performans artışları gösterdi.
Yapay Zeka Modelleri İçin Yeni Hibrit Mimari: Daha Az Parametre, Daha İyi Performans
Araştırmacılar, dil modellemesi için yeni bir yapay zeka mimarisi geliştirdi. UniMatrix adı verilen bu sistem, geleneksel Transformer modellerinin avantajlarını yapılandırılmış tekrarlayan durumlarla birleştiriyor. Çalışma, modellerin daha az parametre kullanarak nasıl daha etkili olabileceğini araştırıyor. Küçük ölçekli testlerde, UniMatrix ailesinin bazı varyantları WikiText-2 veri setinde geleneksel Transformer modellerini geride bıraktı. Ancak araştırma, çağrışımsal hafıza görevlerinde sınırlamaları da ortaya koydu. Bu çalışma, yapay zeka modellerinin verimliliğini artırmak için hibrit yaklaşımların potansiyelini gösteriyor.
Yapay Zeka Elle Yazılmış Kurallar Olmadan Dil Yapısını Öğrendi
Araştırmacılar, semantik ayrıştırma alanında çığır açan bir yöntem geliştirdiler. Yeni sistem, önceden yazılmış kompozisyonel kurallar kullanmadan dilin yapısal özelliklerini öğrenebiliyor. Nöral hücresel otomaton tabanlı model, SLOG veri setinde 17 yapısal genelleme kategorisinin 11'inde mükemmel sonuçlar elde etti. Transformer tabanlı modeller yapısal genelleme konusunda başarısız olurken, mevcut AM-Parser sistemi elle yazılmış cebirsel kurallara ihtiyaç duyuyor. Yeni yaklaşım ise tüm kompozisyonel kuralları veriden öğrenerek bu sınırlamaları aşıyor. Bu gelişme, doğal dil işleme alanında makinelerin dil yapısını daha esnek şekilde kavramasının önünü açıyor.
Kuantum Sinir Ağları: Gerçek Performansları Ne Kadar Güvenilir?
Kuantum makine öğrenmesi alanında büyük umutlarla karşılanan kuantum sinir ağlarının gerçek dünya performansları kapsamlı bir şekilde incelendi. Araştırmacılar, üç farklı hibrit kuantum-klasik mimarinin doğruluk ve dayanıklılık açısından detaylı karşılaştırmasını gerçekleştirdi. Çalışma, kuantum konvolüsyonel ağlar, kuantum tekrarlayan ağlar ve kuantum görü transformerlerinin MNIST gibi basit veri setlerinde mükemmel performans gösterdiğini, ancak karmaşık görevlerde öğrenme verimliliğinin düştüğünü ortaya koydu. Bu bulgular, kuantum sinir ağlarının pratik uygulamalardaki gerçek potansiyeli hakkında önemli ipuçları sunuyor ve alandaki değerlendirme eksikliklerini gideriyor.
Yapay Zeka Kas Aktivitesini Hareket Sensörlerinden Tahmin Ediyor
Araştırmacılar, giyilebilir robotik sistemler için yeni bir yapay zeka çözümü geliştirdi. GEGLU-Transformer adlı bu sistem, hareket sensörlerinden (IMU) kas aktivitesini (EMG) tahmin edebiliyor. Geleneksel EMG ölçümleri laboratuvar dışında güvenilirlik sorunları yaşarken, bu yeni yaklaşım sadece hareket verilerini kullanarak kas kasılmalarını kestirebiliyor. Sistem, farklı kişilerde %70'e varan doğruluk oranları gösteriyor ve çok az kalibrasyon verisiyle kişiye özel uyarlama yapabiliyor. Bu teknoloji, protez uzuv kontrolü, rehabilitasyon robotları ve spor performans analizi gibi alanlarda devrim yaratabilir.
FARM: Molekülleri Fonksiyonel Gruplarıyla Anlamak İçin Yeni Yapay Zeka Modeli
Araştırmacılar, küçük molekülleri daha etkili bir şekilde analiz edebilmek için FARM adlı yenilikçi bir yapay zeka modeli geliştirdi. Bu model, moleküllerin fonksiyonel gruplarını atom düzeyinde tanıyarak, SMILES dizileri ile doğal dil arasında köprü kuruyor. FARM, moleküler yapıları hem metin hem de grafik formatında zenginleştirilmiş şekilde temsil ediyor. Bu yenilik, ilaç keşfi ve kimyasal araştırmalarda kullanılan transformer tabanlı modellerin performansını artırma potansiyeli taşıyor. Fonksiyonel grup bilgisini moleküler temsillere entegre eden sistem, kimyasal bilgiyi daha doğal bir dille ifade etmeyi mümkün kılıyor.
Yapay Zeka Transformers'ına Evrensel Konum Algısı Getiren URoPE Sistemi
Araştırmacılar, yapay zeka modellerinin farklı geometrik uzaylarda konum bilgisini daha etkin işlemesi için URoPE adlı yeni bir sistem geliştirdi. Mevcut Transformer modellerinde kullanılan konum kodlama yöntemleri genellikle tek boyutlu diziler veya düzenli 2D/3D ızgaralarla sınırlıydı. URoPE, bu kısıtlamayı aşarak kamera görüşleri arasında veya 2D ile 3D uzaylar arasında geometrik akıl yürütme gerektiren bilgisayarlı görü görevlerinde kullanılabiliyor. Sistem, her görüntü parçası için 3D noktaları örnekleyip bunları sorgu görüntü düzlemine yansıtarak çalışıyor. Parametresiz olan bu yaklaşım, küresel koordinat sistemlerinin seçiminden bağımsız ve kamera özelliklerini dikkate alan bir yapıya sahip.
Yapay Zeka, Plazma Dinamiklerini Saniyeler İçinde Tahmin Edebiliyor
Araştırmacılar, magnetohidrodinamik (MHD) plazma davranışlarını tahmin etmek için iki farklı yapay zeka modeli geliştirdi. Koopman tabanlı Transformer ve ConvLSTM-UNet mimarilerini kullanan bu modeller, yüksek çözünürlüklü simülasyonlardan öğrenerek plazma akışkanlığı ve akım yoğunluğunu eş zamanlı olarak öngörebiliyor. Sistem, Kelvin-Helmholtz kararsızlıklarının gelişimini ve doğrusal olmayan doyma fazlarını başarıyla modelleyerek, füzyon enerjisi araştırmalarında kritik olan plazma davranışının anlaşılmasına katkı sağlıyor. Geleneksel sayısal simülasyonlara kıyasla hesaplama maliyetini önemli ölçüde azaltan bu yaklaşım, fiziksel korunmuş büyüklükleri ve Alfvén dalgalarının yayılımını da doğru şekilde koruyabiliyor.