...
"token pruning" için 83 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
83 haber
Teknoloji & Yapay Zeka
Robotlar İçin Geliştirildi: Belirsizlik Ölçen Yapay Zeka Sistemi
Araştırmacılar, robotların görsel gözlemler ve doğal dil talimatlarını eylem dizilerine dönüştüren VLA modellerinin güvenilirliğini artıran yeni bir sistem geliştirdi. ReconVLA adı verilen bu yaklaşım, robotik kontrolcülerin eylem tahminlerinde ne kadar emin olduklarını ölçebiliyor ve potansiel başarısızlıkları önceden tespit edebiliyor. Sistem, mevcut VLA politikalarının eylem token çıktılarına conformal prediction tekniğini uygulayarak kalibre edilmiş belirsizlik tahminleri üretiyor. Bu tahminler, görevin yürütülme kalitesi ve başarı oranıyla doğrudan ilişkili. Ayrıca, robot durum uzayına genişletilen bu yaklaşım, tehlikeli durumları veya aykırı değerleri başarısızlık gerçekleşmeden önce algılayabiliyor. Bu gelişme, robotların gerçek dünya ortamlarında daha güvenli ve güvenilir şekilde çalışmasını sağlayacak.
Teknoloji & Yapay Zeka
Yapay zeka artık görsel ve kodla çalışan çok modlu öğrenme sistemleri geliştirebiliyor
Araştırmacılar, metin, görüntü ve vektör grafiklerini aynı anda anlayabilen yeni bir yapay zeka sistemi geliştirdi. mEOL adlı bu sistem, Scalable Vector Graphics (SVG) dosyalarının hem görsel hem de kod yapısını koruyarak işleyebiliyor. Geleneksel yöntemlerin aksine herhangi bir eğitim gerektirmiyor ve çok modlu büyük dil modellerini kullanarak farklı veri türlerini ortak bir anlam uzayında birleştiriyor. Sistem, her türlü girdiyi tek bir token'a özetleyerek kompakt temsiller oluşturuyor ve görsel arama uygulamalarında yüksek performans gösteriyor. Bu gelişme, yapay zekanın farklı veri türlerini entegre bir şekilde anlama yeteneğinde önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Dil Modellerini 10 Kat Hızlandıran Yeni Örnekleme Yöntemi
Araştırmacılar, yapay zeka dil modellerinin metin üretme hızını dramatik şekilde artıran yeni bir yöntem geliştirdi. Neural Indicator Sampling (NI Sampling) adlı bu teknik, hangi kelimelerin hangi sırayla işlenmesi gerektiğini akıllıca belirleyerek, geleneksel yöntemlere kıyasla 10 kata kadar hızlanma sağlıyor. Yöntem, ayrık difüzyon dil modellerinde token örnekleme sırasını optimize ederek, doğru tahminleri tam olarak kullanıyor ve böylece örnekleme iterasyon sayısını büyük ölçüde azaltıyor. Bu gelişme, doğruluğu korurken paralel işleme imkanı sunarak yapay zeka modellerinin verimliliğinde önemli bir ilerleme kaydediyor.
Teknoloji & Yapay Zeka
FlexiCache: Yapay Zeka Modellerinin Hafıza Sorununa Akıllı Çözüm
Büyük dil modelleri (LLM) uzun metinlerle çalışırken devasa hafıza gereksinimleri nedeniyle performans sorunları yaşıyor. Araştırmacılar, bu modellerin dikkat mekanizmalarının farklı başlıklarının zamansal kararlılık özelliklerini inceleyerek FlexiCache adlı yeni bir sistem geliştirdi. Sistem, bazı dikkat başlıklarının sürekli aynı token'lara odaklandığını, diğerlerinin ise sık sık değiştiğini keşfetti. Bu bulguya dayanarak geliştirilen hierarşik önbellek yönetim sistemi, GPU hafıza kullanımını ve hesaplama yükünü önemli ölçüde azaltırken model doğruluğunu koruyor. FlexiCache, kararlı ve kararsız dikkat başlıklarını sınıflandırarak akıllı hafıza yönetimi yapıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri İçin Görsel Veri Sıkıştırma Yöntemi Geliştirildi
Araştırmacılar, çok modlu yapay zeka modellerinin görsel işleme hızını artırmak için EvoComp adlı yeni bir framework geliştirdi. Bu sistem, yüksek çözünürlüklü görüntülerde ve çoklu görsel senaryolarda performans düşüşüne neden olan fazla görsel token sayısını önemli ölçüde azaltıyor. EvoComp, hafif bir transformer tabanlı sıkıştırıcı kullanarak en bilgilendirici görsel tokenları seçiyor ve semantik çeşitliliği korurken gereksiz verileri elimine ediyor. Evrimsel etiketleme stratejisi ile eğitilen sistem, görev doğruluğunu koruyarak işlem verimliliğini artırıyor. Bu gelişme, yapay zeka modellerinin görsel-metin anlama kapasitelerini hızlandırarak pratik uygulamalarda daha etkili çalışmasını sağlıyor.
Teknoloji & Yapay Zeka
Yapay zeka için yeni veri formatı: ONTO ile %50 token tasarrufu
Araştırmacılar, büyük dil modellerinin veri işleme maliyetlerini yarıya indiren yeni bir veri formatı geliştirdi. ONTO adlı bu format, geleneksel JSON formatının tekrarlı yapısını ortadan kaldırarak token kullanımını %46-51 oranında azaltıyor. 1000 IoT sensör verisinin JSON formatında 80 bin token gerektirdiği durumda, ONTO formatı yaklaşık 40 bin token ile aynı bilgiyi aktarabilmekte. Bu yenilik, yapay zeka sistemlerinin operasyonel verileri daha verimli işlemesini sağlayarak hem maliyet hem de performans açısından önemli avantajlar sunuyor. Özellikle büyük ölçekli veri işleme gerektiren IoT sistemleri, sensör ağları ve endüstriyel uygulamalar için kritik bir gelişme olarak değerlendiriliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Destekli Geliştirme Araçları İçin Yeni Gözlem Sistemi
Yazılım geliştiriciler yapay zeka destekli araçları kullanırken maliyet, kalite ve performans konularında zorluklarla karşılaşıyor. Araştırmacılar, bu sorunları çözmek için geliştirici verimliliği araçlarına yönelik kapsamlı bir yapay zeka gözlenebilirlik sistemi geliştirdi. Sistem, gerçek zamanlı token takibi, 24 farklı model için fiyat kayıtları, yanıt doğrulama ve maliyet analitiklerini tek bir kontrol panelinde birleştiriyor. Workstream adlı geliştirici verimliliği panosu ile yapay zeka gözlem özetleyicisini harmanlayan bu yaklaşım, pull request'ler, Jira görevleri ve yapay zeka kod incelemelerini merkezi bir konumda topluyor. Çalışma, yazılım geliştirme süreçlerinde yapay zeka kullanımının daha şeffaf ve verimli hale getirilmesi için önemli bir adım oluşturuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Takımlarının 'Çoğunluk Tuzağı' Sorunu Token Düzeyinde Çözüldü
Araştırmacılar, birden fazla yapay zeka ajanının birlikte çalıştığı sistemlerde kritik bir güvenlik açığı keşfetti. Mevcut sistemlerde kullanılan çoğunluk oylaması yöntemi, kötü niyetli müdahaleler karşısında savunmasız kalabiliyor. Bozuk ajanlar yerel bir çoğunluk oluşturduğunda, sistem tamamen çökebiliyor. Çünkü oylama sadece nihai sonuçlara bakıyor, ara mantık hatalarını görmezden geliyor. Bilim insanları bu sorunu çözmek için Token Düzeyinde Sırayla İşbirliği adında yeni bir yöntem geliştirdi. Bu yaklaşımda ajanlar, sonuçları ayrı ayrı oylamak yerine, ortak bir bağlamda sırayla kelime üretme sürecine katılıyor. Bu yöntem, sistemi kırılgan oy sayma mekanizmasından dinamik bir işbirliği zincirine dönüştürüyor.
Teknoloji & Yapay Zeka
Yapay Zeka İçin Dev Etik Veri Kütüphanesi: 2 Trilyon Token'lık Common Corpus
Araştırmacılar, büyük dil modellerinin eğitiminde telif hakkı sorunlarını çözmek için Common Corpus adlı devasa bir açık veri kütüphanesi oluşturdu. İki trilyon token içeren bu koleksiyon, yalnızca telif haksız veya açık lisanslı materyallerden oluşuyor. Koleksiyon, Avrupa dillerinden nadir konuşulan dillere kadar geniş bir dil yelpazesi sunmasının yanı sıra büyük miktarda kodlama verisi de içeriyor. Bu gelişme, yapay zeka modellerinin eğitiminde yaşanan etik ve yasal sorunlara çözüm sunarken, araştırmacılara ve girişimcilere temiz verilerle çalışma imkanı sağlıyor.
Teknoloji & Yapay Zeka
TokenChain: Konuşma Tanıma ve Sentezi Birlikte Öğrenen Yeni Yapay Zeka Sistemi
Araştırmacılar, insan beyninin konuşmayı anlama ve üretme döngüsünden esinlenen TokenChain adlı yeni bir yapay zeka sistemi geliştirdi. Bu sistem, konuşma tanıma (ASR) ve konuşma sentezi (TTS) teknolojilerini birlikte eğiterek her ikisinin performansını artırıyor. TokenChain, tamamen dijital token tabanlı bir yaklaşım kullanarak, metni anlam tokenlarına dönüştüren ve bu tokenlardan ses üreten iki aşamalı bir süreç izliyor. LibriSpeech veri setinde yapılan testlerde sistem, geleneksel yöntemlere göre 2-6 epoch daha erken hedef doğruluğa ulaştı ve aynı eğitim süresinde %5-13 daha düşük hata oranı gösterdi. TED-LIUM veri setindeki denemelerde ise konuşma tanıma hatalarını %56, metin-konuşma sentez hatalarını %31 oranında azalttı. Bu gelişme, yapay zeka sistemlerinin daha verimli konuşma işleme yetenekleri kazanmasına katkı sağlıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenlik Sorunu İçin Yeni Çözüm: Güvenlik Token Düzenlemesi
Büyük dil modellerinin yeni alanlarda eğitilmesi sırasında güvenlik hizalaması bozulabilir. Araştırmacılar, bu soruna çözüm olarak 'güvenlik token düzenlemesi' adlı hafif bir yöntem geliştirdi. Bu teknik, modellerin güvenli davranış kalıplarını korurken yeni görevlerde etkili çalışmasını sağlıyor. Geleneksel güçlendirmeli öğrenme yöntemlerinden farklı olarak minimal hesaplama gücü gerektiren bu yaklaşım, AI güvenliği alanında önemli bir adım teşkil ediyor. Kapsamlı deneyler, yöntemin mevcut en gelişmiş tekniklerle eşdeğer güvenlik performansı gösterdiğini ortaya koydu.