"çok modlu algı" için 1809 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
1809 haber
Yapay zeka modellerinde büyüme: Görev türü değil, veri kalitesi kilit
Araştırmacılar, çok modlu büyük dil modellerinin (MLLM) gelişimindeki temel engelin görev çeşitliliği değil, eğitim verilerinin bilgi yoğunluğu olduğunu ortaya koydu. Çalışma, görsel soru yanıtlama (VQA) gibi özel görevlerin, görüntü açıklamalarının ötesinde çok az ek bilgi sağladığını gösteriyor. VQA sinyalleri, açıklamalardan minimal performans kaybıyla yeniden oluşturulabiliyor. Bunun yerine, yapılandırılmış açıklama zenginleştirme ve çapraz-modal bilgi enjeksiyonu yoluyla bilgi yoğunluğunun artırılması, hem çok modlu hem de alt akım ölçütlerde tutarlı performans iyileştirmeleri sağlıyor. Bu bulgular, AI modellerinin ölçeklendirme stratejilerinde paradigma değişikliği önerebilir.
arXiv (CS + AI) · 29 gün önce
0
Yapay zeka modellerinde yeni güvenlik sistemi: Çift yönlü tahmin yetisi
Bilim insanları, büyük dil modellerinin (LLM) gerçek zamanlı güvenilirliğini izlemek için yeni bir yöntem geliştirdi. 'Çift yönlü tahmin yetisi' adı verilen bu sistem, modellerin çok turlu konuşmalardaki bütünlüğünü anlık olarak kontrol edebiliyor. Mevcut değerlendirme yöntemleri ya sonradan analiz gerektiriyor ya da tek yönlü güven ölçümleri kullanıyor. Yeni sistem ise ham token istatistiklerinden yola çıkarak, modelin etkileşim yapısının sağlam kalıp kalmadığını gerçek zamanlı olarak izliyor. Araştırmacılar ayrıca 'Bilgi Dijital İkizi' adında hafif bir mimari geliştirerek bu ölçümü pratik hale getirdi. Bu yaklaşım, yüksek riskli otonom sistemlerde çalışan yapay zeka modellerinin fark edilmeden bozulmasını önleyebilir.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Artık Fizik Formüllerini Türetebiliyor
Büyük dil modelleri kod yazma ve metin üretmede başarılı olsalar da, bilimsel alanlarda matematiksel akıl yürütme yetenekleri henüz yeterince keşfedilmemişti. Yeni bir araştırma, yapay zekanın optik iletişim alanında formül türetme konusunda ne kadar ileri gittiğini gösteriyor. Araştırmacılar, fiber optik kablolardaki doğrusal olmayan girişim modellemesi için özel yapılandırılmış komutlar kullanarak bir dil modelini yönlendirdiler. Model, bilinen ISRS GN ifadelerini başarıyla yeniden oluşturmakla kalmadı, aynı zamanda çok aralıklı C ve C+L band iletimler için yeni bir yaklaşım formülü türetti. Sayısal doğrulamalar, yapay zeka tarafından türetilen modelin temel modellerle neredeyse özdeş sonuçlar ürettiğini ve tüm kanallar ve aralıklarda ortalama mutlak hatanın 0.109 dB'nin altında kaldığını ortaya koydu.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Beceri Ekosistemlerinde Kültürel Farklılıklar Ortaya Çıktı
Büyük dil modellerinde kullanılan yapay zeka ajanlarının beceri ekosistemlerini inceleyen yeni araştırma, dil grupları arasında çarpıcı farklılıklar olduğunu ortaya koydu. 26.502 beceriyi analiz eden çalışma, İngilizce becerilerin daha çok teknik altyapı odaklı olduğunu, Çinece becerilerin ise uygulama merkezli yaklaşım benimsediğini gösterdi. Bu bulgular, yapay zeka teknolojilerinin kültürel bağlamda nasıl şekillendiğini anlamamız açısından önemli ipuçları sunuyor. ClawHub gibi açık beceri platformlarının analizi, AI ajanlarının gelecekteki gelişimi ve güvenlik riskleri hakkında değerli veriler sağlıyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Sesli Asistanlarda Aksana ve Cinsiyete Dayalı Önyargı Tespit Edildi
Araştırmacılar, sesli yapay zeka sistemlerinin kullanıcıların aksanına ve seslerinin cinsiyet algısına göre farklı davranış sergilediğini keşfetti. Çalışmada altı farklı aksan ve iki cinsiyet sunumu üzerinden yapılan testler, AI'ların belirli ses özelliklerine sahip kullanıcılara daha düşük kaliteli yanıtlar verdiğini ortaya koydu. İnteraktif değerlendirme yöntemiyle yapılan araştırma, ses dönüştürme teknolojisinin kullanıcıların bu önyargıları fark etmesine nasıl yardımcı olabileceğini de inceledi. Bulgular, sesli AI sistemlerinde adalet ve eşitlik açısından önemli sorunlara işaret ediyor.
arXiv (CS + AI) · 29 gün önce
0
OmniTrace: Yapay Zeka Modellerinin Kaynak Takibi İçin Yeni Çerçeve
Araştırmacılar, çok modlu büyük dil modellerinin (MLLM) ürettiği yanıtların hangi kaynaklardan geldiğini izleyebilen yeni bir sistem geliştirdi. OmniTrace adlı bu hafif çerçeve, metin, görüntü, ses ve video girişlerini aynı anda işleyebilen yapay zeka modellerinde kaynak atıfı sorununu çözmeyi hedefliyor. Mevcut atıf yöntemleri genellikle tek modalite veya sınıflandırma görevleri için tasarlanmış durumda. OmniTrace ise üretim sırasında her bir token'ın hangi girişten geldiğini takip ederek, anlam bütünlüğü olan açıklamalar sunuyor. Bu gelişme, yapay zeka sistemlerinin güvenilirliği ve şeffaflığı açısından önemli bir adım olarak görülüyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay zeka asistanları artık kişiliğinizi öğreniyor: PersonaVLM ile uzun vadeli hatırla
Günlük hayatımızda milyonlarca kişinin kullandığı yapay zeka asistanları, şimdiye kadar kullanıcı tercihlerini yeterince anlayamıyordu. Stanford ve diğer kurumlardan araştırmacılar, bu sorunu çözmek için PersonaVLM adlı yenilikçi bir sistem geliştirdi. Bu sistem, geleneksel AI asistanlarının aksine kullanıcılarla geçirdiği süre boyunca onların değişen tercihlerini ve kişiliklerini öğrenebiliyor. PersonaVLM üç temel yetenek üzerine kurulu: kullanıcı etkileşimlerinden anıları çıkarıp saklama, bu anıları kullanarak çok aşamalı düşünce yürütme ve zamanla değişen kullanıcı tercihlerine göre yanıtlarını uyarlama. Bu gelişme, yapay zeka asistanlarının tek seferlik etkileşimlerden çok daha derin ve kişiselleştirilmiş deneyimler sunabilmesinin önünü açıyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Hayvan Haklarını Öğreniyor: Yeni Eğitim Yöntemi Geliştirild
Araştırmacılar, yapay zeka sistemlerinin hayvan refahını dikkate alacak şekilde eğitilmesi için yenilikçi bir yöntem geliştirdi. Dokümana dayalı eğitim yaklaşımı, geleneksel talimat verme yöntemlerine kıyasla çok daha başarılı sonuçlar verdi. Hayvan Zarar Kıyaslama Ölçeği adlı 26 soruluk test sistemi ile değerlendirilen bu yöntem, yapay zekanın etik değerleri öğrenmesi konusunda umut verici sonuçlar ortaya koydu. Çalışma, AI sistemlerinin sadece güvenli olmakla kalmayıp aynı zamanda hayvan refahı gibi önemli değerleri de içselleştirmesi gerektiğini vurguluyor.
arXiv (CS + AI) · 29 gün önce
0
Hint Destanı Ramayana Dijital Çağda: Çok Dilli Bilgisayar Korpusu Oluşturuldu
Araştırmacılar, 2000 yıldır Güney ve Güneydoğu Asya'da etkili olan Ramayana destanının farklı Hint dillerindeki versiyonlarını sistematik olarak karşılaştırabilmek için özel bir dijital veri seti geliştirdi. IWLV Ramayana Korpusu adı verilen bu çalışma, Valmiki'nin orijinal Ramayana'sını bölüm düzeyinde hizalayarak çok dilli analiz imkanı sunuyor. Şu anda İngilizce ve Malayalam katmanları tamamlanmış durumda olan korpus, Hindi, Tamil, Kannada ve Telugu dillerinde de aktif olarak genişletiliyor. Yapılandırılmış JSON formatında sunulan veri seti, karşılaştırmalı edebiyat, korpus dilbilimi, dijital beşeri bilimler ve çok dilli doğal dil işleme alanlarında kullanılabilecek. Bu çalışma, antik metinlerin dijital analizi konusunda önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay zeka hatalarına yeni çözüm: PlanCompiler sistemi geliştirildi
Büyük dil modelleri karmaşık işlemlerde sıklıkla hata yapıyor ve bu hatalar zincirleme etkiyle büyüyor. Araştırmacılar bu soruna PlanCompiler adlı yeni bir mimari ile çözüm getirdi. Sistem, yapay zekanın çalışma mantığını değiştirerek önce bir plan oluşturuyor, bu planı doğruluyor ve ancak ondan sonra çalıştırıyor. 300 farklı görevde yapılan testlerde sistem %88-100 arası başarı oranları elde etti. Bu yaklaşım özellikle SQL veritabanı işlemleri ve çok aşamalı yapılandırılmış görevlerde yapay zeka güvenilirliğini önemli ölçüde artırabileceğini gösteriyor.
arXiv (CS + AI) · 29 gün önce
0
Havacılık güvenliğinde yapay zeka: Bilgi grafları ile güvenilir karar destek sistemi
Araştırmacılar, havacılık güvenliğinde kritik kararların alınmasında yapay zeka kullanımını güvenli hale getiren yeni bir sistem geliştirdi. Büyük dil modellerinin havacılık alanındaki yanlış bilgi üretme ve doğrulanamayan sonuçlar verme problemlerini çözen bu yaklaşım, bilgi grafları ile desteklenen hibrit bir mimari kullanıyor. Sistem, önce çok kaynaklı verilerden otomatik olarak Havacılık Güvenliği Bilgi Grafiklerini oluşturuyor, ardından bu yapılandırılmış bilgiyi kullanarak AI modellerinin çıktılarını doğruluyor ve açıklanabilir hale getiriyor. Bu gelişme, can güvenliğinin kritik olduğu havacılık sektöründe AI teknolojilerinin daha güvenli şekilde kullanılmasının önünü açıyor.
arXiv (CS + AI) · 29 gün önce
0