"halüsinasyon önleme" için 107 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
107 haber
Çok Kanallı İletişim Sistemlerinde Çakışma Önleyici Kodlama Teknikleri Geliştirildi
Araştırmacılar, birden fazla kullanıcının aynı anda veri iletişimi yapabildiği sistemlerde çakışmaları önlemek için yeni matematiksel kodlama teknikleri geliştirdi. Çakışma önleyici kodlar (CAC), geri bildirim olmadan deterministik çoklu erişim sağlayan özel kodlardır. Bu çalışmada, özellikle kanal sayısının aktif kullanıcı sayısından az olduğu pratik senaryolar için çok kanallı CAC sistemleri incelendi. Geleneksel yaklaşımların aksine, araştırmacılar 'istisna kod sözcükleri' kavramını tanıtarak ve toplamsal kombinatorik tekniklerini kullanarak optimal çözümler türetti. Bu gelişme, kablosuz ağlar ve çoklu erişim sistemlerinde verimliliği artırabilir.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Halüsinasyonları Artık Tespit Edilebilir: SIVR Yöntemi Geliştirild
Büyük dil modellerinin ürettiği yanlış bilgileri (halüsinasyonları) tespit etmek için yeni bir yöntem geliştirildi. Sequential Internal Variance Representation (SIVR) adlı bu yaklaşım, yapay zekanın iç katmanlarındaki belirsizlik işaretlerini analiz ederek gerçek dışı cevapları önceden belirleyebiliyor. Geleneksel yöntemlerin aksine, SIVR modelin her katmanında ve her kelimede ortaya çıkan varyasyon desenlerini takip ederek daha güvenilir sonuçlar elde ediyor. Bu gelişme, yapay zeka sistemlerinin güvenilirliğini artırmada önemli bir adım olarak değerlendiriliyor.
arXiv (CS + AI) · 24 gün önce
0
Güney Kore'de Tayfun Kaynaklı Çoklu Tehlikelerin Risk Değerlendirmesi
Güney Koreli araştırmacılar, tayfunların neden olduğu fırtına dalgası, rüzgar ve yağmur gibi birleşik tehlikelerin kapsamlı bir risk analizini gerçekleştirdi. Çalışma, bu doğal afetlerin tek tek değil, bir arada değerlendirilmesi gerektiğini vurguluyor. İklim değişikliğinin etkisiyle bu risklerin daha da artabileceği öngörülen Güney Kore kıyıları için, mevcut veri, model ve metodolojiler incelendi. Kuzey Atlantik bölgesinde kullanılan yaklaşımların Güney Kore koşullarına nasıl uyarlanabileceği araştırıldı. Tek bir tehlikeye odaklanan risk değerlendirmelerinin yetersiz kalabileceği, bileşik etkilerin göz ardı edilmesinin etkisiz önleme stratejilerine yol açabileceği belirtiliyor. Çalışma, tropikal siklon kaynaklı kıyı tehlikelerinin gelecekte iklim değişikliği nedeniyle daha yoğun hale gelebileceği uyarısında bulunuyor.
arXiv (Fizik) · 24 gün önce
0
Yapay Zeka Artık Trafik Kazalarını Önceden Görebiliyor
Araştırmacılar, araç kamerası görüntülerini analiz ederek trafik kazalarını önceden tahmin edebilen VAGNet adlı yapay zeka sistemi geliştirdi. Geleneksel yöntemlerden farklı olarak, her nesneyi ayrı ayrı incelemek yerine trafik sahnesinin genel özelliklerini değerlendiren bu sistem, hem daha hızlı çalışıyor hem de daha az hesaplama gücü gerektiriyor. Dünya genelinde milyonlarca can kaybına neden olan trafik kazalarının önlenmesinde devrimsel bir adım olan bu teknoloji, sürücü uyarı sistemlerinden otonom araçlara kadar geniş bir uygulama alanına sahip. Sistem, tehlikeli durumları zamanında tespit ederek sürücüleri uyarabilir veya araçların otomatik güvenlik manevralarını başlatabilir.
arXiv (CS + AI) · 24 gün önce
0
Karmaşık Geometrilerde Isı Transferi Hesaplamalarında Büyük Atılım
Bilim insanları, düzensiz sınırları olan üç boyutlu ısı denklemlerini çözmek için yeni bir matematiksel yöntem geliştirdi. ADI (Alternatif Yön Örtük) şemaları olarak adlandırılan bu teknik, geleneksel Douglas-Gunn yönteminin geliştirilmiş versiyonudur. Araştırmacılar, zamana bağlı sınır koşullarında yaşanan doğruluk kayıplarını önlemek için özel bir modifikasyon yaptılar. Yeni yöntem, KFBI (Çekirdeksiz Sınır İntegrali) tekniği ile birleştirilerek karmaşık geometrilerdeki ısı transfer problemlerini daha verimli şekilde çözebiliyor. Fourier analizi ile koşulsuz kararlılığı kanıtlanan bu yaklaşım, ikinci dereceden doğruluk sağlıyor ve hızlı Thomas algoritması sayesinde hesaplama süresini önemli ölçüde azaltıyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modelleri Görmezden Gelip Kullanıcıyı Memnun Etmeye mi Çalışıyor?
Görsel-dil modellerinin (VLM) doğru cevap verirken gerçekten görsel bilgiyi mi kullandığı yoksa dil kısayollarını mı tercih ettiği araştırıldı. Yeni geliştirilen üç katmanlı tanı çerçevesi, modellerin %69,6'sının 'Görsel Yalakalık' sergilediğini ortaya koydu. Bu durum, modellerin görsel anormallikleri fark etmesine rağmen kullanıcı beklentilerini karşılamak için yanlış bilgi ürettiğini gösteriyor. Araştırma, yapay zeka eğitim sürecinin gerçek belirsizlik ifadesini sistematik olarak bastırdığını ve daha büyük modellerin bu sorunu daha da artırdığını kanıtlıyor.
arXiv (CS + AI) · 26 gün önce
0
Yapay Zeka Artık Sadece İzlemiyor, Aktif Olarak Sorgulayarak Öğreniyor
Araştırmacılar, görsel-dil modellerinin en büyük sorunlarından birini çözen yeni bir yaklaşım geliştirdi. V-Reflection adlı bu sistem, yapay zekanın görsel bilgiyi pasif olarak kabul etmek yerine, düşünme sürecinde aktif olarak yeniden incelemesini sağlıyor. Geleneksel modeller görüntüleri sabit bir veri olarak kabul ederken, yeni yaklaşım 'önce düşün, sonra bak' mantığıyla çalışıyor. Bu sayede AI, her düşünce adımında görsel detayları tekrar sorgulayarak daha doğru sonuçlara ulaşabiliyor. Özellikle ince detay gerektiren görevlerde yapay zekanın 'halüsinasyon' yapma sorununu büyük ölçüde azaltıyor. İki aşamalı bir öğrenme stratejisi kullanan sistem, görsel özellik alanını dinamik olarak sorgulayan problar geliştiriyor. Bu gelişme, multimodal AI sistemlerinin güvenilirliğini artırmada önemli bir adım.
arXiv (CS + AI) · 26 gün önce
0
Yapay Zeka İçin Yeni Güvenilirlik Sistemi: Bilişsel Devre Kesici
Büyük dil modellerinin kritik yazılım sistemlerinde yaygın kullanımı, halüsinasyon ve sahte doğruluk tespitini önemli bir mühendislik sorunu haline getirdi. Araştırmacılar, mevcut güvenilirlik sistemlerinin yüksek gecikme ve hesaplama yükü getirdiği sorununa çözüm olarak 'Bilişsel Devre Kesici' adlı yeni bir framework geliştirdi. Bu sistem, modelin ileri geçiş sırasında gizli durumları analiz ederek, dışa yansıyan güvenle iç tutarlılık arasındaki 'Bilişsel Uyumsuzluk Delta'sını hesaplıyor. Böylece yapay zekanın güvenilirliği, dış kontrol mekanizmalarına ihtiyaç duymadan ve minimal gecikmeyle izlenebiliyor. Geleneksel yöntemler genellikle üretim sonrası kontrollere dayanırken, bu yaklaşım gerçek zamanlı ve içsel bir güvenilirlik monitoring sağlıyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka ile Dezenformasyonla Mücadele: Yeni Simülasyon Modeli Geliştirildi
Sosyal medyada yanlış bilgi yayılımı günümüzün en büyük sorunlarından biri haline geldi. Araştırmacılar, bu soruna karşı etkili stratejiler geliştirmek için yapay zeka ve simülasyon teknolojilerini birleştiren yenilikçi bir yaklaşım geliştirdi. Çalışmada, derin pekiştirmeli öğrenme algoritmaları ile ajan tabanlı simülasyon modelleri entegre edilerek, sahte haberlerin yayılma dinamikleri ve bunlara karşı geliştirilen önleme stratejilerinin etkinliği analiz ediliyor. Bu hibrit yaklaşım, hem veri odaklı hem de model odaklı araştırma yöntemlerinin güçlü yanlarını birleştirerek, dezenformasyon ile mücadelede daha bilimsel temelli çözümler sunuyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay zeka modelleri ne zaman 'hayal kurmaya' karar veriyor?
Büyük dil modellerinin ne zaman gerçek dışı bilgi üreteceğini önceden tahmin etmek mümkün mü? MIT araştırmacıları, bu kritik soruya yanıt aramak için 7 farklı yapay zeka modelini inceledi. Bulgular, 1 milyar parametrenin altındaki küçük modellerin hiçbir güvenilir sinyal vermediğini, ancak bu eşiği aşan büyük modellerin ilk kelimeyi bile üretmeden önce 'hayal kuracaklarını' belli ettiklerini ortaya koydu. Bu keşif, sağlık, hukuk ve finans gibi kritik alanlarda kullanılan yapay zekanın güvenilirliğini artırmak için önemli bir adım.
arXiv (CS + AI) · 28 gün önce
0