...
"halüsinasyon" için 51 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
51 haber
Teknoloji & Yapay Zeka
Endüstriyel Öneri Sistemlerinde Devrim: LLMAR Çerçevesi Geliştirildi
Araştırmacılar, endüstriyel B2B uygulamalarda karşılaşılan veri kıtlığı sorununu çözmek için LLMAR adlı yenilikçi bir öneri sistemi geliştirdi. İnşaat sahası risk tahmini ve malzeme tedariki gibi alanlarda kullanılan geleneksel sistemler, yetersiz etkileşim verisi nedeniyle başarısız oluyor. LLMAR, büyük dil modellerinin akıl yürütme yeteneklerini kullanarak kullanıcıların gizli motivasyonlarını anlıyor ve hiçbir eğitim süreci gerektirmiyor. Sistem, davranış geçmişini yapılandırılmış anlamlı motivasyonlara dönüştüren çıkarım odaklı açıklama ve halüsinasyonları önleyen öz-düzeltme mekanizması gibi özellikler sunuyor. Bu yenilik, veri kıtlığının yaşandığı endüstriyel alanlarda öneri sistemlerinin etkinliğini artırma potansiyeli taşıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Güvenilirliğini Artıran Yeni Yöntem Geliştirildi
Büyük dil modelleri bazen gerçekmiş gibi görünen yanlış bilgiler üretebiliyor - bu duruma 'halüsinasyon' deniyor. Araştırmacılar, yapay zeka modellerinin ne kadar emin olduklarını daha iyi tahmin edebilmeleri için yeni bir eğitim yöntemi geliştirdi. Bu yaklaşım, modellerin belirsizliklerini doğru şekilde değerlendirmelerini sağlayarak daha güvenilir yanıtlar vermelerini hedefliyor. Yöntem, modelin doğruluğunu korurken aynı zamanda hangi durumlarda daha temkinli davranması gerektiğini öğrenmesini sağlıyor. Bu gelişme, özellikle kritik alanlarda yapay zeka kullanımında güven artışı sağlayabilir.
Teknoloji & Yapay Zeka
Yazılım Hatalarını Otomatik Düzelten Akıllı Sistem Geliştirildi
Araştırmacılar, yazılım hatalarını otomatik olarak düzelten yeni nesil bir yapay zeka sistemi geliştirdi. Prometheus adlı bu sistem, geleneksel kod onarım araçlarının temel sorunu olan 'niyet boşluğu' problemini çözmeyi hedefliyor. Sistem, sadece kodu düzeltmek yerine, önce yazılımın ne yapması gerektiğini anlayarak spesifikasyon çıkarımı yapıyor. Çok-ajan mimarisi kullanan Prometheus, çalışma zamanı hata raporlarından Gherkin spesifikasyonlarını ters mühendislik yöntemiyle çıkarıyor. Geliştirilen Gereksinim Kalite Güvencesi döngüsü ile 'niyet halüsinasyonu' sorunu da çözülmeye çalışılıyor. Bu yaklaşım, yazılım geliştiricilerin asıl amacıyla uyumlu yamalar üreterek, otomatik program onarımında devrim yaratabilir.
Teknoloji & Yapay Zeka
Yapay zeka kendini geliştirerek görsel soru-cevap veri setleri üretiyor
Araştırmacılar, görsel sorulara dayalı veri setlerinin manuel olarak hazırlanmasındaki zorlukları aşmak için AutoVQA-G adlı yenilikçi bir sistem geliştirdi. Bu sistem, yapay zekanın kendi performansını değerlendirip iyileştirmesine dayanan özerk bir yaklaşım kullanıyor. Görsel soru-cevap modellerinin eğitimi için kritik önem taşıyan bu veri setleri, şimdiye kadar büyük ölçüde insan emeği gerektiriyordu. Yeni sistem, tutarlılık değerlendirmesi ve hafıza destekli optimizasyon ajanları kullanarak bu süreci otomatikleştiriyor. Geleneksel yöntemlerdeki model halüsinasyonları ve basit doğrulama mekanizmalarının yarattığı sorunları çözmek için tasarlanan AutoVQA-G, iteratif iyileştirme döngüleri ve zincir-düşünce mantığı ile çalışıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Artık 'Bilmiyorum' Diyebilecek ve Neden Bilmediğini Açıklayacak
Araştırmacılar, büyük dil modellerinin cevap veremeyecekleri sorularda tahmin yürütmek yerine 'bilmiyorum' diyebilen ve eksik bilgiyi açıklayabilen yeni bir sistem geliştirdi. Abstain-R1 adlı 3 milyar parametreli model, pekiştirmeli öğrenme ile eğitilerek hem doğru sorulara yanıt veriyor hem de cevaplanamayan sorularda neden cevap veremediğini belirtiyor. Bu yaklaşım, yapay zekanın güvenilirliği açısından kritik bir adım olarak değerlendiriliyor.
Teknoloji & Yapay Zeka
Yapay Zeka'nın Görsel Halüsinasyonları Kendi Kendine Düzeltmeyi Öğrendi
Büyük görsel-dil modelleri, gördükleri görüntülerle tutarsız açıklamalar üretme sorunu yaşıyor. Bu durum 'görsel halüsinasyon' olarak adlandırılıyor ve AI sistemlerinin güvenilirliğini ciddi şekilde etkiliyor. Araştırmacılar, bu sorunu çözmek için yeni bir yaklaşım geliştirdi: AI modellerinin kendi performanslarını değerlendirerek hatalarını anlık olarak düzeltmesi. Çalışma, görsel halüsinasyonların belirli aşamalarda zirve yaptığını keşfetti ve bu keşfe dayanarak PSRD adlı yeni bir sistem tasarladı. Bu sistem, dış müdahaleye ihtiyaç duymadan AI'ın kendi kendine öğrenmesini sağlıyor. Geleneksel yöntemlerin aksine büyük ölçekli veri işleme gerektirmiyor ve dinamik düzeltmeler yapabiliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Bilimsel Kanıtları Doğrulamada Zorlanıyor: Yeni Araştırma Şaşırtıyor
Araştırmacılar, yapay zeka modellerinin bilimsel iddiaları kanıtlarla karşılaştırma becerisini test etmek için 469 bin örnek içeren kapsamlı bir veri seti oluşturdu. M2-Verify adlı bu çalışma, PubMed ve arXiv'den toplanan verilerle 16 farklı bilim alanını kapsıyor. Sonuçlar oldukça çarpıcı: En gelişmiş AI modelleri bile basit tıbbi durumlarda %85,8 başarı gösterirken, karmaşık anatomik değişikliklerde bu oran %61,6'ya düşüyor. Daha da önemlisi, modeller bilimsel açıklamalar yaparken halüsinasyonlar üretiyor ve tutarsız sonuçlar veriyor. Bu bulgular, bilimsel araştırmalarda AI kullanımının henüz tam güvenilir olmadığını gösteriyor ve gelecekteki geliştirmeler için önemli bir yol haritası sunuyor.
Nörobilim & Psikoloji
Psikedeliklerin halüsinasyon etkisi rüya mekanizmasıyla açıklandı
Klasik psikedelik maddelerin nasıl görsel halüsinasyonlara yol açtığını açıklayan yeni bir bilimsel model geliştirildi. 'Oneirogen hipotezi' adı verilen bu yaklaşım, psikedeliklerin beynde gerçek anlamda rüya benzeri durumlar yaratarak halüsinasyonlara neden olduğunu öne sürüyor. Araştırmacılar, yapay sinir ağları kullanarak bu etkiyi simüle ettiler ve psikedeliklerin düşük seviyede tutarlı ancak yüksek seviyede gerçeküstü algılar yaratma mekanizmasını modellemeyi başardılar. Bu çalışma, hem psikedelik maddelerin beyin üzerindeki etkilerini anlamamıza katkıda bulunuyor hem de bu maddelerin terapötik kullanımları için önemli ipuçları sunuyor.
Tıp & Sağlık
Yapay zeka psikiyatrist: WiseMind hem doğru tanı koyuyor hem empati gösteriyor
Araştırmacılar, ruh sağlığı alanında devrim yaratabilecek WiseMind adlı çok aracılı yapay zeka sistemi geliştirdi. Bu yenilikçi framework, Diyalektik Davranış Terapisi teorisinden ilham alarak iki farklı yapay zeka aracısını birleştiriyor: kanıta dayalı mantık yürüten 'Mantıklı Zihin' ve empatik iletişim kuran 'Duygusal Zihin'. Sistem, DSM-5 kılavuzuna dayalı yapılandırılmış bilgi grafiği kullanarak psikiyatrik değerlendirme yapıyor ve standart yöntemlere kıyasla halüsinasyonları önemli ölçüde azaltıyor. WiseMind, büyük dil modellerinin ruh sağlığı alanındaki potansiyelini ortaya koyarken, hem klinik doğruluk hem de hasta güveni için gerekli duygusal uyumu sağlayan ilk sistem olma özelliği taşıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Halüsinasyonlarının Sırrı: İlk Token'dan Başlayan Yanlış Yolculuk
Stanford araştırmacıları, büyük dil modellerinin neden gerçek dışı bilgiler ürettiğini açıklayan çığır açar bir keşif yaptı. Qwen2.5 modeli üzerinde yapılan deneyler, halüsinasyonların tesadüfi olmadığını, modelin ilk kelimeden itibaren yanlış bir 'yörüngeye' girdiğini ortaya koyuyor. Araştırma, aynı soruya verilen farklı yanıtları analiz ederek, modellerin %44 oranında doğru ve yanlış bilgi arasında erken ayrım yaptığını gösteriyor. En çarpıcı bulgu ise, yanlış aktivasyonların doğru yanıtları bozmasının (%87), doğru aktivasyonların yanlış yanıtları düzeltmesinden (%33) çok daha kolay olması. Bu asimetrik yapı, AI sistemlerinin neden bazen ısrarla yanlış bilgiler ürettiğini ve bu sorunu çözmenin neden bu kadar zor olduğunu açıklıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Halüsinasyonlarını Tespit Eden Yeni Sistem: FRANQ
Araştırmacılar, büyük dil modellerinin yanlış bilgi üretme sorununu çözmek için FRANQ adında yeni bir sistem geliştirdi. Retrieval-Augmented Generation (RAG) teknolojisi kullanan yapay zeka sistemleri, internetten bilgi çekerek sorulara yanıt verirken bazen gerçek dışı bilgiler üretebiliyor. FRANQ, bu 'halüsinasyonları' tespit etmek için gelişmiş belirsizlik ölçüm tekniklerini kullanıyor ve doğru bilgiyle desteklenen ifadeleri yanlışlıkla hatalı olarak etiketleme sorununu çözüyor. Sistem, bir ifadenin kaynaklarla ne kadar uyumlu olduğunu ve gerçekte doğru olup olmadığını ayrı ayrı değerlendiriyor.