...
"halüsinasyon" için 51 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
51 haber
Tıp & Sağlık
Halüsinasyon yapmayan psikedelik benzeri ilaçlar depresyona umut olabilir
UC Davis araştırmacıları, amino asit bazlı moleküllere UV ışık uygulayarak yepyeni psikedelik benzeri bileşikler geliştirdi. Bu yenilikçi moleküller, beyin plastisitesi ve ruh sağlığı açısından kritik olan serotonin reseptörlerini aktive ederken, şaşırtıcı bir şekilde hayvan deneylerinde halüsinasyon benzeri davranışlara neden olmadı. Geleneksel psikedelik ilaçların aksine, bu yeni bileşikler terapötik faydaları sağlarken yoğun psikedelik deneyim yaşatmıyor. Keşif, depresyon, PTSD ve bağımlılık tedavisinde devrim yaratabilecek potansiyele sahip. Bilim insanları, bu yaklaşımın hastaların günlük yaşamlarını aksatmadan ruh sağlığı tedavilerine erişmelerine olanak tanıyabileceğini belirtiyor.
Teknoloji & Yapay Zeka
Yapay Zeka İçin Bilgi Arama Sistemleri Yeniden Tasarlanıyor
Geleneksel arama motorları insanlar için tasarlanmıştı, ancak artık büyük dil modelleri de bu sistemleri yoğun şekilde kullanıyor. Araştırmacılar, yapay zekanın bilgi arama ihtiyaçlarının insanlardan çok farklı olduğunu keşfetti. YZ modelleri, sınırlı dikkat kapasiteleri nedeniyle gürültülü veya alakasız bilgilere karşı çok daha hassas. Bu durum halüsinasyonlara ve mantık hatalarına yol açabiliyor. Yeni araştırma, bilgi arama sistemlerinde 'gürültü temizleme' yaklaşımının kritik önemde olduğunu vurguluyor. Sistemler artık kullanılabilir kanıt yoğunluğunu artırıp doğrulanabilirliği maksimize etmeye odaklanmalı. Bu paradigma değişimi, arama teknolojilerinin temelinden yeniden düşünülmesini gerektiriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliği için Yeni Çözüm: Ayrışık Güvenlik Adaptörleri
Araştırmacılar, yapay zeka sistemlerinin güvenliğini sağlamak için yenilikçi bir yaklaşım geliştirdi. Ayrışık Güvenlik Adaptörleri (DSA) adlı bu sistem, güvenlik kontrollerini ana modelden ayırarak hem verimlilik hem de esneklik sağlıyor. Geleneksel güvenlik yöntemleri ya performansı düşürüyor ya da geliştirme sürecini kısıtlıyordu. DSA ise nefret söylemi tespiti, zararlı içerik engelleme ve halüsinasyon önleme gibi alanlarda %53'e varan iyileşmeler göstererek bu sorunu çözüyor. Sistem, minimal hesaplama maliyetiyle çalışırken, kullanıcıların güvenlik seviyesini anlık olarak ayarlamasına da olanak tanıyor.
Teknoloji & Yapay Zeka
Yapay zeka modelleri artık 'bilmiyorum' diyebilecek
Araştırmacılar, dil modellerinin bilmedikleri konularda yanlış bilgi üretmek yerine susma kararı alabilmelerini sağlayan yeni bir yöntem geliştirdi. Conformal Abstention (CA) adlı bu yaklaşım, modelin güven seviyesini ölçerek yanıt verip vermeyeceğini belirliyor. Sistem, hem katılım olasılığı hem de doğru yanıt verme olasılığı için matematiksel garantiler sunuyor. Yöntem, modeli yeniden eğitmek yerine mevcut modeller üzerine uygulanabiliyor ve böylece aşırı temkinli davranış riskini azaltıyor. Bu gelişme, yapay zeka sistemlerinin güvenilirliğini artırarak halüsinasyon sorununa önemli bir çözüm getiriyor.
Teknoloji & Yapay Zeka
Yapay zeka spor haberciliğinde ağaç yapısıyla başarıya ulaştı
Araştırmacılar, spor maçı verilerinden haber metni üreten yeni bir yapay zeka sistemi geliştirdi. Tree-of-Text adlı bu framework, büyük dil modellerinin tablo verilerini yorumlarken yaşadığı 'halüsinasyon' sorununu çözmek için ağaç yapısına dayalı bir yaklaşım benimsiyor. Sistem, içerik planlama, işlem yürütme ve metin üretimi olmak üzere üç aşamalı bir süreçle çalışıyor. Geleneksel yöntemlerin büyük veri setlerine ihtiyaç duyması ve mevcut prompt yöntemlerinin veri yorumlama konusundaki zayıflıkları göz önüne alındığında, bu yenilik spor haberciliğinde önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Halüsinasyon Sorunu: Yeni Bilgiler Neden Yanıltıyor?
Büyük dil modellerinin eğitimi sırasında yeni bilgiler öğrenmeleri, beklenmedik bir yan etkiye yol açıyor: halüsinasyonlar. Araştırmacılar, Llama 3.1, Gemma 2 ve Mistral gibi popüler yapay zeka modellerini kullanarak kontrollü deneyler yürütmüş ve bu sorunun nedenlerini araştırmış. Çalışma, modellere yeni bilgiler öğretildiğinde, özellikle uzun süreli eğitimde halüsinasyon oranının arttığını gösteriyor. Bu durum, yapay zekanın güvenilirliği açısından kritik bir sorun teşkil ediyor çünkü modeller gerçek olmayan bilgiler üretebiliyor. Araştırma, bu problemin altında yatan gizli mekanizmaları anlamaya odaklanıyor ve yapay zeka sistemlerinin daha güvenilir hale getirilmesi için önemli ipuçları sunuyor.
Teknoloji & Yapay Zeka
Yapay zeka asistanı öğrencilere akademik süreçlerde rehberlik ediyor
Hollanda'daki Maastricht Üniversitesi araştırmacıları, büyük dil modellerinin yaygın sorunları olan 'halüsinasyon' ve yanlış bilgi üretimi problemlerini çözmek için yeni bir yaklaşım geliştirdi. Retrieval-Augmented Generation (RAG) teknolojisini kullanan sanal asistan, öğrencilere proje yönetmelikleri konusunda doğru ve güncel bilgiler sunabiliyor. Sistem, mevcut bilgi tabanlarından ilgili bilgileri çekerek yanıtlarını desteklediği için daha güvenilir sonuçlar üretiyor. Gerçek ortam testlerinde başarılı sonuçlar alan bu teknoloji, eğitim sektöründe yapay zeka kullanımının geleceği hakkında önemli ipuçları veriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Kısmi Bilgiyle Daha Fazla Hata Yapıyor
Araştırmacılar, büyük dil modellerinde şaşırtıcı bir keşif yaptı: çok adımlı mantık yürütme süreçlerinde modellere kısmi bilgi verildiğinde, yanlış cevaplara olan güvenleri artıyor. 'Çıpalı konfabulasyon' adı verilen bu olgu, modelin verilen kısmi bilgiyi sabit nokta kabul ederek geriye kalan adımları parametrik hafızasından tamamlama eğiliminde olmasından kaynaklanıyor. Altı farklı model ailesi üzerinde yapılan deneylerde, bu durumun model kapasitesi arttıkça daha belirgin hale geldiği gözlemlendi. Bulgular, yapay zeka sistemlerinin güvenilirlik kalibrasyonu konusunda önemli çıkarımlara sahip.
Teknoloji & Yapay Zeka
Yapay Zekanın Halüsinasyonlarını Tespit Eden Yeni Yöntem: HIVE
Araştırmacılar, büyük dil modellerinin ürettiği yanlış bilgileri tespit etmek için HIVE adlı yeni bir sistem geliştirdi. Bu sistem, modelin metin üretim sürecindeki gizli dinamikleri analiz ederek halüsinasyonları belirliyor. Geleneksel yöntemler sadece son çıktıya odaklanırken, HIVE tüm üretim sürecini inceleyerek daha başarılı sonuçlar elde ediyor. Sistem, halüsinasyon türlerini kategorize edebiliyor ve neden böyle bir sonuca vardığını açıklayabiliyor. Test sonuçları, HIVE'ın mevcut yöntemlerden çok daha yüksek doğruluk oranına sahip olduğunu gösteriyor. Bu gelişme, yapay zeka sistemlerinin güvenilirliğini artırmak için kritik bir adım olarak değerlendiriliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinde Yeni Keşif: Az Kelimeyle Daha Doğru Sonuç
Araştırmacılar, yapay zeka modellerinin daha az kelime kullanarak daha doğru sonuçlar üretebileceğini gösteren 'Semantik Yoğunluk Etkisi'ni keşfetti. Bu etki, komutlardaki anlam yüklü kelimelerin oranının artırılmasıyla elde ediliyor. Beş farklı AI modelinde yapılan testler, gereksiz kelimelerin çıkarılıp anlamlı olanların korunmasıyla performansın ortalama %8,4 oranında arttığını gösterdi. Bu yaklaşım, model hızını etkilemeden halüsinasyon sorununu azaltıyor ve daha odaklı yanıtlar üretiyor. Bulgular, AI ile etkileşimde 'az ama öz' prensibiinin ne kadar önemli olduğunu ortaya koyuyor.
Teknoloji & Yapay Zeka
FaithLens: Yapay zekanın yanlış bilgilerini tespit eden yeni model
Büyük dil modellerinin ürettiği yanlış ve tutarsız bilgileri tespit etmek, günümüzde kritik bir sorun haline geldi. Araştırmacılar, bu soruna çözüm olarak FaithLens adlı yeni bir model geliştirdi. Bu sistem, yapay zekanın güvenilir olmayan çıktılarını sadece tespit etmekle kalmıyor, aynı zamanda neden yanlış olduğunu da açıklayabiliyor. Model, özellikle bilgi arama sistemleri ve metin özetleme gibi kritik uygulamalarda büyük önem taşıyor. 8 milyar parametreli FaithLens, 12 farklı görevde test edildi ve GPT gibi gelişmiş modelleri bile geride bıraktı. Sistem, maliyet açısından da verimli bir çözüm sunuyor.