...
"sahte içerik" için 273 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
273 haber
Nörobilim & Psikoloji
Gerçek Suç Podcast'leri: Karanlık Kişilik Özellikleriniz Dinleme Nedeninizi Belirliyor
Yeni bir psikolojik araştırma, gerçek suç podcast'lerini dinleme motivasyonlarının kişilik özellikleriyle doğrudan bağlantılı olduğunu ortaya koyuyor. Çoğu dinleyici bu tür içerikleri suç davranışlarını anlamak ve öğrenmek için tercih ederken, karanlık kişilik özelliklerine sahip bireyler tamamen farklı sebeplerle bu hikayeleri takip ediyor. Araştırma, narsisizm, makyavelizm ve psikopati gibi özelliklerin, bu tür içerikleri eğlence amaçlı tüketme eğilimini artırdığını gösteriyor. Bu bulgular, popüler kültürün karanlık yanlarına olan ilginin altında yatan psikolojik mekanizmaları daha iyi anlamamızı sağlıyor.
Nörobilim & Psikoloji
Gözleriniz sahte haberlere ne kadar inandığınızı ele veriyor
Yeni bir göz izleme araştırması, insanların sahte haberlere olan inançlarının bilinçli karar vermeden önce bile göz hareketlerinden anlaşılabileceğini ortaya koyuyor. Çalışma, önceden sahip olduğumuz inançların yeni bilgileri nasıl öğrendiğimizi şekillendirdiğini gösteriyor. Araştırmacılar, insanların kendi görüşlerine meydan okuyan gerçeklerle karşılaştıklarında uyum sağlamakta zorlandıklarını tespit etti. Bu bulgular, sahte haberlerin neden bu kadar etkili olduğu ve mücadelesinin neden bu denli zor olduğu konusunda önemli ipuçları sunuyor. Göz izleme teknolojisi sayesinde elde edilen veriler, bilişsel önyargıların insan davranışı üzerindeki etkisini anlamada yeni bir perspektif açıyor.
Teknoloji & Yapay Zeka
İngiltere'de AI şeffaflığı: Halk, devletin yapay zeka kullanımını görebilecek
İngiltere'de yeni düzenlemeler, kamu kurumlarının yapay zeka kullanımına dair bilgilerin halka açıklanması gerektiğini teyit etti. Karar, New Scientist dergisinin bir bakanın ChatGPT kayıtlarını talep etmesi üzerine geldi. Düzenleyici otoriteler, devlet dairelerinin AI ile üretilen içerikler hakkında bilgi paylaşım taleplerini değerlendirmesi gerektiğini açıkladı. Bu gelişme, kamu yönetiminde yapay zeka kullanımının şeffaflığı açısından önemli bir adım olarak değerlendiriliyor. Vatandaşların, devlet kurumlarının hangi konularda AI'dan yararlandığını ve nasıl kullandığını öğrenme hakkına sahip olması, demokratik hesap verebilirlik ilkesini güçlendiriyor. Yeni kurallar, özellikle kamu politikalarının oluşturulmasında AI'nın rolünün görünür kılınması konusunda öncü bir yaklaşım sergiliyor.
İklim & Çevre
Karbon Kredilerinin %84'ü Sahte Çıktı: Yeni Finansman Modeli Önerisi
Şirketlerin sera gazı emisyonlarını dengelemek için kullandığı karbon kredilerinin büyük çoğunluğunun gerçek emisyon azaltımını temsil etmediği ortaya çıktı. Yapılan analiz, karbon kredilerinin en az %84'ünün sahte olduğunu gösterdi. Ormanları koruyarak elde edilen krediler çifte sayılabiliyor veya ağaçlar sonradan kesildiğinde tersine dönebiliyor. Bazı yenilenebilir enerji projeleri ise zaten kredi olmasa da hayata geçirilecekken karbon kredisi olarak sayılıyor. Bu durum, şirketlerin net sıfır hedeflerine ulaşma çabalarının sorgulanmasına neden oluyor ve kalıcı karbon giderimi için yeni finansman modellerinin acilen geliştirilmesi gerektiğini gösteriyor.
Nörobilim & Psikoloji
Sahte Rakun Ordusu Anketi Komplo Teorisi Araştırmalarındaki Büyük Hatayı Ortaya Çıkardı
Avustralyalı araştırmacılar, genetiği değiştirilmiş rakun ordusu hakkında uydurdukları absürt bir komplo teorisini anket sorularına dahil ederek, komplo teorilerine inanç oranlarının gerçekte düşünülenden çok daha az olabileceğini gösterdiler. Araştırma, mevcut anket yöntemlerinin ciddi bir açığını ortaya koyuyor: İnsanlar gerçek komplo teorilerini bilmeseler bile rastgele seçenekleri işaretleyebiliyor. Bu bulgular, sosyal bilim araştırmalarında komplo teorisi yaygınlığının nasıl ölçüldüğünü sorgulatıyor ve metodolojik yeniliklere işaret ediyor.
Tıp & Sağlık
Sosyal Medyadaki 'Sağlıklı Yaşam' Paylaşımları Gençlere Zarar Verebiliyor
Sosyal medya platformları fitness ve sağlıklı beslenme içerikleriyle dolu. Bu paylaşımlar motivasyon sağlamak amacıyla yapılsa da, Olimpik bir sporcu liderliğindeki geniş kapsamlı araştırma beklenmedik sonuçları ortaya çıkardı. Çalışma, sağlıklı yaşam teşvik eden viral içeriklerin genç yetişkinler üzerinde olumsuz etkiler yaratabileceğini gösteriyor. Motivasyonel görünen bu paylaşımların, özellikle genç kullanıcıların ruh sağlığı ve genel refahı üzerinde istenmeyen sonuçlar doğurabildiği belirlendi. Bu bulgular, sosyal medyada sağlık içeriklerinin nasıl sunulduğu konusunda yeni bir perspektif sunuyor ve dijital çağda sağlıklı yaşam motivasyonunun karmaşık doğasını gözler önüne seriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Nörofarklılık Durumuna Göre Cevaplarını Nasıl Uyarlıyor?
Araştırmacılar, gelişmiş büyük dil modellerinin (LLM) nörofarklı kullanıcılara yönelik sistem talimatları aldıklarında çıktılarını nasıl değiştirdiğini inceledi. NDBench adlı yeni bir test sistemi kullanılarak yapılan çalışmada, modellerin nörofarklılık bağlamında önemli uyarlamalar gösterdiği ortaya çıktı. İki farklı gelişmiş model, üç sistem talimat türü ve dört nörofarklılık profili kullanılarak 576 farklı çıktı analiz edildi. Sonuçlar, modellerin özellikle detaylı talimatlar aldıklarında daha uzun, yapılandırılmış ve adım adım açıklamalar içeren yanıtlar ürettiğini gösteriyor. Bu uyarlamaların büyük ölçüde yapısal değişiklikler olduğu ve içerik yerine sunum biçiminde değişiklikler yapıldığı tespit edildi. Araştırma, yapay zeka sistemlerinin farklı kullanıcı ihtiyaçlarına nasıl uyum sağladığını anlamak açısından önemli bulgular sunuyor.
Nörobilim & Psikoloji
Komedide 'Zamanlama Her Şey' Sözünün Bilimsel İspatı
Komedyenler yıllardır 'zamanlama her şeydir' der durur. Şimdi bilim insanları bu sözün haklılığını kanıtladı. 828 Çinli stand-up komedyeninin performansını analiz eden araştırmacılar, mizahta zamanlamanın içerikten çok daha önemli olduğunu keşfetti. Çalışma, beynimizin tahmin yapma kapasitesi ve beklenti ihlallerinden nasıl zevk aldığımızı açıklayan yeni bir çerçeve sunuyor. Bulgular, mizah anlayışımızda anlamsal uyumsuzluktan ziyade temporal yapının belirleyici rol oynadığını gösteriyor. Bu keşif, hem mizah teorilerini hem de beynin tahmin süreçlerini anlamamızda önemli bir adım.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenlik Sistemlerindeki Kritik Zayıflık Keşfedildi
Araştırmacılar, görsel-dil modellerinin güvenlik sınıflandırma sistemlerinde ciddi bir güvenilirlik sorunu ortaya çıkardı. Aynı anlama gelen farklı komut formülasyonları, yapay zekanın güvenli veya güvensiz içerik değerlendirmelerinde tutarsız sonuçlar ürettiğini gösterdi. Bu keşif, mevcut AI güvenlik sistemlerinin düşünülenden daha kırılgan olduğunu ve geliştirilmesi gerektiğini ortaya koyuyor. Çalışma, zero-shot vision-language modellerin tek komut tabanlı değerlendirmelerinin yanıltıcı olabileceğini ve çoklu komut ortalaması yaklaşımının daha güvenilir sonuçlar verdiğini kanıtladı.
Teknoloji & Yapay Zeka
Sosyal Medyada Tartışmalı Konuların Analizi İçin Yeni Yapay Zeka Benchmarkı
Araştırmacılar, sosyal medyada ideolojik ayrılıklar üzerinden yapılan tartışmaları analiz etmek için ControBench adlı yeni bir benchmark geliştirdi. Reddit'ten toplanan verilerle oluşturulan bu sistem, politik kutuplaşma ve dezenformasyon araştırmalarında önemli bir boşluğu dolduruyor. Trump, kürtaj ve din gibi tartışmalı konularda 7.370 kullanıcı, 1.783 gönderi ve 26.525 etkileşim verisi içeren benchmark, hem metin analizini hem de sosyal etkileşim yapısını bir araya getiriyor. Mevcut veri setleri ya sadece metni ya da sadece etkileşim yapısını dikkate alırken, ControBench her iki unsuru da birleştirerek tartışmaların bağlamsal analizine olanak sağlıyor. Bu gelişme, çevrimiçi platformlarda içerik moderasyonu ve polarizasyon dinamiklerini anlamak için kritik önem taşıyor.
Teknoloji & Yapay Zeka
Çok Dilli AI Güvenliği İçin Yerel Kanunlara Dayalı Yeni Koruma Sistemi
Araştırmacılar, büyük dil modellerinin farklı ülkelerde güvenli kullanımını sağlamak için ML-Bench adlı yeni bir değerlendirme sistemi geliştirdi. 14 farklı dili kapsayan bu sistem, her bölgenin kendi yasal düzenlemelerini ve kültürel özelliklerini dikkate alarak AI güvenlik standartları oluşturuyor. Mevcut sistemlerin aksine, genel risk kategorileri yerine ülkeye özgü kanun metinlerinden doğrudan yararlanıyor. Bu yaklaşım, AI modellerinin küresel kullanımında karşılaşılan yasal ve kültürel uyumsuzluk sorunlarına çözüm getiriyor. Sistem üzerinden geliştirilen ML-Guard koruma modeli, bölgesel düzenlemelere uygun şekilde zararlı içerikleri tespit edip engelleyebiliyor.