"demokratik söylem" için 36 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
36 haber
Yapay Zeka Modelleri Artık Neden-Sonuç İlişkilerini Daha Doğru Yorumlayabilecek
Araştırmacılar, zaman serisi verilerinde neden-sonuç ilişkilerini keşfetmek için kullanılan yapay zeka modellerinin yorumlanmasında yeni bir yaklaşım geliştirdi. Mevcut yöntemlerin yanıltıcı sonuçlar verebileceğini ortaya koyan çalışma, tahmin gerekliliği temelli yeni bir değerlendirme çerçevesi öneriyor. Bu yaklaşım, özellikle karmaşık sosyal ve ekonomik sistemlerin analizinde daha güvenilir sonuçlar elde edilmesini sağlayabilir. Demokratik gelişim süreçlerinin analizi üzerinde yapılan gerçek dünya uygulaması, yöntemin pratik değerini gösteriyor.
arXiv (CS + AI) · 22 gün önce
0
Amerikan Demokrasisindeki Asıl Tehdit Sessiz Çoğunluktan Geliyor
Demokrasi uzmanlarının yaptığı yeni araştırma, ABD demokrasisi için en büyük tehdidin anti-demokratik seçmenler olmadığını ortaya koyuyor. Gerçek sorun, ülkenin yarısını oluşturan ve 'demokratik belirsizlik' içinde yaşayan sessiz orta kesimde yatıyor. Bu grup, ne tamamen demokratik değerleri benimsiyor ne de tamamen reddediyor. Araştırmacılar, bu kararsız kitlenin demokratik kurumların geleceğini belirlemede kritik rol oynayabileceğini belirtiyor. Siyaset bilimi çalışmaları, bu sessiz çoğunluğun demokratik normlarla olan ilişkisinin ABD'nin siyasi geleceğini şekillendireceğini gösteriyor. Uzmanlar, bu grubun davranışlarının anlaşılmasının demokrasi için hayati önem taşıdığını vurguluyor.
Phys.org · 22 gün önce
0
Kaybetme korkusu kazanma arzusundan daha güçlü motivasyon kaynağı
Virginia Tech Üniversitesi araştırmacılarının Journal of Applied Psychology'de yayımlanan yeni çalışması, insanların kayıp yaşama ihtimaline karşı kazanma fırsatından daha güçlü tepki verdiğini ortaya koyuyor. Sporcuların 'kaybetmekten nefret ettiğini' söylemesi gibi, çalışanlar da iş yerinde potansiyel kayıplarla karşılaştıklarında daha fazla harekete geçiyor. Araştırma, yöneticilerin sorunları 'kazanç fırsatı' yerine 'kayıp riski' olarak sunduğunda çalışanların daha proaktif davrandığını gösteriyor. Özellikle kayıp büyük bir grubu etkileyeceğinde, çalışanların çözüm arama konusunda daha istekli oldukları gözlemleniyor.
Phys.org — Sosyal Bilimler · 23 gün önce
0
Yapay Zeka Modelleri Sosyal Statüye Göre Ayrımcılık Yapıyor
ABD federal kurumlarında halkın görüşlerini değerlendirmek için kullanılan büyük dil modellerinin (LLM) eşit davranıp davranmadığını test eden yeni bir araştırma şaşırtıcı sonuçlar ortaya çıkardı. Cornell Üniversitesi araştırmacıları, aynı yorumu farklı meslek gruplarından kişilere atfederek 8 farklı yapay zeka modelini test etti. 182 halk yorumu üzerinde yapılan deneyler, 106.000'den fazla özet analiz edildi. Sonuçlar gösterdi ki yapay zeka modelleri, aynı yorumu sokak satıcısına atfettiklerinde, finansal analistle karşılaştırıldığında daha basit dil kullanıyor ve orijinal anlamın daha azını koruyor. Irksal ve cinsiyet farklılıkları tutarlı bir etki göstermezken, sosyoekonomik statü belirgin bir ayrımcılık faktörü olarak ortaya çıktı. Bu bulgular, demokratik karar alma süreçlerinde yapay zekanın kullanımında ciddi eşitlik sorunlarına işaret ediyor.
arXiv (CS + AI) · 23 gün önce
0
Elektronik oylamada gizlilik ve şeffaflığı bir arada sunan yeni protokol
Araştırmacılar, elektronik seçim sistemlerinde uzun süredir devam eden bir soruna çözüm getiren yenilikçi bir protokol geliştirdi. ACE adı verilen bu sistem, seçim sonuçlarının herkes tarafından doğrulanabilmesini sağlarken, aynı zamanda seçmenlerin gizliliğini de koruma altına alıyor. Geleneksel elektronik oylama sistemleri genellikle şeffaflık ve gizlilik arasında seçim yapmak zorunda kalırken, yeni protokol her iki özelliği de başarıyla harmanlıyor. Sistem, oy dağılımını gizli tutarak kamu denetimi imkanı sunan bir toplama mekanizması kullanıyor ve güvenilmeyen istemci varsayımları altında bile doğru oy kullanımını garanti eden bir denetim sistemi içeriyor. Bu gelişme, demokratik süreçlerde elektronik sistemlerin daha güvenli kullanımına önemli bir katkı sağlayabilir.
arXiv (CS + AI) · 23 gün önce
0
Metin İçinde Hangi Unsurlar Daha Önemli Görülür? Yapay Zeka Araştırması
Araştırmacılar, insan dilindeki metinlerde hangi varlıkların (kişi, nesne, yer) daha önemli kabul edildiğini inceleyen kapsamlı bir çalışma gerçekleştirdi. Çalışma, 24 farklı İngilizce metin türünde özet yazma tekniklerini kullanarak, cümle düzeyindeki önem göstergelerinin metin genelinde nasıl işlediğini araştırdı. Bulgular, dilbilgisi işlevi, belirlilik, varlık türü ve metindeki sıralama gibi faktörlerin metin düzeyindeki önemle güçlü korelasyon gösterdiğini ortaya koydu. Ancak bu faktörler, varlığın metinde ne sıklıkla geçtiği ve nasıl dağıldığı gibi unsurlarla etkileşim halinde çalışıyor. Bu araştırma, doğal dil işleme ve yapay zeka sistemlerinin insan dilini daha iyi anlaması açısından önemli ipuçları sunuyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay zeka demokratik katılım süreçlerini nasıl iyileştirebilir?
Araştırmacılar, büyük ölçekli vatandaş danışma süreçlerinde toplanan geri bildirimleri analiz etmek için yeni bir yapay zeka framework'ü geliştirdi. GDN-CC veri seti, online tartışmalardan gelen dağınık ve karmaşık vatandaş katkılarını yapılandırılmış ve anlaşılır argümanlara dönüştürüyor. Çalışmanın amacı, küçük ve açık kaynaklı dil modellerinin bu standardizasyon işini ne kadar güvenilir yapabileceğini test etmek. Bu yaklaşım, demokratik katılım süreçlerinde toplanan verilerin politik analiz ve konu modellemesi için daha kullanışlı hale getirilmesini sağlıyor. Araştırma, yerel olarak çalıştırılabilen şeffaf modellerin kullanımına odaklanarak etik kaygıları da göz önünde bulunduruyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Moderasyonu, Toplulukların Dil Kullanımını Anlayamıyor
Sosyal medyada marjinal topluluklar, kendilerine yönelik aşağılayıcı kelimeleri kimlik ve dayanışma aracı olarak yeniden sahipleniyor. Ancak yapay zeka tabanlı içerik moderasyon sistemleri, bu durumu nefret söyleminden ayırt edemiyor ve sonuçta bu toplulukların sesini bastırıyor. LGBTQIA+, siyahi ve kadın toplulukları üzerine yapılan araştırma, otomatik moderasyon araçlarının toplumsal bağlamı kavrayamadığını ortaya koyuyor. Çalışma, sosyal medya kullanıcılarının bu tür kelimelerin hangi durumlarda kabul edilebilir olduğu konusunda çok farklı görüşlere sahip olduğunu gösteriyor. Bu durum, yapay zeka sistemlerinin insan toplumlarının karmaşık dil dinamiklerini anlama konusundaki sınırlarını açığa çıkarıyor.
arXiv (Dilbilim & NLP) · 23 gün önce
0
Yapay Zeka Asistanları Kullanıcı Tercihlerini Nasıl Hatırlayacak?
Araştırmacılar, yapay zeka asistanlarının kullanıcıların eksik bıraktığı bilgileri kişisel tercihlerden yola çıkarak tamamlaması için yeni bir yöntem geliştirdi. Kullanıcılar genellikle AI asistanlarından bir şey isterken tüm detayları belirtmezler - örneğin sadece "restoran rezervasyonu yap" der, hangi tür yemek istediğini söylemezler. Stanford ve diğer üniversitelerden araştırmacılar bu sorunu çözmek için PRefine adlı bir sistem tasarladı. Sistem, kullanıcının geçmiş tercihlerini analiz ederek eksik bilgileri akıllıca tamamlıyor. 265 farklı kullanıcı diyalogu üzerinde yapılan testlerde, yeni yöntem sadece %1.24 bellek kullanarak başarılı sonuçlar verdi. Bu gelişme, AI asistanlarının daha kişiselleştirilmiş ve verimli hale gelmesi açısından önemli bir adım.
arXiv (CS + AI) · 23 gün önce
0
Polonyaca İçerik Güvenliği: Bielik Guard Modelleri Geliştirildi
Büyük dil modellerinin Polonyaca uygulamalarda yaygınlaşmasıyla birlikte, içerik güvenliği kontrolü kritik bir ihtiyaç haline geldi. Araştırmacılar, Polonyaca metinleri beş farklı güvenlik kategorisinde sınıflandırabilen iki kompakt model geliştirdi. 6.885 Polonyaca metin içeren topluluk etiketli veri seti kullanılarak eğitilen modeller, nefret söylemi, küfür, cinsel içerik, suç ve kendine zarar verme kategorilerinde yüksek başarı gösterdi. 0.5 milyar parametreli büyük model en yüksek ayırt etme kabiliyeti sergilerken, 0.1 milyar parametreli küçük model olağanüstü verimlilik sunuyor. Bu gelişme, Polonyaca konuşulan bölgelerde dil modellerinin güvenli kullanımı için önemli bir adım.
arXiv (CS + AI) · 23 gün önce
0
2024 ABD seçimlerinde sosyal medya toksisitesi haritalandırıldı
Araştırmacılar, 2024 ABD başkanlık seçimleri çevresinde X (Twitter) üzerindeki siyasi tartışmaları analiz ederek, hangi konularda ve ideolojilerde daha fazla zararlı içerik üretildiğini ortaya çıkardı. Çalışma, yapay zeka destekli büyük ölçekli analiz yöntemleriyle beş haftalık dönemde milyonlarca gönderiyi inceledi. Bulgular, kimlik odaklı konuların en yüksek toksisite seviyelerine sahip olduğunu gösterirken, duygusal ton ve ahlaki çerçevelemenin zararlı içerik üretimindeki rolünü de aydınlattı. Bu araştırma, dijital demokraside çevrimiçi söylemin nasıl şekillendiğini anlamak için önemli veriler sunuyor.
arXiv (Dilbilim & NLP) · 23 gün önce
0