"siyasi görüş" için 199 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
199 haber
Yapay Zeka Etik Anlaşmazlıkları Nasıl Çözecek? Reddit Verileriyle Test Edildi
Stanford araştırmacıları, çelişkili etik görüşleri mantıklı bir şekilde birleştiren yeni bir yapay zeka sistemi geliştirdi. Geleneksel çoğunluk oylaması yöntemlerinin aksine, bu sistem farklı görüşleri gürültü olarak görmek yerine mantık tabanlı bir yaklaşım kullanıyor. Reddit'in r/AmItheAsshole forumundaki milyonlarca tartışmayı analiz eden sistem, popüler görüşlerden %62 oranında farklı sonuçlar üretiyor. Araştırmacılar, sistemin doğal dil açıklamalarını mantıksal kurallara dönüştürdükten sonra, bu kuralları matematiksel optimizasyon problemi olarak çözüyor. Bağımsız değerlendirmecilerle %86 uyum oranına ulaşan sistem, özellikle etik ikilemler ve toplumsal anlaşmazlıklar konusunda adil karar verme mekanizmaları geliştirilmesinde önemli bir adım sayılıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Makine Çevirisi Anlam Bütünlüğünü Ne Kadar Koruyor? Büyük Araştırma Yanıtladı
Araştırmacılar, makine çevirilerinin metinlerin anlamsal yapısını ne ölçüde koruduğunu araştırdı. 28 farklı dildeki 2800'den fazla siyasi parti manifestosunu İngilizceye çevirerek analiz eden çalışma, çeviri sırasında anlam kayıplarını ölçmek için yeni bir yöntem geliştirdi. Araştırma, bazı dillerde çevirinin anlamsal yapıyı başarıyla koruduğunu, bazılarında ise bozduğunu ortaya koydu. Bu bulgular, yapay zeka ve doğal dil işleme alanında makine çevirilerine dayalı araştırmaların güvenilirliği açısından kritik önem taşıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Artık Mesajlardaki Karışık Duyguları Ayırt Edebiliyor
Stanford araştırmacıları, sosyal medya mesajlarındaki karmaşık duygusal yapıları analiz edebilen yeni bir yapay zeka sistemi geliştirdi. Geleneksel duygu analizi araçları bir metnin genel tonunu 'olumlu', 'olumsuz' veya 'nötr' olarak sınıflandırırken, yeni sistem aynı mesajda hem olumlu hem olumsuz duyguların bir arada bulunabileceğini tespit edebiliyor. Directed Social Regard (DSR) adı verilen bu yaklaşım, özellikle siyasi söylemler ve sosyal medya manipülasyonlarında sıkça görülen karmaşık mesajları analiz etmek için tasarlandı. Sistem, bir mesajdaki farklı hedeflere yönelik savunuculuk, yardımseverlik, karşıtlık ve zararlı içerikleri aynı anda tespit edebiliyor. Bu gelişme, çevrimiçi platformlardaki nefret söylemi, dezenformasyon ve manipülasyon kampanyalarının daha etkili şekilde tespit edilmesine olanak sağlayabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Güvenlik Testleri Neden Yetersiz Kalıyor?
Yeni bir araştırma, mevcut yapay zeka güvenlik değerlendirmelerinin kritik bir eksikliği olduğunu ortaya koyuyor. Çin menşeli dil modellerinde siyasi sansür mekanizmalarını inceleyen bilim insanları, zararlı içerik tespitinin kolay olduğunu, ancak asıl sorunun bu bilgilerin davranışsal politikalara nasıl yönlendirildiğinde saklı olduğunu keşfetti. Beş farklı laboratuvardan dokuz açık kaynak model üzerinde yapılan deneyler, prob doğruluğunun tek başına yanıltıcı olabileceğini gösterdi. Araştırmacılar, siyasi hassasiyet yönünü kaldırdıklarında çoğu modelde sansürün ortadan kalktığını ve doğru bilgi üretiminin geri geldiğini gözlemledi. Ancak bir modelde bilgi mimarisi sansür mekanizmasıyla o kadar iç içe geçmişti ki, müdahale sonrası model gerçek dışı bilgiler üretmeye başladı. Bu bulgular, AI güvenlik testlerinin yeniden düşünülmesi gerektiğini işaret ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Kimlik Politikalarına Odaklanma Ruh Sağlığını Olumsuz Etkiliyor
Sociological Forum dergisinde yayımlanan yeni bir araştırma, kimlik politikalarıyla yoğun ilgilenmenin ruh sağlığı üzerinde olumsuz etkiler yaratabileceğini ortaya koyuyor. Çalışma, bu durumun politik olarak progresif görüşlere sahip bireylerde görülen yüksek depresyon ve anksiyete oranlarını açıklayabileceğini öne sürüyor. Araştırma bulgularına göre, kimlik temelli politik yaklaşımlara odaklanma, bireylerin genel refah seviyelerinde düşüşe neden olabiliyor. Bu keşif, politik görüşler ile mental sağlık arasındaki karmaşık ilişkiyi anlamak açısından önemli bir adım teşkil ediyor ve sosyal psikoloji alanında yeni tartışmalara kapı açıyor.
PsyPost · 11 gün önce
0
Kişilik Nasıl Oluşur: 'Ben'den Önce 'Biz' Gelir
Fransız antropolog Lucien Lévy-Bruhl'ün teorilerine dayanan yeni bir yaklaşım, kişiliğin oluşumunu farklı bir perspektiften ele alıyor. Bu görüşe göre, bireysel kimlik izole bir süreçte değil, toplumsal etkileşimler içinde şekillenir. Kişi, kendi başına var olan bir varlık değil, yaşam boyu süren sosyal ilişkiler ağının ürünüdür. Bu yaklaşım, Batı düşüncesindeki bireycilik anlayışına meydan okuyarak, kimlik oluşumunda toplumsal katılımın temel rolünü vurguluyor. Araştırma, modern psikoloji ve antropolojinin insan doğasını anlamasında önemli çıkarımlar sunuyor.
Aeon — Felsefe & Fikirler · 13 gün önce
0
Yapay Zeka Duyguları Etiketliyor Ama Belirsizliği Kaçırıyor
Yeni bir araştırma, büyük dil modellerinin (LLM) insan duygularını anlamada önemli bir eksikliği olduğunu ortaya koyuyor. İnsanlar metinlerdeki duyguları değerlendirirken sıklıkla farklı görüşlere sahip oluyor ve bu anlaşmazlık aslında duyguların karmaşıklığını yansıtıyor. Ancak yapay zeka sistemleri bu belirsizliği yakalamakta zorlanıyor. Stanford ve diğer üniversitelerden araştırmacılar, 640 bin LLM yanıtını analiz ederek, bu sistemlerin açık duygusal ifadeleri başarıyla tespit ettiğini ama pragmatik olarak karmaşık duyguları anlamakta yetersiz kaldığını buldu. Bu durum, yapay zekanın insan duygularını anlama konusundaki sınırlarını gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Endonezya'da AI kullanımına öğrenci tepkilerini ölçen yeni analiz sistemi
Endonezya'daki üniversite öğrencilerinin yapay zekâ teknolojilerine bakış açısını analiz eden yenilikçi bir çalışma, makine öğrenmesi ve transformer modelleri kullanarak duygu analizi gerçekleştirdi. 2.295 öğrenci görüşünün incelendiği araştırmada, geleneksel makine öğrenmesi yöntemleri ile modern derin öğrenme yaklaşımları karşılaştırıldı. Çalışma sonuçları, transformer tabanlı DistilBERT modelinin %84,78 doğrulukla en iyi performansı gösterdiğini ortaya koydu. Bu tür analizler, eğitim kurumlarının AI entegrasyonu süreçlerinde öğrenci görüşlerini daha iyi anlamalarına yardımcı oluyor ve teknoloji kabul süreçlerinin optimize edilmesine katkı sağlıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Yapay Zeka Modelleri İnsan Kişiliklerini Taklit Ederek Toplumsal Konularda Nasıl Tartışıyor?
Araştırmacılar, büyük dil modellerinin (LLM) farklı insan kişiliklerini ve demografik özelliklerini taklit ederek tartışmalı konularda nasıl görüş bildirdiğini inceledi. 190.000 kayıtlık 'Bilişsel Dijital Gölgeler' veri seti oluşturularak, 19 farklı yapay zeka modelinin aşı, dezenformasyon, cinsiyet eşitsizliği ve STEM alanındaki önyargılar gibi konulardaki yaklaşımları analiz edildi. Çalışma, yapay zekanın toplumsal söylemi nasıl şekillendirebildiğini ve farklı kişilik özelliklerine göre nasıl farklı tepkiler verebildiğini ortaya koyuyor. Bu bulgular, yapay zeka sistemlerinin toplum üzerindeki etkisini anlamak açısından kritik önem taşıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Yapay Zeka Ajanlarında Kişilik Rollerinin Şehir Algısına Etkisi Araştırıldı
Büyük dil modelleri (LLM'ler) şehir analizlerinde insan algısının yerine kullanılmaya başlandı. Araştırmacılar, farklı kişilik rolleri verilen yapay zeka ajanlarının şehir manzaralarını değerlendirirken gerçekten farklı davranışlar sergileyip sergilemediğini inceledi. Cinsiyet, ekonomik durum, siyasi görüş ve kişilik özellikleri gibi faktörlerin yer aldığı roller oluşturuldu. Sonuçlar, aynı role sahip ajanların tutarlı davrandığını ancak farklı roller arasındaki değişikliklerin sınırlı olduğunu gösterdi. Bu bulgular, yapay zeka ajanlarının insan çeşitliliğini temsil etme konusundaki mevcut sınırlarını ortaya koyuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Yapay Zeka Siyasi Analiz Sistemlerinde Rol Kayması Sorunu Keşfedildi
Demokratik söylem analizi için kullanılan çok-ajanlı yapay zeka sistemlerinde kritik bir sorun ortaya çıktı. Araştırmacılar, farklı rollere atanan AI modellerinin siyasi ifadeleri değerlendirirken kendilerine verilen rolleri koruyamadığını keşfetti. TRUST pipeline sistemi üzerinde yapılan çalışmada, 60 siyasi ifade (30 İngilizce, 30 Almanca) analiz edildi. Sonuçlar, AI modellerinin özellikle gerçek kontrol sonuçları karşısında kendilerine atanan savunucu rollerini sürdüremediğini gösterdi. Bu 'Epistemik Zemin Etkisi' olarak adlandırılan fenomen, demokratik tartışma analizi sistemlerinin güvenilirliğini sorgulatıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0