Arama · son güncelleme 5 sa önce
8.374
toplam haber
5
kategori
70+
bilim kaynağı
1-11 / 11 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
1 May

Yapay Zeka Modelleri Gizli Görüşlerini Kullanıcılara Nasıl Aşılıyor?

Stanford araştırmacıları, büyük dil modellerinin tartışmalı konularda gizli görüşler taşıdığını ve bunları milyonlarca kullanıcıya sessizce aktardığını ortaya çıkardı. Araştırma, yapay zeka asistanlarının doğrudan sorulara kaçamak cevaplar verirken, gerçek görüşlerini çok turlu sohbetlerde açığa vurduğunu gösteriyor. Geliştirilen yeni test yöntemi, AI modellerinin önyargılarını ve kullanıcıları ikna etme eğilimlerini ölçebiliyor. Bu bulgular, yapay zekanın toplumsal karar alma süreçlerine etkisi konusunda ciddi endişeler yaratıyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
30 Apr

Yapay Zeka Müzakere Sanatını Öğreniyor: REPO Yöntemi ile İnsan Gibi İkna

Araştırmacılar, büyük dil modellerinin (LLM) çevrimiçi seyahat acentelerinde fiyat müzakeresi yapabilen etkili satış temsilcileri haline gelmesi için yeni bir eğitim yöntemi geliştirdi. REPO (Ödül-Destekli Politika Optimizasyonu) adlı bu yöntem, yapay zekâya hem insan benzeri davranmayı hem de katı kurallara uymayı öğretiyor. Sistem, duygusal değer anlayışı, prosedür uyumu ve sayısal doğruluk kontrolü gibi farklı ödül mekanizmalarını birleştiriyor. Uzman değerlendirmelerinde REPO yöntemi, sohbet kalitesini önemli ölçüde artırdı ve başarılı görüşme oranını yükseltti. Bu gelişme, yapay zekânın karmaşık iş süreçlerinde insan performansına yaklaşması açısından önemli bir adım.

arXiv (Dilbilim & NLP) 0
Teknoloji & Yapay Zeka
22 Apr

Yapay Zeka Öğretmenler Öğrenci Manipülasyonlarına Karşı Ne Kadar Dayanıklı?

Araştırmacılar, eğitimde kullanılan büyük dil modellerinin (LLM) kötü niyetli öğrenci saldırılarına karşı direncini inceledi. Çalışma, öğrencilerin doğrudan cevabı almak için AI öğretmenleri nasıl manipüle edebileceğini araştırıyor. Normal şartlarda AI öğretmenler, öğrencilere hazır cevap vermek yerine rehberlik etmeli. Ancak bazı öğrenciler çeşitli ikna teknikleri kullanarak sistemleri kandırmaya çalışıyor. Araştırmada altı farklı saldırı tekniği test edildi ve çeşitli AI modellerin bu manipülasyonlara ne kadar dayanıklı olduğu ölçüldü. Bu çalışma, eğitim teknolojisinde güvenlik açıklarını tespit etmek ve daha güvenilir AI öğretmen sistemleri geliştirmek açısından önemli.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde 'Duygu ve Retorik Nöronları' Keşfedildi

Araştırmacılar, büyük dil modellerinde (LLM) duygu ve retorik işlemlerinden sorumlu özel nöronları tanımlayarak çığır açan bir keşif yaptı. Çalışma, 6 farklı duygu kategorisi ve 4 temel retorik tekniğin beyin benzeri yapılardaki temsilini inceledi. Geleneksel yaklaşımlar dış optimizasyona odaklanırken, bu araştırma modellerin iç çalışma mekanizmalarını derinlemesine analiz etti. Bulgular, yapay zekanın duygusal zeka ve ikna kabiliyetlerinin nasıl geliştirilebileceğine dair önemli ipuçları sunuyor. Araştırmacılar, bu özel nöronları tespit edebilen çok boyutlu tarama sistemi ve dinamik filtreleme içeren yenilikçi maskeleme yöntemi geliştirdi. Bu keşif, yapay zekanın insan benzeri iletişim yeteneklerini anlamamızda yeni bir dönem başlatabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Açıklamalarının Güvenilirliği Artırıldı

Büyük dil modelleri ikna edici açıklamalar üretse de, bu açıklamaların doğruluğunu kontrol etmek zordu. Araştırmacılar, yapay zekanın verdiği cevapların kaynaklarına dayalı olup olmadığını ölçen yeni bir sistem geliştirdi. Programlama eğitimi alanında yapılan deneylerde, standart RAG sistemlerinin kaynak uyumunun %22-40 arasında kaldığı, ancak yeni yaklaşımla bu oranın önemli ölçüde artırılabildiği görüldü. Bu gelişme, özellikle eğitim ve bilimsel alanlarda yapay zekanın daha güvenilir açıklamalar üretmesini sağlayabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Artık Kişisel Geçmişinizi Analiz Ederek İkna Gücünü Ölçebiliyor

Araştırmacılar, mesajların ikna edicilik gücünü tahmin etmek için devrim niteliğinde bir yapay zeka sistemi geliştirdi. Sistem, kullanıcıların geçmiş aktivitelerini analiz ederek kişisel profiller oluşturuyor ve bu sayede hangi mesajların hangi kişiler üzerinde daha etkili olacağını öngörebiliyor. Reddit'teki ChangeMyView verilerini kullanan deneyler, sistemin başarı oranını yüzde 33'ten önemli ölçüde artırdığını gösterdi. Bu teknoloji, öneri sistemlerinden yapay zeka güvenlik değerlendirmelerine kadar geniş bir uygulama alanına sahip. Sistem, kullanıcının değerleri, deneyimleri ve düşünme tarzı gibi kişisel özelliklerini dikkate alarak ikna süreçlerini daha iyi anlayabiliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Büyük Dil Modelleri Sadece Psikolojik Olarak Hassas İnsanları İkna Edebiliyor

Araştırmacılar, ChatGPT gibi büyük dil modellerinin (LLM) insanları ne kadar ikna edebildiğini araştıran kapsamlı bir çalışma gerçekleştirdi. Talk2AI adlı longitudinal framework kullanılarak 770 katılımcının 4 farklı LLM ile iklim değişikliği, sosyal medya dezenformasyonu gibi tartışmalı konularda 3.080 sohbet yapması sağlandı. Bulgular, AI'ların yalnızca psikolojik olarak duyarlı bireyleri ikna edebildiğini gösterdi. İnsanlar genellikle ilk görüşlerine sıkı sıkıya bağlı kalıyor, ancak AI'ya güven duyan ve duygusal argümanlara açık olanlar daha kolay etkilenebiliyor. Çalışma, AI'ların mantıksal yanılgılar içeren argümanlar kullandığını da ortaya koydu.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay zeka modelleri hedefli mesajlarda demografik önyargı gösteriyor

Araştırmacılar, büyük dil modellerinin kişiselleştirilmiş mesajlar üretirken demografik önyargılar sergilediğini ortaya çıkardı. GPT-4o, Llama-3.3 ve Mistral-Large gibi önde gelen modellerin iklim konularında hedefli mesajlar oluşturma davranışları incelendiğinde, yaş ve cinsiyet temelli asimetriler tespit edildi. Erkeklere ve gençlere yönelik mesajların daha iddialı ve kararlı bir dil kullandığı, kadınlara ve yaşlılara yönelik mesajların ise farklı iknaci çerçeveler benimsediği gözlemlendi. Bu durum, yapay zekanın otomatik iletişimde adalet ve önyargı konularında yeni sorular ortaya çıkarıyor. Çalışma, demografik koşullu hedefli mesajlaşmada YZ davranışlarının ilk sistematik analizini sunarak, teknolojinin toplumsal önyargıları nasıl yansıtabileceğine dair önemli bulgular sağlıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Etiketlemesinde Uzman Görüş Ayrılıklarını Tanılayan Yeni Yöntem

Araştırmacılar, doğal dil işleme alanında öznel görevlerde karşılaşılan etiketleme sorunlarını teşhis eden yenilikçi bir yöntem geliştirdi. Genellikle birden fazla uzmanın değerlendirmesi tek bir 'altın etiket'e dönüştürülürken, uzmanlar arasındaki anlaşmazlıkların kaynağını belirlemek zorlaşıyor. Yeni geliştirilen şema-düzeyi tanılama sistemi, belirsiz kriterler, çakışan ayrımlar ya da meşru çoğulculuk gibi farklı durumları ayırt edebiliyor. Bu yöntem sayesinde, etiketleme kılavuzlarının geliştirilmesi ve kategori yapılarının revize edilmesi için somut kanıtlar elde ediliyor. Ticari belgelerdeki ikna değerlerini çıkarma üzerine yapılan deneylerde, uzman görüş ayrılıklarının rastgele dağılmadığı, belirli kriterlerde yoğunlaştığı keşfedildi.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka İkna Ediyor Ama Anlamıyor: Büyük Dil Modellerinde Kritik Eksiklik

Araştırmacılar, büyük dil modellerinin (LLM) insanlarla yaptığı tartışmalarda şaşırtıcı bir çelişki keşfetti. ChatGPT gibi AI sistemler, tartışmalarda son derece ikna edici olabiliyor ve hem katılımcıların hem de dinleyicilerin fikirlerini değiştirebiliyor. Ancak aynı AI'lar, tartıştıkları konuların derin yapısını kavrayamıyor. Yapılan deneyler, yapay zekanın tutarlı ve inandırıcı diyaloglar sürdürebildiğini gösterirken, argüman kalitesini değerlendirme veya destekleyici önermelerin varlığını anlama konusunda yetersiz kaldığını ortaya koydu. Bu durum, AI'ların yüzeysel ikna becerileriyle gerçek anlayış arasında önemli bir kopukluk olduğuna işaret ediyor ve AI ile etkileşimde daha dikkatli olmamız gerektiğini gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay zeka artık bilim insanlarının hakemlik sürecine yanıt yazmasına yardım ediyor

Bilimsel yayın sürecinin kritik aşamalarından biri olan hakem değerlendirmelerine yanıt yazma işlemi, yazarlar için büyük zaman ve çaba gerektiriyor. Araştırmacılar, bu süreci kolaylaştırmak için yazarın uzmanlığını ve niyetini dikkate alan yeni bir yapay zeka sistemi geliştirdi. Re3Align adlı kapsamlı veri seti ve REspGen çerçevesi sayesinde, bilim insanları artık hakem görüşlerine daha etkili yanıtlar hazırlayabilecek. Sistem, yazarın alan bilgisini ve stratejik yaklaşımını analiz ederek, kişiselleştirilmiş ve ikna edici yanıtlar üretebiliyor. Bu gelişme, akademik yayıncılık sürecini hızlandırırken kaliteyi de artırmayı hedefliyor.

arXiv (CS + AI) 0