"dijital içerik" için 437 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
437 haber
Çok Dilli AI Güvenliği İçin Yerel Kanunlara Dayalı Yeni Koruma Sistemi
Araştırmacılar, büyük dil modellerinin farklı ülkelerde güvenli kullanımını sağlamak için ML-Bench adlı yeni bir değerlendirme sistemi geliştirdi. 14 farklı dili kapsayan bu sistem, her bölgenin kendi yasal düzenlemelerini ve kültürel özelliklerini dikkate alarak AI güvenlik standartları oluşturuyor. Mevcut sistemlerin aksine, genel risk kategorileri yerine ülkeye özgü kanun metinlerinden doğrudan yararlanıyor. Bu yaklaşım, AI modellerinin küresel kullanımında karşılaşılan yasal ve kültürel uyumsuzluk sorunlarına çözüm getiriyor. Sistem üzerinden geliştirilen ML-Guard koruma modeli, bölgesel düzenlemelere uygun şekilde zararlı içerikleri tespit edip engelleyebiliyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Artık Mesajlardaki Karışık Duyguları Ayırt Edebiliyor
Stanford araştırmacıları, sosyal medya mesajlarındaki karmaşık duygusal yapıları analiz edebilen yeni bir yapay zeka sistemi geliştirdi. Geleneksel duygu analizi araçları bir metnin genel tonunu 'olumlu', 'olumsuz' veya 'nötr' olarak sınıflandırırken, yeni sistem aynı mesajda hem olumlu hem olumsuz duyguların bir arada bulunabileceğini tespit edebiliyor. Directed Social Regard (DSR) adı verilen bu yaklaşım, özellikle siyasi söylemler ve sosyal medya manipülasyonlarında sıkça görülen karmaşık mesajları analiz etmek için tasarlandı. Sistem, bir mesajdaki farklı hedeflere yönelik savunuculuk, yardımseverlik, karşıtlık ve zararlı içerikleri aynı anda tespit edebiliyor. Bu gelişme, çevrimiçi platformlardaki nefret söylemi, dezenformasyon ve manipülasyon kampanyalarının daha etkili şekilde tespit edilmesine olanak sağlayabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Arama Sonuçları Nasıl Manipüle Ediliyor?
Araştırmacılar, büyük dil modellerinin (LLM) arama sonuçlarını özetlerken nasıl önyargılı davrandığını ve bu önyargıların nasıl manipüle edilebileceğini inceledi. Çalışma, web arama sistemlerinde kullanılan yapay zeka overview sistemlerinin hem kaynak seçiminde hem de cevap üretiminde önyargılardan etkilendiğini ortaya koyuyor. Araştırmacılar, reinforcement learning ile eğitilmiş küçük bir dil modeli kullanarak arama snippet'lerini yeniden yazarak, LLM'lerin bu içerikleri tercih etme olasılığını artırmayı başardı. Bu bulgular, yapay zeka destekli arama sistemlerinin güvenilirliği ve manipülasyona karşı direnci konusunda önemli sorular gündeme getiriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Sahte Ses Tespiti İçin Yeni Yapay Zeka Modeli: Alethia
Araştırmacılar, deepfake ses kayıtlarını tespit etmek için özel olarak tasarlanmış yeni bir yapay zeka modeli olan Alethia'yı geliştirdi. Mevcut yöntemlerin sınırlarına ulaştığı bir dönemde, bu model farklı bir yaklaşım benimsiyor. Alethia, maskelenmiş gömülü tahmin ve spektogram yeniden yapılandırma tekniklerini birleştiren yenilikçi bir eğitim reçetesi kullanıyor. 56 farklı veri seti üzerinde yapılan testlerde, model mevcut teknolojileri geride bırakarak üstün performans sergiledi. Özellikle gerçek dünya koşullarındaki bozulmalara karşı dayanıklılığı ve daha önce görmediği alanlardaki başarısı dikkat çekici. Model, şarkı deepfake'leri gibi yeni türdeki sahte ses içeriklerini bile başarıyla tespit edebiliyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Metinlerini Güvenilir Şekilde İmzalayan Yeni Yöntem Geliştirildi
Büyük dil modellerinin ürettiği metinlerin kaynağını tespit etmek giderek zorlaşırken, araştırmacılar BREW adlı yeni bir dijital imza yöntemi geliştirdi. Bu sistem, yapay zeka tarafından üretilen metinlere görünmez çoklu bit imzalar yerleştirerek, sahte pozitif sonuçları dramatik şekilde azaltıyor. Geleneksel yöntemlerin aksine, BREW iki aşamalı bir doğrulama mekanizması kullanıyor: önce bağımsız blok oylamasıyla mesajı tahmin ediyor, ardından pencere kaydırma tekniğiyle yerel düzenlemelere karşı sağlam doğrulama yapıyor. Test sonuçları, %10 eş anlamlı kelime değişikliği altında bile %96.5 doğru tespit oranı ve sadece %2 yanlış pozitif oranı gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
AI Sistemleri İçin Yeni Tablo Arama Teknolojisi: FollowTable Benchmark'ı
Yapay zeka sistemlerinin veri tablolarından daha etkili bilgi alabilmesi için yeni bir yaklaşım geliştirildi. Geleneksel tablo arama yöntemleri sadece konu benzerliğine odaklanırken, LLM tabanlı sistemler belirli talimatları takip ederek arama yapmak zorunda. Araştırmacılar bu ihtiyacı karşılamak için Instruction-Following Table Retrieval (IFTR) adlı yeni bir görev türü tanımladı. Bu sistem, hem konusal uygunluğu hem de detaylı talimat kısıtlarını aynı anda sağlayabiliyor. Çalışmada iki temel zorluk belirlendi: içerik kapsamına duyarlılık ve şema tabanlı gereksinimlerin farkında olma. Bu alandaki ilk büyük ölçekli değerlendirme sistemi olan FollowTable benchmark'ı, geliştiricilerin yeni algoritmaları test etmesi için kapsamlı bir platform sunuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka ve İnsan İşbirliğinde AI'nin Rolünü Takip Etmek Artık Mümkün
Yapay zeka teknolojisi geliştikçe, insan-makine simbiyozunda AI'nin oynadığı rolü belirlemek zorlaşıyor. Araştırmacılar, AI tarafından üretilen içeriğin artık sadece makinelerden değil, insan-AI etkileşiminden doğduğunu vurguluyor. Bu durum, AI'nin bir metinde nasıl rol oynadığını anlamayı kritik hale getiriyor. Yeni çalışma, doğal dil üretiminde yapay zekanın işlevsel rolünü izlemek için bir metodoloji öneriyor. Bu yaklaşım, AI destekli içerik üretiminin şeffaflığını artırabilir ve etik kullanım standartları geliştirilmesine katkı sağlayabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Kişilikleri ile Kullanıcı Davranışlarını Tahmin Eden Sistem Geliştirildi
Araştırmacılar, kullanıcı davranışlarını daha az soruyla ve daha doğru şekilde tahmin edebilen yenilikçi bir sistem geliştirdi. Geleneksel yöntemler çok sayıda soru sorarak kullanıcıları yorarken, yeni sistem büyük dil modellerinin oluşturduğu 'yapay zeka kişiliklerini' kullanarak az sayıda soruyla bile güvenilir tahminler yapabiliyor. Sistem, her kullanıcıyı belirli AI kişiliklerinin karışımı olarak modelleyerek, onların gelecekteki tepkilerini öngörebiliyor. Bu yaklaşım özellikle anket çalışmaları, eğitim değerlendirmeleri ve kişiselleştirilmiş içerik önerilerinde devrim yaratabilir. Yapılan testler, sistemin hem sentetik veriler hem de gerçek dünya değer ölçümlerinde başarılı sonuçlar verdiğini gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Beyin dalgalarından görselleri tanıyan yapay zeka sistemi geliştirildi
Araştırmacılar, EEG beyin sinyallerinden görsel içerikleri tanıyabilen yeni bir yapay zeka sistemi geliştirdi. SIMON adlı bu sistem, insan beyninin görsel algı mekanizmalarını taklit ederek, beyin dalgalarından hangi görselin izlendiğini tahmin edebiliyor. Geleneksel yöntemlerin aksine, insan dikkatinin doğal odaklanma noktalarını dikkate alan sistem, öne çıkan nesneleri vurgulayarak arka plan karmaşasını filtreleyor. Test sonuçlarında %69,7'ye varan başarı oranı elde eden sistem, beyin-bilgisayar arayüzleri ve nörolojik hastalıkların teşhisinde devrim yaratabilir.
arXiv (Biyoloji) · 11 gün önce
0
Yapay Zeka Nasıl Öğrenir? İçerik İçi Öğrenmenin Sırları Çözüldü
Araştırmacılar, büyük dil modellerinin örneklerden nasıl öğrendiğini gösteren içerik içi öğrenme (ICL) mekanizmasının iç işleyişini aydınlattı. Çalışma, bu sürecin iki temel bileşenini belirledi: görev tanıma ve görev öğrenme. Yeni geliştirilen TSLA çerçevesi sayesinde, yapay zekanın dikkat başlıklarının bu iki farklı işlevi nasıl yerine getirdiği ortaya çıkarıldı. Bulgular, AI sistemlerinin nasıl çalıştığını anlamamızda önemli bir adım teşkil ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Modellerinin 'Reddetme' Mekanizması Haritası Çıkarıldı
Araştırmacılar, büyük dil modellerinin zararlı içerikleri nasıl reddettiğini kontrol eden beyin devrelerini keşfetti. Çalışma, modellerin içindeki 'kapı' ve 'yükselteç' adı verilen dikkat başlıklarının, tehlikeli içerikleri tespit edip reddetme sinyali ürettiğini gösteriyor. 2 milyar ile 72 milyar parametreli 12 farklı modelde aynı mekanizma bulundu. En şaşırtıcı keşif, bu sistemin manipüle edilebilir olması: araştırmacılar sinyali ayarlayarak modelleri sert reddedici tavırdan zararlı içerik üreticisine dönüştürebildi. Bu bulgular, AI güvenliği ve model davranışlarının kontrolü açısından kritik önem taşıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0