"AI denetimi" için 21 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
21 haber
Hollanda'da Kumar Reklamları Gençleri Yasadışı Şekilde Hedefliyor
Hollanda'da yapılan araştırma, kumar şirketlerinin yasal düzenlemelere rağmen 24 yaş altı gençleri hedef aldığını ortaya çıkardı. Meta'nın reklam kütüphanesi analiz edilerek gerçekleştirilen çalışmada, çevrimiçi kumar sitelerinin %7,3'ü, geleneksel kumarhanelerin ise %29,8'inin yasak olan genç hedefli reklamlar yayınladığı tespit edildi. Devlete ait Holland Casino bile bu kurallara uymadığı, ancak uyarı sonrasında hatayı kabul edip düzelttiği belirlendi. Bu bulgu, dijital reklam sistemlerinin denetimi ve genç korunması konularında önemli sorunları gözler önüne seriyor.
Phys.org — Sosyal Bilimler · 10 gün önce
0
GPS Olmadan Tünellerde Uçan Drone: Yapay Zeka ve LiDAR İş Birliği
Araştırmacılar, GPS sinyallerinin ulaşamadığı tüneller ve madenler gibi zorlu ortamlarda drone navigasyonu için yenilikçi bir yöntem geliştirdi. Sistem, LiDAR sensörü ile toplanan verileri derin öğrenme algoritmaları ve geometrik hesaplamalarla işleyerek drone'un güvenli bir şekilde hareket etmesini sağlıyor. Geleneksel konum belirleme yöntemlerinin işe yaramadığı, aydınlatmanın yetersiz olduğu ve duvar özelliklerinin az olduğu ortamlarda bile etkili navigasyon gerçekleştiriyor. Bu teknoloji, arama kurtarma operasyonları, maden keşfi ve altyapı denetimi gibi alanlarda drone kullanımını büyük ölçüde genişletebilir.
arXiv (Robotik) · 15 gün önce
0
Yapay Zeka Karşıt Argümanlarla İçerik Denetimini Güçlendiriyor
Sosyal medya platformlarında yanlış bilginin yayılması büyük endişe yaratırken, X'in Topluluk Notları gibi kitle kaynaklı doğruluk kontrolü sistemleri öne çıkıyor. Ancak bu sistemler partizan önyargı ve doğrulama gecikmeleri gibi sorunlarla karşılaşıyor. Yeni bir araştırma, yapay zekanın destekleyici, nötr veya karşıt argümanlar sunarak içerik denetimini nasıl iyileştirebileceğini inceliyor. Sonuçlar, özellikle karşıt görüşlerin sunulduğu geri bildirimlerin not kalitesini en çok artırdığını gösteriyor. Bu bulgular, farklı bakış açılarının ve insan-yapay zeka iş birliğinin kolektif zekanın geliştirilmesindeki önemini vurguluyor.
arXiv (CS + AI) · 24 gün önce
0
Elektronik oylamada gizlilik ve şeffaflığı bir arada sunan yeni protokol
Araştırmacılar, elektronik seçim sistemlerinde uzun süredir devam eden bir soruna çözüm getiren yenilikçi bir protokol geliştirdi. ACE adı verilen bu sistem, seçim sonuçlarının herkes tarafından doğrulanabilmesini sağlarken, aynı zamanda seçmenlerin gizliliğini de koruma altına alıyor. Geleneksel elektronik oylama sistemleri genellikle şeffaflık ve gizlilik arasında seçim yapmak zorunda kalırken, yeni protokol her iki özelliği de başarıyla harmanlıyor. Sistem, oy dağılımını gizli tutarak kamu denetimi imkanı sunan bir toplama mekanizması kullanıyor ve güvenilmeyen istemci varsayımları altında bile doğru oy kullanımını garanti eden bir denetim sistemi içeriyor. Bu gelişme, demokratik süreçlerde elektronik sistemlerin daha güvenli kullanımına önemli bir katkı sağlayabilir.
arXiv (CS + AI) · 24 gün önce
0
Tıbbi yapay zeka için yeni standart: VIDS ile veri kalitesi denetimi
Tıbbi görüntüleme alanında yapay zeka geliştirme süreçleri, kaliteli ve güvenilir veri setlerine bağımlıdır. Ancak mevcut standartlar, veri yapısı, açıklama kaynağı ve makine öğrenmesi uygunluğunu tek bir çerçevede doğrulayamıyor. Araştırmacılar, bu sorunu çözmek için VIDS (Doğrulanmış Görüntüleme Veri Seti Standardı) adlı yeni bir açık kaynak spesifikasyon geliştirdi. VIDS, tıbbi görüntü veri setlerinin kim tarafından, ne zaman, hangi araçlarla ve hangi kalite standartlarıyla açıklandığını sistematik olarak takip ediyor. Sistem, 21 farklı makine-uygulanabilir doğrulama kuralı içeriyor ve iki farklı uyumluluk profili sunuyor. Bu standart, tıbbi AI araştırmalarında veri kalitesini artırarak daha güvenilir algoritma geliştirme süreçlerini mümkün kılacak.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Kendini Denetlemeyi Öğreniyor: AntiPaSTO Yöntemi
Araştırmacılar, yapay zekanın kendi davranışlarını kontrol edebilmesi için AntiPaSTO adlı yeni bir yöntem geliştirdi. Bu teknik, AI modellerinin sadece iki zıt kelime çifti kullanarak kendilerini 'dürüst' davranmaya yönlendirmesini sağlıyor. Geleneksel yöntemlerin aksine, insan denetimi gerektirmiyor ve modelin kendi iç yapısından yararlanıyor. Gemma-3-1B modeli üzerindeki testlerde, mevcut tekniklere göre 6.9 kat daha başarılı sonuçlar elde edildi. Bu gelişme, AI güvenliği açısından önemli çünkü modeller karmaşıklaştıkça insanların söylediklerini doğrulaması zorlaşıyor.
arXiv (CS + AI) · 24 gün önce
0
Graf Teorisinde Ricci Akışı: Matematikçiler Eğrilik Denetimini Çözdü
Matematikçiler, graf teorisinde Ricci akışı adı verilen karmaşık bir problemi çözerek, belirli bir eğrilik değerini nasıl elde edebileceğimizi gösterdi. Bu çalışma, ağ yapılarının geometrik özelliklerini kontrol etmemizi sağlayan yeni bir yöntem sunuyor. Araştırmacılar, sonlu graflar üzerinde Lin-Lu-Yau Ricci eğriliği kullanarak, ağırlık fonksiyonlarının zaman içindeki evrimini tanımlayan diferansiyel denklemleri inceledi. Çalışmanın en önemli bulgusu, belirli koşullar altında sistemin istenen eğrilik değerine üstel hızla yakınsadığını kanıtlaması. Bu sonuç, ağ analizi ve graf geometrisi alanlarında yeni uygulamaların kapısını açabilir.
arXiv (Matematik) · 24 gün önce
0
Yapay zeka veri üreticilerinin gizlilik garantileri ilk kez sıkı denetime tabi tutuldu
Araştırmacılar, MST ve AIM gibi popüler yapay zeka veri üreticilerinin diferansiyel gizlilik garantilerini doğru bir şekilde test edebilen yeni bir denetim sistemi geliştirdi. Gaussian Diferansiyel Gizlilik temelli bu yöntem, teorik hesaplamalarla gerçek performans arasındaki farkı ölçerek gizlilik güvenliğini değerlendiriyor. Test sonuçları, bu AI sistemlerinin gizlilik vaatlerini büyük ölçüde yerine getirdiğini ancak küçük sapmaların olduğunu ortaya koydu. Çalışma, sentetik veri üreten yapay zeka sistemlerinin güvenilirliğini artırmak için kritik bir adım niteliğinde.
arXiv (CS + AI) · 24 gün önce
0
İşe Alımlarda Yapay Zeka Ayrımcılığını Gizli Verilerle Denetleme Yöntemi
AB Yapay Zeka Yasası gibi yeni düzenlemeler, işe alım süreçlerinde kullanılan yüksek riskli yapay zeka sistemlerinin adalet ve şeffaflık açısından piyasa sonrası denetimine zorunlu hale getiriyor. Ancak etkili adalet denetimi genellikle hassas kişisel verilere erişim gerektiriyor ve bu da veri koruma yasalarıyla çelişki yaratıyor. Araştırmacılar, çok taraflı hesaplama protokolleri kullanarak bu soruna yenilikçi bir çözüm geliştirdi. Bu teknoloji, hassas demografik bilgileri açığa çıkarmadan adalet metriklerinin güvenli hesaplanmasına olanak tanıyor. Çalışma, teknik, hukuki ve endüstriyel uzmanlığı birleştiren ortak tasarım yaklaşımı kullanarak gerçek dünya uygulamaları için pratik tasarım gereksinimlerini belirledi.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka ile Hava Sahası Yönetiminde Yeni Dönem: Otonom Koordinasyon Sistemi
Araştırmacılar, artan hava trafiğinin yarattığı darboğazı çözmek için yapay zeka destekli yeni bir hava sahası yönetim sistemi geliştirdi. Geleneksel hava trafik kontrolü, hava sahasını belirli bölgelere ayırarak çalışır ancak trafik arttıkça bu sistem yetersiz kalır. Yeni sistem, XGBoost sınıflandırıcısı kullanarak optimal 3D ızgara konfigürasyonunu %91,38 doğrulukla tahmin ediyor. Sistem ayrıca, uçakların kendi aralarında sektör girişlerini koordine etmesini sağlayan lidersiz Paxos konsensüs protokolü kullanıyor ve %96'nın üzerinde giriş başarı oranı elde ediyor. Bayesian optimizasyon ile desteklenen bu yaklaşım, insan denetimini koruyarak hava sahası operasyonlarını otomatikleştiriyor ve gelecekte özerk hava araçlarının güvenli entegrasyonu için kritik öneme sahip.
arXiv (CS + AI) · 24 gün önce
0
Yapay zeka ve insan işbirliğiyle dil modellerini eğiten yeni yaklaşım geliştirildi
Araştırmacılar, büyük dil modellerinin eğitiminde insan ve yapay zeka işbirliğini birleştiren CoAct adlı yeni bir yaklaşım geliştirdi. Mevcut yöntemler ya tamamen yapay zeka etiketlemesine dayanan ama güvenilirlik sorunu yaşayan kendini ödüllendirme, ya da kaliteli ama pahalı insan denetimi gerektiren aktif öğrenme kullanıyor. CoAct ise stratejik insan-AI işbirliği ile bu iki yaklaşımı birleştirerek her ikisinin avantajlarından yararlanıyor. Sistem, güvenilir kendi etiketlediği verileri ve insan doğrulaması gereken örnekleri belirlemek için kendi tutarlılığını kullanıyor. Ayrıca insan geri bildirimleri, modelin kendi çözebileceği kapasitedeki yeni talimatlar üretmesine rehberlik ediyor. Üç farklı akıl yürütme testinde değerlendirilen CoAct, ortalama %13 iyileşme sağladı. Bu yaklaşım, yüksek kaliteli insan etiketli verinin maliyetli ve kıt olduğu sorununa çözüm getiriyor.
arXiv (CS + AI) · 24 gün önce
0