“AI önyargı” için sonuçlar
2 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Yapay Zeka Güvenliğinde Yeni Strateji: Çeşitlilik Kaybına Karşı Koruma
Stanford araştırmacıları, yapay zeka modellerinin eğitim verilerindeki önyargıları tekrarlayarak toplumsal çeşitliliği tehdit ettiğini ortaya koydu. 'Homojenleşme' adını verdikleri bu soruna karşı 'ksenö-reprodüksiyon' stratejisini geliştirdiler. Büyük dil modelleri için yapı-farkında çeşitlilik takibi yaklaşımı öneren çalışma, AI güvenliğinde çeşitliliğin korunmasını birincil öncelik haline getirmeyi hedefliyor. Araştırma, mode çöküşü nedeniyle zararlı çeşitlilik kaybının nasıl önlenebileceğine dair temel bir çerçeve sunuyor.
FilBBQ: Filipinli Araştırmacılar AI Önyargılarını Ölçen Yeni Test Geliştirdi
Filipinli bilim insanları, yapay zeka modellerinin toplumsal önyargılarını değerlendirmek için FilBBQ adlı kapsamlı bir test sistemi geliştirdi. Mevcut önyargı testlerinin çoğunlukla İngilizce ve Batı kültürüne odaklanması nedeniyle, araştırmacılar Filipin kültürüne özgü cinsiyet ve homofobik önyargıları tespit edebilen 10.000'den fazla soru içeren bir benchmark oluşturdular. Dört aşamalı geliştirme sürecinde şablon kategorileştirme, kültürel farkındalıklı çeviri, yeni şablon oluşturma ve soru üretimi aşamalarından geçen sistem, AI modellerinin farklı kültürel bağlamlardaki önyargı eğilimlerini daha doğru şekilde ölçebiliyor.