Teknoloji & Yapay Zeka

Yapay Zeka Hareket Tanıma Sistemlerinde Ten Rengi Önyargısı Tespit Edildi

Araştırmacılar, insan hareketlerini tanıyan yapay zeka sistemlerinin ten rengine dayalı önyargılar içerdiğini ortaya çıkardı. Kritik alanlarda kullanılan bu sistemlerin adil olmayan sonuçlar üretebildiği belirlendi. Çalışmada, aynı hareket yapan farklı ten rengindeki karakterlerin yer aldığı sentetik videolar kullanılarak, sadece görsel kimlik özelliklerinin model tahminlerini nasıl etkilediği test edildi. Sonuçlar, bazı popüler hareket tanıma modellerinin ten rengine göre istatistiksel olarak anlamlı önyargılar sergilediğini gösterdi. Bu keşif, yapay zekanın insan görünümüne dayalı ayrımcılık yapabileceği endişelerini destekliyor ve güvenlik, sağlık gibi hassas alanlarda kullanılan bu teknolojilerin yeniden değerlendirilmesi gerektiğine işaret ediyor.

İnsan hareketlerini tanıyan yapay zeka sistemlerinde ciddi bir önyargı sorunu tespit edildi. Güvenlik kameraları, sağlık teknolojileri ve otonomus araçlar gibi kritik alanlarda kullanılan bu sistemlerin, aynı hareketi yapan farklı ten rengindeki insanlara farklı tepkiler verebildiği ortaya çıktı.

Araştırma ekibi, bu önyargıları tespit etmek için yenilikçi bir yöntem geliştirdi. BEDLAM simülasyon platformu kullanarak, görsel kimlik özellikleri üzerinde tam kontrol sağlayan sentetik video veriler ürettiler. Bu yaklaşım, hareket aynı kalırken sadece ten rengi gibi tek bir özelliğin model tahminlerini nasıl etkilediğini izole ederek test etme imkanı sundu.

Kontrollü deneyler sonucunda, popüler hareket tanıma modellerinin ten rengine dayalı istatistiksel olarak anlamlı önyargılar sergilediği belirlendi. Modeller, aynı hareketi yapan farklı ten rengindeki karakterler için sistematik olarak farklı sonuçlar üretti. Bu durum, yapay zeka sistemlerinin istenmeyen görsel çağrışımları kodlayabildiğini ve gruplar arasında sistematik hatalar yapabildiğini gösteriyor.

Çalışma, yapay zeka teknolojilerinin adalet ve eşitlik açısından denetlenmesinin önemini vurguluyor. Özellikle yüksek riskli uygulamalarda kullanılan bu sistemlerin, tüm insan gruplarına karşı adil davranmasını sağlamak için kapsamlı testlere tabi tutulması gerektiği belirtiliyor.

Özgün Kaynak
arXiv (CS + AI)
Identifying Ethical Biases in Action Recognition Models
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.