İnsan hareketlerini tanıyan yapay zeka sistemlerinde ciddi bir önyargı sorunu tespit edildi. Güvenlik kameraları, sağlık teknolojileri ve otonomus araçlar gibi kritik alanlarda kullanılan bu sistemlerin, aynı hareketi yapan farklı ten rengindeki insanlara farklı tepkiler verebildiği ortaya çıktı.
Araştırma ekibi, bu önyargıları tespit etmek için yenilikçi bir yöntem geliştirdi. BEDLAM simülasyon platformu kullanarak, görsel kimlik özellikleri üzerinde tam kontrol sağlayan sentetik video veriler ürettiler. Bu yaklaşım, hareket aynı kalırken sadece ten rengi gibi tek bir özelliğin model tahminlerini nasıl etkilediğini izole ederek test etme imkanı sundu.
Kontrollü deneyler sonucunda, popüler hareket tanıma modellerinin ten rengine dayalı istatistiksel olarak anlamlı önyargılar sergilediği belirlendi. Modeller, aynı hareketi yapan farklı ten rengindeki karakterler için sistematik olarak farklı sonuçlar üretti. Bu durum, yapay zeka sistemlerinin istenmeyen görsel çağrışımları kodlayabildiğini ve gruplar arasında sistematik hatalar yapabildiğini gösteriyor.
Çalışma, yapay zeka teknolojilerinin adalet ve eşitlik açısından denetlenmesinin önemini vurguluyor. Özellikle yüksek riskli uygulamalarda kullanılan bu sistemlerin, tüm insan gruplarına karşı adil davranmasını sağlamak için kapsamlı testlere tabi tutulması gerektiği belirtiliyor.