Yapay zeka sistemlerinin hassas veriler üzerinde eğitilmesi sırasında gizliliği korumak için kullanılan diferansiyel mahremiyet (differential privacy) yöntemlerinin ciddi yan etkileri olduğu yeni bir araştırmayla ortaya çıktı.
Araştırmacılar, gizlilik için verilere eklenen matematiksel gürültünün, AI modellerinin özellik öğrenme sürecini olumsuz etkilediğini keşfetti. Bu durumun iki temel soruna yol açtığı belirlendi: Birincisi, farklı demografik gruplardan gelen verilerin eşit şekilde öğrenilememesi nedeniyle algoritmik adaletsizlik ortaya çıkıyor. İkincisi, modeller siber saldırılara karşı daha savunmasız hale geliyor.
Çalışmada geliştirilen 'özellik-gürültü oranı' adlı yeni bir ölçüt, bu sorunların temel nedenini açıklıyor. Araştırmacılar, gizlilik gürültüsünün özellikle semantik açıdan daha az belirgin özellikleri öğrenmeyi zorlaştırdığını ve bu durumun belirli grupları kayırdığını gösterdi.
Bu bulgular, sağlık kayıtları, finansal veriler ve kişisel bilgiler gibi hassas alanlarda çalışan AI sistemleri için kritik önem taşıyor. Gizlilik ile adalet ve güvenlik arasında yeni bir denge kurulması gerektiğini ortaya koyan araştırma, gelecekteki AI geliştirme süreçlerinde bu faktörlerin birlikte değerlendirilmesi gerektiğine işaret ediyor.