Yapay zeka ve büyük veri çağında kişisel bilgilerin korunması konusunda yeni bir bakış açısı geliştiren araştırmacılar, geleneksel veri güvenliği yaklaşımlarının yeniden değerlendirilmesi gerektiğini savunuyor.
ArXiv platformunda yayımlanan çalışma, zayıflığın statik bir özellik olmaktan ziyade veri işleme süreçleri tarafından aktif olarak yaratılan dinamik bir durum olduğunu ortaya koyuyor. Platform tabanlı dijital yaşamda sürekli üretilen muazzam veri miktarları karşısında, etik sorumluluk artık hangi verilerin toplanacağından çok, mevcut verilerle nasıl işlem yapılacağına odaklanıyor.
Araştırmacılar, 'Sosyal Fayda için Yapay Zeka' kapsamında gerçek bir vaka üzerinden argümanlarını destekliyor: YouTube'daki para kazanç amaçlı aile vloglarında çocuk varlığını tespit etmek için bilgisayarlı görü teknolojilerinin kullanılması talebi. Bu örnek, koruma amacıyla yapılan çalışmaların beklenmedik bir paradoks yarattığını gösteriyor.
Çalışma, veri biliminin etik bütünlüğünün yalnızca araştırma konusu olan kişilerin kimliğine değil, aynı zamanda teknik süreçlerin 'savunmasız' bireyleri nasıl veri öznelerine dönüştürdüğüne ve bu durumun onların zayıflığını nasıl artırabileceğine bağlı olduğunu vurguluyor.
Bu yeni yaklaşım, yapay zeka sistemlerinin tasarımında ve uygulanmasında daha kapsamlı etik değerlendirmeler yapılması gerektiğini işaret ediyor.