Büyük görüntü-dil yapay zeka modelleri, fotoğraflardaki kişileri tanıyarak onlar hakkında hassas kişisel bilgileri açığa çıkarabilme kabiliyetine sahip. Bu durum, mahremiyet açısından ciddi kaygılar yaratıyor ve yapay zeka güvenliği alanında önemli bir problem haline gelmiş durumda.
Makine unutma tekniği, modellerin belirli bilgileri hafızalarından silmesini amaçlıyor. Ancak mevcut yöntemler, modelin unuttuğu içeriğin yerine ne koyması gerektiği konusunda net bir yol haritası sunmuyor. Bu eksiklik, 'Unutma Sonrası Etkiler' olarak adlandırılan bir probleme yol açıyor: modeller anlamsız, yanlış veya aşırı derecede reddedici yanıtlar veriyor.
Araştırmacılar, özellikle üretken yapay zeka modelleri için, sadece bilgiyi bastırmak yerine unutma sonrası yanıtların kalitesi ve bilgilendirici değerinin de önemli olduğunu vurguluyor. Bu soruna çözüm getirmek amacıyla, yeni bir unutma görevi tanımlanmış: modellerin mahremiyeti korurken aynı zamanda bilgilendirici ve görsel olarak temelli yanıtlar vermesi.
PUBG adlı yeni yöntem, unutma sonrası davranışı istenilen çıktı dağılımına doğru açık bir şekilde yönlendiriyor. Deneysel sonuçlar, bu yaklaşımın mevcut yöntemlere kıyasla daha başarılı olduğunu gösteriyor. Bu çalışma, yapay zeka modellerinin hem güvenli hem de kullanışlı olması konusunda önemli bir ilerleme sağlıyor.