Yapay zeka modellerinin belirli bilgileri 'unutması' konusunda yenilikçi bir yaklaşım geliştirildi. Büyük dil modelleri (LLM) günümüzde yaygın kullanılıyor ancak bazen zararlı, yanlış veya gizlilik açısından hassas bilgiler içerebiliyor.
Geleneksel unutma yöntemleri genellikle tek bir hedefe odaklanıyor: ya istenmeyen bilgiyi silmeye ya da modelin genel performansını korumaya. Ancak bu yaklaşım pratikte yetersiz kalıyor çünkü gerçek dünyada birden fazla zorlu hedefin aynı anda karşılanması gerekiyor.
Yeni geliştirilen çerçeve, dört temel hedefi harmoniyle birleştiriyor: zararlı bilgilerin silinmesi, modelin genel kullanışlılığının korunması, benzer kavramları gereksiz yere reddetmemesi ve düşmanca saldırılara karşı dayanıklılık. Bu çok hedefli yaklaşım, veri ve optimizasyon süreçlerinin ortak tasarımıyla gerçekleştiriliyor.
Sistem, farklı veri alanlarını birleşik bir temsil formatına dönüştürerek alan farklılıklarını azaltıyor. Böylece farklı unutma hedefleri arasındaki çatışmalar minimize ediliyor ve daha tutarlı sonuçlar elde ediliyor.
Bu gelişme, AI güvenliği açısından kritik öneme sahip. Özellikle büyük ölçekli dil modellerinin güvenli ve sorumlu kullanımı için önemli bir adım olarak değerlendiriliyor.