Yapay zeka güvenliği alanında yeni bir araştırma, mevcut AI modellerinin toplumsal çeşitliliği nasıl tehdit ettiğini ve bu soruna karşı nasıl önlem alınabileceğini inceliyor.
Araştırmacılar, üretici AI modellerinin eğitim verilerindeki önyargıları yalnızca tekrarlamakla kalmadığını, mode çöküşü adı verilen bir süreç aracılığıyla bu önyargıları daha da güçlendirdiğini ortaya koyuyor. Bu durum, zararlı bir çeşitlilik kaybına yol açarak toplumsal homojenleşmeye neden oluyor.
Çalışmada 'ksenö-reprodüksiyon' adı verilen yeni bir strateji öneriliyor. Bu yaklaşım, homojenleşme eğilimini tersine çevirerek AI modellerinin çeşitliliği korumasını sağlamayı hedefliyor.
Özellikle büyük dil modelleri için geliştirilen çözüm, 'yapı-farkında çeşitlilik takibi' olarak formalize ediliyor. Bu yöntem, modellerin çıktı üretirken mevcut yapısal özellikleri göz önünde bulundurarak çeşitliliği aktif olarak korumasını sağlıyor.
Araştırmacılar, homojenleşmenin AI güvenliğinde birincil bir endişe olması gerektiğini vurguluyor. Çalışma, bu kritik alanda yeni bir araştırma hattı açmayı ve çeşitliliği koruma konusunda işbirliğini teşvik etmeyi amaçlıyor.