Sosyal medyada marjinal topluluklar, tarihsel olarak kendilerine yönelik kullanılan aşağılayıcı kelimeleri yeniden sahiplenerek kimlik oluşturma ve dayanışma kurma aracı olarak kullanıyor. Ancak günümüzün yapay zeka tabanlı içerik moderasyon sistemleri, bu karmaşık sosyal dinamiği anlayamıyor.
Araştırmacılar, LGBTQIA+, siyahi ve kadın toplulukları üzerine yaptıkları çalışmada, bu grupların belirli kelimeleri nasıl yeniden sahiplendiğini ve hangi bağlamlarda kabul edilebilir bulduklarını inceledi. Sosyal medya kullanıcılarından oluşan bir korpus analiz ederek, aynı kelimenin farklı bağlamlarda nasıl algılandığını ortaya koydular.
Bulgular, toplulukların bu tür dil kullanımına karşı oldukça heterojen tutumlar sergilediğini gösteriyor. Aynı topluluk içindeki bireyler bile, belirli bir kelimenin ne zaman nefret söylemi sayılacağı konusunda farklı görüşlere sahip olabiliyor.
Bu durum, otomatik moderasyon araçlarının karşılaştığı temel sorunu açığa çıkarıyor: Bu sistemler, dilin sosyal bağlamını ve toplulukların kendi dillerini nasıl yeniden şekillendirdiğini kavrayamıyor. Sonuç olarak, nefret söylemini engellerken aynı zamanda marjinal toplulukların ifade özgürlüğünü de kısıtlıyor.
Araştırma, gelecekteki moderasyon sistemlerinin toplumsal bağlamı daha iyi anlaması gerektiğini vurguluyor ve yapay zekanın insan toplumlarının karmaşık dil dinamiklerini anlama konusundaki mevcut sınırlarını ortaya koyuyor.