Mizah, toplumsal algılarımızın bir aynası görevi görür - neyi komik bulduğumuz genellikle kim olduğumuzu ve başkalarını nasıl yargıladığımızı yansıtır. Stanford Üniversitesi araştırmacıları, bu gerçekten hareketle büyük dil modellerinin mizaha yaklaşımında gizli önyargıları tespit eden öncü bir çalışma gerçekleştirdi.

Araştırmacılar, aynı şakayı farklı kimlik gruplarından kişiler söylediğinde modellerin tepkilerinin nasıl değiştiğini incelediler. Çalışmada şaka üretme reddi, konuşmacı niyeti çıkarımı ve toplumsal etki tahmini olmak üzere üç farklı görev analiz edildi. Hem kimlik-bağımsız mizah hem de kimlik-odaklı aşağılayıcı mizah türleri değerlendirildi.

En çarpıcı bulgular, ayrıcalıklı gruplardan gelen şakaların %67.5 oranında daha sık reddedildiğini ve %64.7 daha fazla kötü niyetli olarak değerlendirildiğini ortaya koydu. Bu asimetrik tepkiler, modellerin eğitim verilerinden edindiği toplumsal önyargıları nasıl içselleştirdiğini gösteriyor.

Araştırma, yapay zeka güvenliği açısından kritik sonuçlar sunuyor. Modellerin mizah yorumlamadaki tutarsızlıkları, gerçek dünya uygulamalarında adaletsiz sonuçlara yol açabilir. Bu bulgular, AI geliştirme sürecinde önyargı tespiti ve önleme stratejilerinin önemini bir kez daha vurguluyor.