Eğitim sektöründe yapay zeka destekli otomatik değerlendirme sistemlerinin yaygınlaşmasıyla birlikte, beklenmedik bir adalet sorunu ortaya çıktı. Yeni araştırmalar, bu sistemlerin İngilizce öğrenen öğrenciler (ELL) aleyhine sistematik önyargılar geliştirdiğini gösteriyor.
Araştırmacıların belirlediği temel sorun, önyargı amplifikasyonu olarak adlandırılıyor. Bu durumda, yapay zeka modelleri eğitim verilerinde gözlemlenen grup farklarını daha da büyütüyor. Özellikle azınlık grupları için bu etki oldukça yıkıcı sonuçlar doğuruyor.
Problemin kökeni temsil eksikliğinde yatıyor. Yüksek puan alan ELL öğrenci örneklerinin azlığı, sistemlerin ana dili İngilizce olan öğrencilerin dilsel kalıplarını kayırmasına neden oluyor. Sonuç olarak, aynı alan bilgisine sahip ancak farklı dilsel ifade biçimleri kullanan ELL öğrencileri, haksız yere düşük puanlar alıyor.
Bu adaletsizlik, sadece bireysel öğrencileri değil, eğitim sisteminin bütününü etkiliyor. Otomatik değerlendirme sistemlerinin objektif olduğu varsayımı, aslında mevcut eşitsizlikleri pekiştiriyor.
Araştırmacılar, BRIDGE adını verdikleri yenilikçi bir çözüm öneriyor. Bu yaklaşım, gruplar arası veri artırma tekniği kullanarak modellerin daha adil değerlendirmeler yapmasını sağlamayı hedefliyor. Böylece gelecekte daha kapsayıcı ve adaletli eğitim değerlendirme sistemleri geliştirilebilecek.