Yapay zeka alanında önemli bir keşif yapan araştırmacılar, büyük mantık yürütme modellerinin (LRM) çok dilli ortamlardaki performansını inceleyerek şaşırtıcı sonuçlara ulaştı. Matematik problemlerini çözerken bu modellerin 'gizli mantık yürütme' adı verilen bir yeteneğe sahip olduğu ortaya çıktı.
Gizli mantık yürütme, modellerin adım adım yazılı açıklamalarını tamamlamadan önce doğru cevaba ulaşabilme kabiliyetini ifade ediyor. Bu süreç, modelin iç katmanlarında gerçekleşen görünmeyen hesaplamalar sayesinde mümkün oluyor. Araştırmacılar bu fenomeni test etmek için kısmi mantık izlerini kullanarak modellerin ne zaman doğru cevabı bulduğunu ölçtü.
11 farklı dilde gerçekleştirilen kapsamlı analiz, çarpıcı bir gerçeği gözler önüne serdi: Bu yetenek diller arasında eşit şekilde dağılmıyor. İngilizce gibi veri kaynağı bol olan dillerde modeller güçlü gizli mantık yürütme sergilerken, kaynak kısıtlı dillerde bu performans belirgin şekilde düşüyor.
Bu bulgular, yapay zeka modellerinin farklı dillerdeki kullanıcılara eşit hizmet veremediğini gösteriyor. Araştırma, AI sistemlerinin çok dilli yeteneklerini geliştirmek için daha fazla çalışmaya ihtiyaç olduğuna işaret ediyor ve dil adaletsizliği konusunda önemli sorular ortaya koyuyor.