Yapay zeka alanında büyük dil modellerinin eğitimi konusunda önemli bir araştırma, sadece İngilizce odaklı yaklaşımın optimal olmadığını bilimsel verilerle ortaya koydu. Araştırmacılar, 8 milyar parametreye kadar büyüklükteki modeller üzerinde 220 farklı eğitim senaryosu gerçekleştirerek, çok dilli eğitimin etkilerini sistematik olarak inceledi.
Çalışmada matematiksel problem çözme ve API kullanımı gibi farklı görev alanlarında paralel çeviriler kullanılarak çok dilli veri karışımları test edildi. Sonuçlar, eğitim sürecinde dil çeşitliliğinin artırılmasının neredeyse tüm görevlerde ve model boyutlarında faydalı olduğunu gösterdi. Özellikle kaynak sıkıntısı yaşayan diller bu yaklaşımdan en fazla yararlanan grup olurken, İngilizce gibi kaynak bakımından zengin dillerde performans düşüşü yerine sabit kalma eğilimi gözlemlendi.
Araştırmanın en çarpıcı bulgularından biri, minimal düzeyde çok dilliliğin bile önemli faydalar sağlamasıydı. Eğitim verilerine sadece tek bir İngilizce olmayan dil eklenmesi, hem İngilizce performansını hem de diller arası genelleme yeteneğini geliştirdi. Bu durum, endüstride yaygın olan sadece İngilizce eğitim yaklaşımının aslında suboptimal olduğunu kanıtlıyor.
Bu bulgular, yapay zeka şirketlerinin model geliştirme stratejilerini yeniden şekillendirme potansiyeli taşıyor ve küresel kullanıcılar için daha adil ve etkili AI sistemleri geliştirilmesinin yolunu açıyor.