Yapay zeka alanında önemli bir gelişme yaşanırken, büyük dil modellerinin matematiksel problem çözme konusundaki temel zayıflığı belirlendi ve çözüm önerisi geliştirildi.
Yeni araştırma, büyük dil modellerinin matematik problemlerini çözerken gerçek mantıksal düşünme yerine şablon eşleştirme ve ezberleme stratejilerine dayandığını sistematik olarak ortaya koydu. Çalışma, mantıksal ilişkileri anlama yeteneğine odaklanarak bu sınırlılığı derinlemesine inceledi ve şaşırtıcı bir bulguya ulaştı: yanlış tahminlerin %90'ından fazlası bu temel yeteneğin eksikliğinden kaynaklanıyor.
Mevcut Düşünce Zinciri Denetimli İnce Ayar (CoT-SFT) yönteminin bu hataları önemli ölçüde azaltmada başarısız olduğu görülünce, araştırmacılar yeni bir yaklaşım geliştirdi. İlk Adım Mantıksal Muhakeme (FSLR) adı verilen bu hafif eğitim çerçevesi, doğrudan mantıksal ilişki anlama becerisini hedef alıyor.
FSLR'nin temel anlayışı oldukça akıllıca: ilk planlama adımında modelin hangi değişkenleri kullanacağını ve hangi işlemi uygulayacağını belirlemesi, problem ifadesinden doğrudan mantıksal ilişkileri çıkarmasını teşvik ediyor. Model bu izole edilmiş adım üzerinde eğitilerek, matematiksel muhakeme yetenekleri güçlendiriliyor.
Bu gelişme, yapay zeka modellerinin matematik ve mantık alanındaki performansını artırmak için önemli bir adım olarak değerlendiriliyor.