Yapay zeka alanında önemli bir gelişme yaşanırken, araştırmacılar büyük mantıksal akıl yürütme modellerinin verimliliğini artıran yeni bir teknik geliştirdi. STOP (Super TOken for Pruning) adlı bu yöntem, modellerin paralel işlem yaparken gereksiz hesaplama yollarını erken tespit edip budamasını sağlıyor.
Mevcut büyük dil modelleri karmaşık problemleri çözerken birden fazla yol deniyor ancak erken aşamada yapılan hatalar nedeniyle çoğu yol başarısız oluyor. Bu durum hem zaman kaybına hem de yüksek enerji tüketimine neden oluyor. Araştırma ekibi bu soruna sistematik bir çözüm getirdi.
Çalışmada ilk kez yol budama yöntemleri kapsamlı bir sınıflandırmaya tabi tutuldu. Yöntemler sinyal kaynağına ve öğrenebilirlik özelliğine göre kategorilere ayrıldı. Bu sınıflandırma, öğrenebilir dahili yöntemlerin henüz keşfedilmemiş potansiyelini ortaya çıkardı.
STOP tekniği, 1.5 milyardan 20 milyar parametreye kadar değişen model boyutlarında test edildi. En dikkat çekici sonuç GPT-OSS-20B modelinde elde edildi: AIME25 matematik problemleri setindeki doğruluk oranı %84'ten yaklaşık %90'a yükseldi.
Bu gelişme, yapay zeka modellerinin daha az kaynak tüketip daha yüksek performans göstermesinin yolunu açıyor.