Stanford Üniversitesi araştırmacıları, yapay zeka modellerinin düşünme süreçlerini daha net bir şekilde kontrol etmek için yenilikçi bir mimari geliştirdi. Path-Lock Expert (PLE) olarak adlandırılan bu sistem, hibrit düşünen dil modellerindeki önemli bir sorunu çözmeyi hedefliyor.

Mevcut hibrit modeller, açık düşünme (think) ve düşünmeme (no-think) modlarına sahip olmalarına rağmen, bu modlar arasında net bir ayrım yapamıyor. Düşünmeme modunda bile modeller uzun ve öz-yansıtmalı yanıtlar üretiyor, bu da 'akıl yürütme sızıntısı' olarak adlandırılan istenmeyen bir duruma yol açıyor.

PLE mimarisi bu soruna mimari düzeyde bir çözüm sunuyor. Geleneksel sistemlerde her çözücü katmandaki tek MLP (çok katmanlı algılayıcı) yerine, semantik olarak kilitli iki ayrı uzman kullanıyor. Bu uzmanlardan biri sadece düşünme modu için, diğeri ise sadece düşünmeme modu için özelleştirilmiş durumda.

Sistem, dikkat mekanizması, gömme katmanları, normalizasyon ve dil modeli başlığı gibi bileşenleri paylaşırken, deterministik bir kontrol token yönlendiricisi aracılığıyla tüm dizi için tam olarak bir uzman yolunu seçiyor. Bu yaklaşım, çıkarım sırasında yoğun modelin token başına hesaplama desenini koruyor.

Matematik ve bilim alanlarında yapılan testlerde, PLE mimarisinin mod karışıklığını önemli ölçüde azalttığı ve her uzmanın kendi modunda daha saf güncellemeler aldığı gözlemlendi.