Büyük dil modellerinin öneri sistemlerindeki kullanımıyla ilgili yapılan yeni araştırma, beklenmedik ve önemli bir fenomeni gün yüzüne çıkardı. Araştırmacılar, bu modellerin orta katmanlarından elde edilen veri temsillerinin, geleneksel olarak tercih edilen son katmanlara kıyasla öneri görevlerinde daha üstün performans sergilediğini keşfetti.
Bu 'Orta Katman Üstünlüğü' (MRA) olarak tanımlanan durum, mevcut yaklaşımları ciddi şekilde sorguluyor. Çünkü şu ana kadar endüstrideki uygulamalar, genellikle son katmandan elde edilen temsilleri sıkıştırma yöntemiyle kullanıyordu. Ancak yeni bulgular, bu yaklaşımın optimal olmadığını gösteriyor.
Araştırmacılar bu ilginç durumu modülerlik teorisi çerçevesinde açıklıyor. Buna göre, büyük dil modelleri kendiliğinden içsel bir işlevsel modülerlik geliştiriyor ve son katmanı belirli proxy görevlerde uzmanlaşmaya yönlendiriyor. Bu da son katmanın genel öneri görevlerindeki etkinliğini azaltıyor.
Bu keşfin pratik sonuçları oldukça önemli. Endüstriyel öneri sistemlerinde yapay zeka entegrasyonu sırasında, yüksek boyutlu temsillerin getirdiği depolama ve hesaplama maliyetlerini azaltmak için etkili sıkıştırma yöntemleri gerekiyor. Yeni bulgular, bu sıkıştırma stratejilerinin yeniden tasarlanması gerektiğini işaret ediyor.