Teknoloji & Yapay Zeka

Yapay Zeka Modellerinde Semantik Modüllerin Haritası Çıkarıldı

Araştırmacılar, büyük dil modellerinin (LLM) beyninde anlam taşıyan bileşenlerin nasıl organize olduğunu keşfetti. Stanford Üniversitesi'nden bilim insanları, seyrek kodlayıcılar kullanarak sadece birkaç örnekle bu modellerin kavram ve ilişki modüllerini haritalandırdı. Çalışma, ülke-başkent gibi kavram çiftlerinde modelin hangi bölümlerinin aktif olduğunu gösteriyor. Bu bileşenleri engellediklerinde modelin çıktıları öngörülebilir şekilde değişiyor, güçlendirdiklerinde ise farklı senaryolar üretiyor. En ilginç bulgu, basit kavramların ilk katmanlarda, karmaşık ilişkilerin ise derin katmanlarda oluşması. Bu keşif, AI sistemlerinin iç işleyişini anlamamızda önemli bir adım.

Yapay zeka araştırmacıları, büyük dil modellerinin (LLM) nasıl düşündüğünü anlamada kritik bir keşif yaptı. arXiv'de yayınlanan çalışmaya göre, bu modellerin içinde semantik olarak tutarlı ve bağlama uygun ağ bileşenleri tespit edildi.

Araştırmacılar, seyrek otokodlayıcı (SAE) özelliklerinin birlikte etkinleşmesini inceleyerek, sadece birkaç örnekle modellerin anlam modüllerini haritalandırmayı başardı. Özellikle kavram-ilişki tahmin görevlerinde, ülkeler ve kelimeler gibi kavramlar ile başkent şehri ve çeviri dili gibi ilişkilerin nasıl işlendiğini ortaya çıkardılar.

Deneyler şaşırtıcı sonuçlar verdi. Bu bileşenler engellendiğinde modelin çıktıları öngörülebilir şekilde değişiyor, güçlendirildiğinde ise varsayımsal yanıtlar üretiliyor. Daha da ilginci, ilişki ve kavram bileşenleri birleştirildiğinde bileşik varsayımsal çıktılar elde ediliyor.

Araştırmanın en dikkat çeken bulgusu, modüler organizasyon yapısı. Basit kavram bileşenleri ilk katmanda ortaya çıkarken, soyut ilişki bileşenleri daha sonraki katmanlarda yoğunlaşıyor. Bu, insan beynindeki hiyerarşik bilgi işleme süreciyle benzerlik gösteriyor.

Çıkarılan bileşenlerin, tek tek özelliklerden daha kapsamlı olarak kavram ve ilişkileri yakaladığı, aynı zamanda özgüllüklerini koruduğu da gösterildi.

Özgün Kaynak
arXiv (CS + AI)
Sparse Feature Coactivation Reveals Causal Semantic Modules in Large Language Models
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.