Teknoloji & Yapay Zeka

Yapay Zeka Modellerinin 'Reddetme' Mekanizması Haritası Çıkarıldı

Araştırmacılar, büyük dil modellerinin zararlı içerikleri nasıl reddettiğini kontrol eden beyin devrelerini keşfetti. Çalışma, modellerin içindeki 'kapı' ve 'yükselteç' adı verilen dikkat başlıklarının, tehlikeli içerikleri tespit edip reddetme sinyali ürettiğini gösteriyor. 2 milyar ile 72 milyar parametreli 12 farklı modelde aynı mekanizma bulundu. En şaşırtıcı keşif, bu sistemin manipüle edilebilir olması: araştırmacılar sinyali ayarlayarak modelleri sert reddedici tavırdan zararlı içerik üreticisine dönüştürebildi. Bu bulgular, AI güvenliği ve model davranışlarının kontrolü açısından kritik önem taşıyor.

Yapay zeka güvenliği alanında önemli bir keşif yapıldı. Araştırmacılar, büyük dil modellerinin zararlı içerikleri nasıl reddettiğini kontrol eden dahili mekanizmaları haritalandırmayı başardı.

Çalışmaya göre, modeller içinde 'kapı' ve 'yükselteç' olarak adlandırılan iki ana bileşen bulunuyor. Orta katmanlardaki dikkat başlıkları bir kapı görevi görerek problematik içerikleri tespit ediyor. Ardından daha derin katmanlardaki yükselteç başlıklar devreye girerek reddetme sinyalini güçlendiriyor.

Araştırma ekibi, 6 farklı yapay zeka laboratuvarından 2 milyar ile 72 milyar parametre arasında değişen 12 modeli inceledi. Tüm modellerde aynı temel mekanizmanın varlığını tespit ettiler, ancak spesifik dikkat başlıklarının laboratuvara göre farklılık gösterdiğini gözlemlediler.

En çarpıcı bulgu, bu mekanizmanın manipüle edilebilir olması. Tespit katmanındaki sinyali ayarlayarak, araştırmacılar model davranışını sürekli bir spektrumda kontrol edebildiler - sert reddedici tavrından kaçamak cevaplara, hatta zararlı rehberlik sağlamaya kadar.

Bu keşif, AI güvenliği ve model davranışlarının denetimi açısından kritik önem taşıyor. Büyük ölçekli modellerde geleneksel ablasyon testlerinin yetersiz kaldığını, interchange testinin daha güvenilir bir denetim yöntemi olduğunu da ortaya koyuyor.

Özgün Kaynak
arXiv — Hesaplamalı Dilbilim (cs.CL)
How Alignment Routes: Localizing, Scaling, and Controlling Policy Circuits in Language Models
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.