Yapay zeka modellerinin nasıl karar aldığını anlamak, güvenilir AI sistemleri geliştirmek için kritik önem taşıyor. Özellikle görüntü işleme alanında kullanılan Vision Transformer (ViT) modelleri, yüksek başarı oranlarına rağmen nasıl çalıştıkları konusunda bir 'kara kutu' gibi kalıyordu.
Araştırmacılar bu soruna çözüm olarak 'Katmanlar Arası Kod Çeviriciler' (Cross-Layer Transcoders - CLT) adını verdikleri yeni bir teknik geliştirdi. Bu yöntem, AI modelinin farklı katmanları arasındaki karmaşık etkileşimleri analiz ederek, her katmanın nihai karara ne kadar katkıda bulunduğunu gösterebiliyor.
Önceki yöntemler olan Seyrek Oto-kodlayıcılar (SAE) sadece tek katmanları inceleyebiliyorken, CLT tüm katmanların birbirleriyle nasıl etkileşim kurduğunu ortaya çıkarıyor. Bu, modelin son temsilini opak bir gömme vektöründen, katman bazında anlaşılabilir bir yapıya dönüştürüyor.
CLT'nin encoder-decoder yapısı sayesinde, her katmanın aktivasyonu önceki katmanlardan öğrenilen seyrek gömme vektörleri kullanılarak yeniden oluşturuluyor. Bu yaklaşım, Vision Transformer'ların nasıl çalıştığını anlamamızı büyük ölçüde geliştiriyor.
Bu gelişme, özellikle tıp, otonom araçlar ve güvenlik gibi kritik alanlarda kullanılan AI sistemlerinin daha şeffaf ve güvenilir olmasını sağlayabilir.