Teknoloji & Yapay Zeka

Yapay Zeka Artık İnsan Gözü Gibi Kodu Okuyabiliyor

Araştırmacılar, kod yazan yapay zeka modellerini insan geliştiricilerin görsel dikkat kalıplarını taklit edecek şekilde eğiten yeni bir teknik geliştirdiler. EyeMulator adı verilen bu yöntem, göz takibi verilerini kullanarak yapay zekanın hangi kod parçalarına odaklanması gerektiğini öğretiyor. İnsan programcıların kod okurken hangi bölümlere baktıklarını analiz eden sistem, bu bilgiyi yapay zeka modellerinin eğitim sürecine dahil ediyor. Test sonuçları, bu yaklaşımın kod çevirisinde %30'dan fazla, kod özetlemede ise %22'ye varan performans artışları sağladığını gösteriyor. Çalışma, yapay zekanın sadece istatistiksel bağlantıları değil, insan benzeri dikkat mekanizmalarını da kullanabileceğini kanıtlıyor.

Stanford Üniversitesi araştırmacıları, kod yazan yapay zeka modellerinin performansını insan görsel dikkatini taklit ederek artıran devrim niteliğinde bir teknik geliştirdiler. EyeMulator adı verilen bu sistem, programcıların kod okurken göz hareketlerini takip ederek elde edilen verileri yapay zeka eğitiminde kullanıyor.

Geleneksel kod yapay zeka modelleri, sadece girdi-çıktı arasındaki istatistiksel korelasyonlara dayalı öğrenme gerçekleştirirken, insan geliştiriciler kodun anlamsal olarak önemli bölümlerine sezgisel olarak odaklanıyorlar. EyeMulator bu farkı kapatmak için tasarlandı.

Sistem, göz takibi verilerinden elde edilen tarama yollarını analiz ederek, hangi kod parçalarının insan dikkatini çektiğini belirliyor. Bu bilgiler daha sonra yapay zeka modelinin öğrenme sürecinde kayıp fonksiyonuna ekleniyor, böylece model insan odağını taklit etmeyi öğreniyor.

StarCoder, Llama-3.2 ve DeepSeek-Coder gibi farklı modeller üzerinde yapılan testler, EyeMulator'un kod çevirisi görevlerinde 30 CodeBLEU puanından fazla, kod özetleme görevlerinde ise 22 BERTScore puanına kadar performans artışı sağladığını gösteriyor.

Bu çalışma, yapay zekanın insan benzeri dikkat mekanizmalarını benimseyerek daha etkili kod üretebileceğini kanıtlayan önemli bir adım olarak değerlendiriliyor.

Özgün Kaynak
arXiv (CS + AI)
EyeMulator: Improving Code Language Models by Mimicking Human Visual Attention
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.