Büyük dil modelleri (LLM'ler) yazılım geliştirme süreçlerinde giderek daha önemli bir rol oynuyor. Ancak mevcut kod düzenleme yaklaşımları, özellikle interaktif kodlama asistanları için ciddi performans engelleri oluşturuyor.
Yeni araştırma, geleneksel diff formatlarının LLM'ler için ne kadar uygunsuz olduğunu ortaya koyuyor. Kırılgan ofsetler ve parçalanmış kod blokları, bu modellerin doğal üretim süreçlerini zorlaştırıyor. Bu sorunları çözmek için araştırmacılar, BlockDiff ve FuncDiff adlı iki yenilikçi format geliştirdi.
BlockDiff ve FuncDiff formatları, kod değişikliklerini kontrol yapıları ve fonksiyonlar gibi sözdizimsel açıdan tutarlı birimler halinde temsil ediyor. Bu yaklaşım, LLM'lerin kod yapısını daha iyi anlamasını ve daha verimli düzenlemeler yapmasını sağlıyor.
Araştırmanın en dikkat çekici yeniliği AdaEdit stratejisi. Bu sistem, LLM'leri belirli bir diff formatı ile tam kod üretimi arasında en token-verimli seçeneği dinamik olarak belirlemeye eğitiyor. Böylece hem hız hem de maliyet açısından optimum sonuçlar elde ediliyor.
Bu gelişme, kod editörleri ve geliştirme ortamlarında kullanılan yapay zeka asistanlarının performansını önemli ölçüde artırma potansiyeli taşıyor.