Büyük dil modellerinin geliştirilmesi milyarlarca dolar maliyetle gerçekleştiriliyor, ancak bu modellerin yetkisiz kopyalanması sektörde büyüyen bir sorun haline geldi. Yeni bir araştırma, bu soruna karşı 'iz yeniden yazma' tekniği ile çözüm sunuyor.

Araştırmacıların geliştirdiği sistem, yapay zeka modellerinin ürettiği mantıksal açıklamaları dinamik olarak değiştirerek iki temel hedef gerçekleştiriyor. İlki, yetkisiz model eğitimini zorlaştırmak için veri kalitesini düşürürken, ikincisi ise kopyalanan modellere doğrulanabilir dijital imzalar yerleştiriyor.

Geliştirilen tekniklerden bazıları büyük dil modellerinin yeniden yazma yeteneklerini kullanırken, diğerleri gradyan tabanlı yöntemlerden faydalanıyor. Deneyler, basit talimat tabanlı yeniden yazma yaklaşımının güçlü bir anti-distilasyon etkisi gösterdiğini ortaya koyuyor.

Bu yöntemin en önemli özelliği, cevapların doğruluğunu ve anlamsal tutarlılığını korurken eğitim verilerinin kalitesini düşürmesi. Böylece orijinal model geliştiricilerinin yatırımları korunurken, yetkisiz kullanımın önüne geçiliyor.

Çalışma, yapay zeka sektöründe fikri mülkiyet haklarının korunması açısından önemli bir gelişme olarak değerlendiriliyor.