Yapay zeka alanında büyük dil modellerinin yaygın kullanımı arttıkça, bu sistemlerin güvenlik sorunları da daha fazla dikkat çekiyor. Yeni bir araştırma, bu modellerin siber saldırılara karşı dayanıklılığını artırmak için umut verici bir çözüm sunuyor.
Geleneksel yaklaşımda, metinler makine diline çevrilirken belirli bir standart kullanılıyor. Ancak bu deterministik tokenleştirme yöntemi, modelleri düşmanca saldırılara karşı savunmasız bırakabiliyor. Metinde yapılan küçük değişiklikler bile modelin performansını ciddi şekilde etkileyebiliyor.
Araştırmacılar, bu soruna stokastik tokenleştirme ile yaklaştı. Bu yöntemde, metnin makine diline çevrilme süreci rastgele elementi içeriyor. Böylece model, aynı metnin farklı temsilleriyle karşılaştığında daha tutarlı sonuçlar üretiyor.
Çalışma kapsamında, farklı öğrenme senaryoları, veri kümeleri ve model mimarileri üzerinde kapsamlı testler yapıldı. Ön eğitim ve ince ayar süreçlerinde uniform örnekleme ile stokastik tokenleştirme kullanmanın, hem rastgele bozulmalara hem de kasıtlı saldırılara karşı dayanıklılığı belirgin şekilde artırdığı gözlemlendi.
Bu yenilik, yapay zeka sistemlerinin gerçek dünya uygulamalarında daha güvenli hale getirilmesi açısından önemli bir adım olarak değerlendiriliyor.