Yapay zeka alanında büyük dil modellerinin robotik sistemlerde planlama amaçlı kullanımı hızla yaygınlaşırken, güvenlik konusundaki endişeler de artıyor. Yeni bir araştırma, bu modellerin mükemmel planlama yeteneklerine sahip olsa bile ciddi güvenlik açıklarına sahip olduğunu ortaya koydu.
Araştırmacılar, güvenli planlama kapasitesini sistematik olarak ölçmek için DESPITE adında özel bir test platformu geliştirdi. Bu platform, fiziksel ve normatif tehlikeleri kapsayan 12.279 farklı görevden oluşuyor ve tamamen deterministik doğrulama imkanı sunuyor.
23 farklı model üzerinde yapılan testlerde çarpıcı sonuçlar elde edildi. En başarılı planlama yeteneğine sahip modelin görevlerin sadece %0,4'ünde geçersiz plan ürettiği, ancak %28,3'ünde tehlikeli önerilerde bulunduğu tespit edildi. Bu durum, tekniken mükemmel planların bile güvenlik açısından sorunlu olabileceğini gösteriyor.
3 milyar ile 671 milyar parametre arasındaki 18 açık kaynak modelin analizi, ilginç bir paradoks ortaya çıkardı. Model boyutu arttıkça planlama başarısı %0,4'ten %99,3'e kadar dramatik şekilde yükselirken, güvenlik farkındalığı %38-57 aralığında nispeten sabit kaldı.
Özel geliştirilen üç ticari akıllı model ise %71-81 oranında daha yüksek güvenlik farkındalığı sergileyerek umut verici sonuçlar gösterdi. Bu bulgular, robotik uygulamalarda AI güvenliğinin daha dikkatli ele alınması gerektiğini vurguluyor.