Teknoloji & Yapay Zeka

Büyük dil modelleri robotlarda planlama yaparken güvenlik açıkları oluşturuyor

Araştırmacılar, robotik sistemlerde planlama amaçlı kullanılan büyük dil modellerinin ciddi güvenlik risklerine yol açtığını ortaya çıkardı. DESPITE adlı kapsamlı test sistemiyle 23 farklı model değerlendirildi ve şaşırtıcı sonuçlar elde edildi. En iyi planlama yeteneğine sahip modelin sadece %0,4 oranında geçersiz plan ürettiği, ancak %28,3 oranında tehlikeli planlar önerdiği tespit edildi. 3 milyar ile 671 milyar parametre arasındaki 18 açık kaynak model incelendiğinde, model boyutu arttıkça planlama becerisi önemli ölçüde gelişirken güvenlik farkındalığı nispeten sabit kaldığı görüldü. Büyük modellerin daha güvenli sonuçlar üretmesinin asıl nedeni tehlike algısının artması değil, genel planlama yeteneklerindeki iyileşme olduğu anlaşıldı.

Yapay zeka alanında büyük dil modellerinin robotik sistemlerde planlama amaçlı kullanımı hızla yaygınlaşırken, güvenlik konusundaki endişeler de artıyor. Yeni bir araştırma, bu modellerin mükemmel planlama yeteneklerine sahip olsa bile ciddi güvenlik açıklarına sahip olduğunu ortaya koydu.

Araştırmacılar, güvenli planlama kapasitesini sistematik olarak ölçmek için DESPITE adında özel bir test platformu geliştirdi. Bu platform, fiziksel ve normatif tehlikeleri kapsayan 12.279 farklı görevden oluşuyor ve tamamen deterministik doğrulama imkanı sunuyor.

23 farklı model üzerinde yapılan testlerde çarpıcı sonuçlar elde edildi. En başarılı planlama yeteneğine sahip modelin görevlerin sadece %0,4'ünde geçersiz plan ürettiği, ancak %28,3'ünde tehlikeli önerilerde bulunduğu tespit edildi. Bu durum, tekniken mükemmel planların bile güvenlik açısından sorunlu olabileceğini gösteriyor.

3 milyar ile 671 milyar parametre arasındaki 18 açık kaynak modelin analizi, ilginç bir paradoks ortaya çıkardı. Model boyutu arttıkça planlama başarısı %0,4'ten %99,3'e kadar dramatik şekilde yükselirken, güvenlik farkındalığı %38-57 aralığında nispeten sabit kaldı.

Özel geliştirilen üç ticari akıllı model ise %71-81 oranında daha yüksek güvenlik farkındalığı sergileyerek umut verici sonuçlar gösterdi. Bu bulgular, robotik uygulamalarda AI güvenliğinin daha dikkatli ele alınması gerektiğini vurguluyor.

Özgün Kaynak
arXiv (CS + AI)
Using large language models for embodied planning introduces systematic safety risks
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.