Yapay zeka modellerinin yönetimi konusunda yaygın olarak kabul gören 'açık erişim tehlike, kısıtlama güvenlik' yaklaşımı, yeni bir araştırmaya göre sorgulanması gereken bir ikilemdır. Araştırmacılar, açık ağırlıklı yapay zeka modellerine erişimi kısıtlamanın, güvenliği artırmak yerine riskleri başka alanlara kaydırabileceğini öne sürüyor.
Küresel hesaplama altyapısının merkezileşmiş yapısı göz önüne alındığında, açık ağırlıklı modeller özellikle gelişmekte olan ülkeler için bağımsız yapay zeka kapasitesi geliştirmenin en uygulanabilir yollarından biri haline geliyor. Bu erişimin kısıtlanması, mevcut asimetrileri derinleştirirken, aynı zamanda bu teknolojilerin denetimsiz ortamlarda yayılmasına da neden olabiliyor.
Çalışma, mevcut ikili yaklaşıma alternatif olarak, donanım katmanında yönetişim mekanizmalarını öneriyor. FlexHEG gibi çip düzeyinde doğrulama sistemleri, güvenilir yürütme ortamları, gizli bilişim ve tamamlayıcı yazılım katmanı koruma önlemleri gibi çok katmanlı bir savunma stratejisinin daha etkili olabileceğini belirtiyor.
Araştırmacılar, kötüye kullanım vektörlerini donanım, yazılım, kurumsal ve sorumluluk katmanlarına eşleyen bir tehdit modeli taksonomisi geliştirerek, tek bir yaklaşımın yeterli olamayacağını gösteriyor. Bu bulgular, yapay zeka güvenliği politikalarının yeniden değerlendirilmesi gerektiğini ortaya koyuyor.