Yapay zeka sistemlerinin güvenliğinde yeni bir çıkmaz keşfedildi. Araştırmacılar, otonom ajanların davranışlarını kontrol etmek için kullanılan mevcut yöntemlerin, temel bir yapısal yetersizlik taşıdığını matematiksel olarak kanıtladı.

Geleneksel yaklaşımda, yapay zeka ajanları çalışma zamanında kural ihlallerini tespit eden denetim mekanizmalarıyla kontrol edilir. Ancak yeni araştırma, bu sistemlerin 'davranışsal kayma' denilen olguyu fark edemeyeceğini ortaya koyuyor. Problem şuradan kaynaklanıyor: denetim sinyalleri tek tek eylemleri yerel olarak değerlendirirken, gerçek davranış sapmaları ancak tüm eylem dizisine bakıldığında görülebiliyor.

Araştırmanın merkezindeki 'Tanımlanamama Teoremi', ajanın başlangıçta belirlenen kabul edilebilir davranış alanında kalıp kalmadığının, mevcut denetim sinyalleriyle ölçülemeyeceğini ispatlıyor. Bu durum, güvenlik mekanizmasının mükemmel çalıştığı durumlarda bile geçerli.

Bulgular, yapay zeka güvenliği için kritik sonuçlar taşıyor. Özellikle yüksek riskli uygulamalarda, ajanların onaylanmış davranış sınırları içinde kalmasını garanti etmek için yeni yaklaşımlara ihtiyaç duyulduğunu gösteriyor. Bu keşif, AI sistemlerinin tasarımında fundamental değişikliklere yol açabilir.