Yapay zeka güvenliği alanında yeni bir yaklaşım önerildi. Geleneksel yöntemler yapay zekanın çıktılarını gözlemleyip davranışlarını düzelterek hizalama yapmaya odaklanırken, araştırmacılar bunun yerine ekonomik kurumsal tasarım prensiplerine dayanan bir model geliştirdi.

Mevcut yapay zeka hizalama paradigmaları, dış denetçilerin (örneğin İnsan Geri Bildirimli Pekiştirmeli Öğrenme) sistemin çıktılarını izleyerek istenmeyen davranışları düzeltmesi prensibine dayanıyor. Ancak araştırmacılar, bu yaklaşımın mülkiyet haklarının olmadığı bir ekonomiye benzediğini ve sürekli polis denetimi gerektirdiğini savunuyor.

Önerilen yeni yaklaşım, Coase, Alchian ve Cheung gibi kurumsal ekonomistlerin çalışmalarından ilham alıyor. Bu modelde, sistem tasarımcısı iç işlem yapılarını (modül sınırları, rekabet topolojileri, maliyet-geri bildirim döngüleri) öyle belirliyor ki, hizalanmış davranış her bileşen için en düşük maliyetli strateji haline geliyor.

Çalışma, insan müdahalesinin üç temel seviyesini tanımlıyor: yapısal (sistem mimarisini belirleme), parametrik (parametreleri ayarlama) ve denetimsel (sürekli izleme). Bu framework, yapay zeka hizalamasını davranış kontrolü probleminden politik-ekonomi problemine dönüştürüyor.

Bu yaklaşım, yapay zeka güvenliğinde önemli bir paradigma değişikliği önerebilir ve sistemlerin daha ölçeklenebilir şekilde güvenli hale getirilmesine yardımcı olabilir.