Yapay sinir ağlarının güvenilirliğini test eden doğrulama sistemlerinde kullanılan 'konveks gevşetme' yönteminin beklenmedik yan etkileri ortaya çıktı. Araştırmacılar, bu popüler yaklaşımın performans artışı sağlarken doğrulukta ciddi kayıplara yol açtığını matematiksel olarak ispatladı.
Sinir ağı doğrulama sistemleri, ağın giriş-çıkış ilişkisini kısıtlama programları olarak modelliyor. Geleneksel yaklaşım, nöronların aktivasyonlarını simüle etmek için karmaşık tamsayı kısıtlamaları kullanıyor. Ancak son dönemde araştırmacılar, bu kısıtlamaları gevşeterek hesaplama süresini kısaltmaya odaklanıyor.
Yeni çalışma, orijinal ağ ile gevşetilmiş versiyonu arasındaki sapmanın matematiksel sınırlarını belirledi. En çarpıcı bulgu, bu sapmanın ağın derinliğiyle üstel olarak artması. Ayrıca giriş verisinin büyüklüğüyle doğrusal bir ilişki de tespit edildi.
Araştırmacılar, gevşetme yaklaşımlarının bir kafes yapısı oluşturduğunu gösterdi. Bu yapıda en üst element tüm nöronların doğrusallaştırıldığı tam gevşetmeyi, en alt element ise orijinal ağı temsil ediyor. Bu keşif, gelecekte daha dengeli doğrulama algoritmalarının geliştirilmesine yol açabilir.
Bulgular, AI güvenlik sistemlerinde hız ile doğruluk arasındaki kritik dengenin önemini vurguluyor ve doğrulama sistemlerinin tasarımında yeni yaklaşımlara ihtiyaç olduğunu gösteriyor.