Stanford ve UC Berkeley'den araştırmacılar, robotik sistemlerde güvenlik kontrolü alanında çığır açan bir yaklaşım geliştirdi. Yeni sistem, geleneksel güvenlik kontrol bariyerlerinin sınırlarını aşarak, belirsizliklerle dolu gerçek dünya koşullarında bile robotların güvenli hareket etmesini sağlıyor.
Geleneksel güvenlik kontrol bariyer fonksiyonları, robotların matematiksel dinamiklerinin tam olarak bilinmesini gerektiriyordu. Bu yaklaşım, karmaşık gerçek dünya senaryolarında yetersiz kalıyor ve genellikle aşırı korumacı güvenlik sınırları oluşturuyordu. Araştırmacılar bu sorunu, pekiştirmeli öğrenme algoritmaları ile birleşen yeni bir çerçeve geliştirerek çözdü.
Yenilikçi sistemin kalbi, düşman yapay zeka algoritmaları kullanan bir eğitim sürecinde yatıyor. Bu süreçte, bir algoritma robotun güvenli hareket etmesini öğrenmeye çalışırken, karşısındaki 'düşman' algoritma en zorlu ve tehlikeli senaryoları üretmeye odaklanıyor. Bu yaklaşım, robotların olası en kötü durumlarla karşılaştığında bile güvenli kalmasını garanti ediyor.
Sistem, Q-öğrenme tekniğini kullanarak durum-eylem uzayında çalışıyor ve bu sayede robotun çevresindeki dinamiklerin tam matematiksel modeline ihtiyaç duymadan güvenlik bariyerlerini öğrenebiliyor. Araştırmacılar, bu yaklaşımın maksimal güvenli bölgeyi koruyabilen ilk sağlam kontrol bariyer sistemi olduğunu belirtiyor.