Yapay zeka destekli robotik sistemlerde kullanılan video üretici dünya modelleri, robotların çevrelerini anlayıp karar vermesi için kritik öneme sahip. Ancak yeni bir araştırma, bu sistemlerin tehlikeli durumları tespit etme konusunda ciddi eksiklikleri olduğunu ortaya koydu.

Araştırmacılar, mevcut dünya modellerinin fiziksel riskleri doğru şekilde değerlendiremediğini ve tehlikeli eylemlerin sonuçlarını hafife aldığını keşfetti. Bu durum, robotların güvenli olmayan tercihler yapmasına ve riskli davranışlar sergilemesine yol açabiliyor. Problem özellikle robotların sanal ortamlarda eğitildiği durumlarda daha da kritik hale geliyor.

Soruna çözüm bulmak için araştırmacılar, ICAT (Olay-Vaka Temelli Uyarlanabilir Test) adlı yenilikçi bir yaklaşım geliştirdi. Bu sistem, gerçek kaza raporları ve güvenlik kılavuzlarından yararlanarak yapılandırılmış risk hafızaları oluşturuyor ve bunları kullanarak risk senaryoları üretiyor.

ICAT tabanlı testler, ana akım dünya modellerinin sıklıkla tehlike mekanizmalarını ve tetikleyici koşulları gözden kaçırdığını gösterdi. Ayrıca bu modeller, risklerin ciddiyetini yanlış kalibre ediyor ve güvenlik açısından kritik uygulamalar için gereken güvenilirlik seviyesine ulaşamıyor.

Bu bulgular, AI robotların günlük yaşama entegre edilmesi sürecinde güvenlik standartlarının yeniden değerlendirilmesi gerektiğini işaret ediyor.