Stanford ve diğer kurumlardan araştırmacılar, otonom robotların kapalı mekanlarda navigasyon kabiliyetini artıran yeni bir sistem geliştirdi. Bu sistem, yoğun hesaplama gerektiren 3D LiDAR verilerini, daha hafif işlenebilen 2D kuş bakışı görüntülere dönüştürerek yapısal unsurları tespit ediyor.

Geliştirilen framework'ün temel yeniliği, 3D LiDAR sensörlerinden gelen veri akışını Bird's-Eye-View (BEV) adı verilen kuş bakışı 2D görüntülere dönüştürmesi. Bu yaklaşım sayesinde duvarlar, kapılar ve diğer navigasyon açısından kritik yapısal elemanlar gerçek zamanlı olarak tespit edilebiliyor.

Sistem, birden fazla tespit stratejisini bir arada kullanıyor. Klasik geometrik yöntemler arasında Hough Transform, RANSAC ve LSD teknikleri bulunurken, yapay zeka tarafında ise YOLO-OBB tabanlı derin öğrenme detektörü yer alıyor. Bu çok katmanlı yaklaşım, farklı durumlarda optimal performans sağlamayı hedefliyor.

Sistemin dikkat çeken özelliklerinden biri, ardışık karelerden gelen tespit verilerini birleştiren spatiotemporal füzyon modülü. Bu modül, zaman içinde gelen verileri analiz ederek sistemin kararlılığını ve güvenilirliğini artırıyor.

Mobil robot platformlarında gerçekleştirilen deneyler, klasik yöntemlerle modern AI tekniklerinin performans farklarını net şekilde ortaya koydu. Araştırmacılar, kaynak kısıtlı robotlar için bu dengenin kritik önem taşıdığını vurguluyor.