Stanford Üniversitesi araştırmacıları, robotik algı sistemlerinin geliştirilmesinde çığır açacak bir iPhone uygulaması geliştirdi. FalconApp olarak adlandırılan bu sistem, kullanıcıların herhangi bir katı nesneyi kısa bir video ile çekerek sadece 20 dakika içinde profesyonel seviyede algı modülleri oluşturmasını sağlıyor.
Robotik sistemlerde en büyük zorluklardan biri, nesneleri tanıyabilmek için büyük miktarda etiketlenmiş veriye ihtiyaç duyulmasıydı. Geleneksel yöntemler, binlerce görüntünün manuel olarak etiketlenmesini gerektiriyordu - bu da hem zaman alıcı hem de maliyetliydi. FalconApp bu sorunu, fotorealistik sentetik veri üretimi ile çözüyor.
Sistemin çalışma prensibi oldukça etkileyici: Kullanıcı nesneyi iPhone ile çektikten sonra, uygulama otomatik olarak GSplat teknolojisini kullanarak nesnenin üç boyutlu modelini oluşturuyor. Ardından bu modeli çeşitli fotorealistik arka planlarla birleştirerek binlerce sentetik görüntü üretiyor. Her görüntü için otomatik olarak maske ve konum bilgileri etiketleniyor.
Araştırmacıların beş farklı nesne üzerinde yaptığı testler, sistemin farklı geometri ve görünüme sahip objeler için başarılı sonuçlar verdiğini gösteriyor. Sistem, nesne tespiti ve altı serbestlik dereceli konum belirleme görevlerini yüksek doğrulukla gerçekleştiriyor. Bu teknoloji, robotik alanında hızlı prototipleme ve geliştirme süreçlerini büyük ölçüde hızlandırabilir.