Teknoloji & Yapay Zeka

Robotlar Artık Tek Fotoğrafla Yeni Nesneleri Kavrayabilecek

Stanford ve diğer üniversitelerden araştırmacılar, robotların daha önce hiç görmedikleri nesneleri tek bir referans görüntüyle manipüle edebilmesini sağlayan yeni bir sistem geliştirdi. SinRef-6D adlı bu teknoloji, robotların nesnelerin 3D konumunu ve yönelimini sadece bir RGB-D kamerayla çekilen tek fotoğraftan hesaplamasına olanak tanıyor. Geleneksel yöntemler CAD modelleri veya çok sayıda referans görüntü gerektirirken, yeni sistem durum uzayı modelleri kullanarak nokta bazlı hizalama yapıyor. Bu gelişme, endüstriyel robotlardan ev robotlarına kadar geniş bir yelpazede uygulanabilir ve robotik manipülasyonda önemli bir ilerleme temsil ediyor.

Robotların bilinmeyen nesneleri kavrayıp manipüle etmesi, modern robotik alanının en zorlu problemlerinden biri. Geleneksel sistemler, robotların yeni bir nesneyle karşılaştığında o nesnenin CAD modellerine veya çok sayıda referans görüntüsüne ihtiyaç duyuyor. Bu durum, sistemlerin gerçek dünyada ölçeklenebilirliğini ciddi şekilde sınırlıyor.

Araştırmacılar tarafından geliştirilen SinRef-6D sistemi, bu soruna yenilikçi bir çözüm getiriyor. Sistem, robotun manipülasyon sırasında çektiği tek bir pose etiketli RGB-D görüntüsünü kullanarak, nesnelerin altı serbestlik dereceli (6-DoF) mutlak pozisyonunu hesaplayabiliyor. Bu altı derece; nesnenin üç boyutlu uzaydaki konumu (x, y, z) ve üç rotasyonel açısını (pitch, yaw, roll) ifade ediyor.

Tekniğin kalbi, durum uzayı modelleri (SSM) kullanılarak gerçekleştirilen yinelemeli nokta bazlı hizalama yönteminde yatıyor. Bu yaklaşım, büyük poz farklılıkları ve tek görüşün sınırlı geometrik bilgisi gibi zorluklarla başa çıkabiliyor.

Bu gelişme, fabrika otomasyonundan ev robotlarına kadar geniş bir uygulama alanına sahip. Özellikle dinamik ortamlarda çalışan robotların adaptasyon kabiliyetini önemli ölçüde artırması bekleniyor.

Özgün Kaynak
arXiv (CS + AI)
Scalable Unseen Objects 6-DoF Absolute Pose Estimation with Robotic Integration
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.