#711
summarized by : Yusuke Saito
Single-View Robot Pose and Joint Angle Estimation via Render & Compare

どんな論文か?

巡回する自律システムに、非計測環境で視覚情報のみを用いて他のロボットと対話する能力を与えるため、1枚のRGB画像から、既知の多関節ロボットの関節角度と6次元カメラ-ロボット間の姿勢を推定する課題に取り組む。3D モデルのレンダリングビューと入力画像を比較し,オブジェクトの 6D ポーズを反復的に再構築する手法を提案する。
placeholder

新規性

- 提案するrender&compare手法は、合成データから学習することができ、テスト時には新しい未知のロボット構成に一般化し様々なロボットに適用することができる. - 深度にも依存せず一枚のRGB画像から、カメラの6次元ポーズを復元し、対象の関節自由度を推定する。

結果

- 既知の関節推定精度について、過去のSOTAであるDREAMとの比較。DREAMと同じ合成データセットでは、Panda 3CAM-RS(RealSenseを使ったもの)を除き,大幅な改善が見られた。また、最も多いPanda-ORBでは、11.5ポイントという大きな改善を達成した. - 未知の関節推定精度において、CRAVESとの比較。関節の姿勢推定において、誤差を大幅に改善することができた。

その他(なぜ通ったか?等)

- 一枚の画像からカメラ姿勢とロボットの関節姿勢を推定するタスクにおいて、未知のロボット構成に一般化し,様々なロボットに適用することができる点 - また、精度面においても、SOTAを実現させている点