#247
summarized by : yusuke saito
View-GCN: View-Based Graph Convolutional Network for 3D Shape Analysis

どんな論文か?

3D形状認識における既存のビューベースの手法に関して、グラフベースの1次元的な逐次表現は、カメラが物体の周囲の円上に配置されているという概念をうまくモデル化することができる.しかし既存研究ではビュー構成に対して柔軟ではなく、均質な空間(例えば,正20面体)を前提としていた。
placeholder

新規性

- 三次元形状の複数のビューをビューグラフで柔軟に表現し、各ビューはビューの特徴を備えたグラフノードに対応する。 - ビューグラフの上に新しいグラフ畳み込みネットワーク(Graph Convolutional Network: GCN)を設計し、複数のビューの特徴を集約して大域的な形状記述子を学習することに成功した

結果

- ModelNet40データセット上でクラスあたり96.5%、インスタンスあたり97.6%の分類精度を達成。 - ShapeNet Core55データセット上でマイクロ平均78.4%、マクロ平均60.2%のmAPを達成。 - RGBDデータセットにおいても、インスタンスあたり94.3%の精度を達成。

その他(なぜ通ったか?等)

ビューベースの3D物体認識において、複数カメラの構造に柔軟なグラフベースの手法を確立。代表的なビューをサンプリングする選択的ビューサンプリング手法のアイデアが良いのではないか。