#514
summarized by : Naoya Chiba
Point Cloud Completion by Skip-Attention Network With Hierarchical Folding

どんな論文か?

片面点群から全周点群を補完する手法.PointNet++によるエンコードとFoldingによるデコードを組み合わせ,Set Abstractionの各スケールに対して,空間的に対応する領域に着目するようなSkip-Attentionを導入,入力点群の一部に注目して点群再構成を行う.
placeholder

新規性

Foldingによるデコーダを階層的になるよう拡張(グリッド上の等間隔なサブサンプリングで実現)を行い,マルチスケールなAttentionを実現できるようにした.

結果

ShapeNetとKITTIで検証,既存手法よりも省パラメータで良好な全周復元結果を得た.Ablation StudyではAttentionの有効性,Loss関数設計(EMD+CD)の妥当性,入力点数が少ない場合のロバスト性を評価.Skip-AttentionとHierarchical Foldingの可視化を行った.その他セグメンテーション,クラス分類でも高性能となる特徴量を獲得できている.

その他(なぜ通ったか?等)

PointNet++とFoldingNetに対してAttention付きのSkip Connectionを行うというアイデアは素直で理解しやすい.実験が丁寧で高性能であることがわかりやすい.