- …
- …
#514
summarized by : Naoya Chiba
どんな論文か?
片面点群から全周点群を補完する手法.PointNet++によるエンコードとFoldingによるデコードを組み合わせ,Set Abstractionの各スケールに対して,空間的に対応する領域に着目するようなSkip-Attentionを導入,入力点群の一部に注目して点群再構成を行う.
新規性
Foldingによるデコーダを階層的になるよう拡張(グリッド上の等間隔なサブサンプリングで実現)を行い,マルチスケールなAttentionを実現できるようにした.
結果
ShapeNetとKITTIで検証,既存手法よりも省パラメータで良好な全周復元結果を得た.Ablation StudyではAttentionの有効性,Loss関数設計(EMD+CD)の妥当性,入力点数が少ない場合のロバスト性を評価.Skip-AttentionとHierarchical Foldingの可視化を行った.その他セグメンテーション,クラス分類でも高性能となる特徴量を獲得できている.
その他(なぜ通ったか?等)
PointNet++とFoldingNetに対してAttention付きのSkip Connectionを行うというアイデアは素直で理解しやすい.実験が丁寧で高性能であることがわかりやすい.
- …
- …