#646
summarized by : Naoya Chiba
RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds

どんな論文か?

深層学習で点群処理をする場合のボトルネックであったサンプリングをランダムにし,その場合でも性能が悪化しないように各三次元点に対応する局所領域が徐々に拡大するように設計した局所点群の集約手法を提案する.提案するモジュールを用いて,全体ではU-Net構造にして点ごとのセマンティックセグメンテーションを行う.非常に高速かつ高精度(SoTA)のセマンティックセグメンテーション性能を達成.
placeholder

新規性

局所点群に対して注目点からの相対座標に基づくAttentionを適用してからShared MLP+Poolingで特徴量を計算,これとResidual Connectionを組み合わせたブロックで点群を処理する.Residual Connectionが注目する局所領域の拡大に対応しており,このブロックを重ねるだけで自然に対応する局所領域が拡大する.

結果

Semantic3DとSemanticKITTIの各データセットでSoTAかつ高速・省メモリな推論を実現.Ablation Studyとして提案したモジュールの有用性の確認・プーリング手法の比較を実施.

その他(なぜ通ったか?等)

シンプルなアイデアで高速・高精度な三次元点群のセマンティックセグメンテーションを達成.ランダムサンプリングでの性能悪化を防げる手法は適用範囲が広くインパクトがある.