#832
summarized by : Hideki Tsunashima
Modeling Point Clouds With Self-Attention and Gumbel Subset Sampling

どんな論文か?

点群処理において高次元からのサンプリングの際にタスク依存の手法、順序可変、外れ値に敏感すぎるといった問題があった。 そこで、未知のタスクに適用可能、順序不変、外れ値に頑健、かつ微分可能なサブセットサンプリング手法であるGumbel Subset Sampling(GSS)を提案し、NLP分野で使われているPoint Attention Transformer(PAT)に適用した論文。
placeholder

新規性

GSSを提案した点。

結果

ModelNet40, Stanford Large-Scale 3D Indoor Spaces Dataset(S3DIS), DVS128 Gesture DatasetにおいてSOTA手法とほぼ同等のスコアを出しながらモデルサイズを削減することに成功。

その他(なぜ通ったか?等)

点群処理において未知のタスクに適用可能、順序不変、外れ値に頑健、かつ微分可能なサブセットサンプリングの手法を提案した点がとても大きいと考えられる。 また、点群処理における大きいモデルサイズを小さくし1080Tiを1枚で実験したという点での評価もされたのではないか。 さらに点群を処理する機構が小さくなれば自動運転の際などに高速に動作が可能であるという点の社会的有用性の評価もされたのではないか。