#126
summarized by : Shunsuke Yoshizawa
Rethinking Semantic Segmentation From a Sequence-to-Sequence Perspective With Transformers

どんな論文か?

TransformerをSegmentationに対して適用を試みた論文
placeholder

新規性

以前の研究においてもAttentionをsegmentationに組み込む研究はなされていたが、ベースはU-netなどのCNNであった。一方本研究ではEncodeにおいてCNNベースの手法を撤廃し、Attentionに切り替えた点に新規性がある。

結果

Cityscapes, ADE20K及びPASCAL Contextにおいて既存のモデルを上回る性能を獲得した。ADE20KにおいてはSoTAを達成。

その他(なぜ通ったか?等)

Transformerをsegmentationにそのまま適用した点に手法の新規性があり、その上良好な結果も得られたことが評価されたのだろう。 https://github.com/gupta-abhay/setr-pytorch