#150
summarized by : 近藤 佑樹 (Yuki Kondo)
CrackFormer: Transformer Network for Fine-Grained Crack Detection

どんな論文か?

Transformerを用いた新たなクラックセグメンテーション手法の提案.従来の畳み込みとプーリングのみで構成されたモデルでは,ぼやけて荒いセグメンテーションとなる,受容野制限により長いクラックの連続性が保証されない等の問題を指摘.提案手法では新たなSelf-attention blockとクラックの特徴を鮮明化するScaling-attention blockからなるCrackFormerを提案
placeholder

新規性

①特徴量マップのチャネル間情報を大きな受容野によって抽出するSelf-attetoin block; ②デコーダの各スケールに,エンコーダの非線形情報を用いて,クラック特徴を鮮明化させるScaling-attention block; ③ SegNetをベースに,Self-attention blockとScaling-attention blockを導入したCrackFormer

結果

クラックセグメンテーション用の3つのデータセットにおいて,ODS,OISそしてAPの評価指標でSOTAを達成.また,パラメータ数とFLOPsの観点でも提案手法が従来手法と比べて,最も効率的なアーキテクチャであることを示した.

その他(なぜ通ったか?等)

https://github.com/LouisNUST/CrackFormer