#50
summarized by : 福原吉博 (Yoshihiro Fukuhara)
UP-DETR: Unsupervised Pre-Training for Object Detection With Transformers

どんな論文か?

Transformer を使用した物体検出手法である DERT を教師なしで事前学習する手法を提案. ランダムに画像から切り出したパッチをクエリとして, 画像全体からクエリを検出するように, 事前学習を行っている(random query patch detection). 提案手法(UP-DERT)は通常のDERT よりも高精度かつ収束も早い.
placeholder

新規性

画像から切り出したパッチを, 画像全体の中から検出するように, 事前学習を行う random query patch detection を提案している. 物体検出に有効な特徴量と画像分類に有効な特徴量には trade-off の関係があり, 事前学習中に画像分類に有効な特徴量が忘却されないようにロスの項を追加している. また, 複数の物体検出に対応するために、マルチクエリへの拡張も行なっている.

結果

提案手法は PASCAL VOC と COCOの両方で既存手法の DERT と比較して, 収束が高速で, 精度も向上した. また, one-shot detection や panoptic segmentation への転移学習もDERTと比較して良い結果を示した.

その他(なぜ通ったか?等)

https://github.com/dddzg/up-detr