#385
summarized by : Ryota Nishijima
Distilling Object Detectors With Fine-Grained Feature Imitation

どんな論文か?

近年のState-of-the-artなモデルを、計算リソースの限られた環境にデプロイする際に有効な手段として知識蒸留が提案されてきた。しかし、これまで知識蒸留はクラス分類などのシンプルなタスクでしか研究されておらず、物体検知などの複雑なシステムでの研究例は少なかった。そこで、物体検出のモデルに対して知識蒸留を行う手法を提案する。
placeholder

新規性

教師モデルの出力ではなく特徴マップに注目することで、生徒モデルが物体検知に必要な特徴量を学習する点

結果

はじめに簡単なモデルをKITTIデータセットで学習させ手法の有効性を確認。その後Faster R-CNNをVOC、COCOデータセットで学習して普通に学習させるよりも高い精度を得ることができた。

その他(なぜ通ったか?等)