#23
summarized by : Yamada Ryosuke
Rethinking ImageNet Pre-Training

どんな論文か?

ImageNetの事前学習モデルを用いてターゲットタスクにファインチューニングにすることは,多くのタスクで良い結果が得られた.しかし,物体検出においてはImageNetでもデータセットが小さいと考えられる.この論文では,事前学習なしのランダムな初期値からCOCOデータセットを学習する場合がImageNetの事前学習モデルを用いた場合と物体検出とセグメンテーションにおいて同等の精度ということを主張.
placeholder

新規性

物体検出タスクにおいてImageNetの事前学習の有用性を再評価.

結果

COCOデータセットをゼロから学習した場合は,ImageNetの事前学習を用いた場合と同等の精度であった.収束する時間はImageNetの事前学習を用いた場合が早いが,精度向上には貢献していないと考えられる.

その他(なぜ通ったか?等)

ImageNetの事前学習の有用性についてスクラッチ学習との比較で評価を行い,物体検出タスクにおいてImageNetの事前学習の有用性を解析した.