#483
summarized by : Teppei Kurita
Refine Myself by Teaching Myself: Feature Refinement via Self-Knowledge Distillation

どんな論文か?

知識蒸留は通常Pre学習された複雑な教師モデルから学生モデルに知識を伝達するが、最近は学生のみで自身の知識を蒸留する「自己知識蒸留」が注目されている。そこで補助的な自己教師ネットワークを利用し分類器に洗練された知識を転送する方法を提案。
placeholder

新規性

自己知識の蒸留にソフトラベル蒸留とフィーチャーマップ蒸留の両方を利用することができるので、局所情報の保存を重視する分類やセマセグに適用することができる。

結果

様々なタスクとベンチマークデータセットにおける性能向上を確認、有効性を提示。

その他(なぜ通ったか?等)

[Code] https://github.com/MingiJi/FRSKD