#392
summarized by : QIUYUE
Learning Without Memorizing

どんな論文か?

IL(Incremental Learning)は学習済みのモデルに対しIncremental学習を行い,更に多いクラスを識別させるタスクである.従来のILではベースクラスの画像を保存しながら新しいクラスの学習を行う,そのため,増加学習にはメモリーコストが大きい,学習効果が制限される.ベースクラスの画像データを保存せずにクラスの情報を保てる手法Learning without Memoryを提案.
placeholder

新規性

Attention Distillation Lossを利用し,識別器のアテンションマップの変化に罰する.

結果

iILSVRC-small及びiCIFAR-100データセットにおいてSOTAな精度及び学習クラス数を実現できた.

その他(なぜ通ったか?等)

Incremental Learning学習においての低メモリーコストな手法の提案.