#640
summarized by : 綱島 秀樹
Modeling the Background for Incremental Learning in Semantic Segmentation

どんな論文か?

セマンティックセグメンテーションの増分学習の文脈に始めてアプローチした論文。 Fig.2のように過去学習していたネットワークの出力を現在タスクのclassifierの末尾にconcatし、母体のclassifier自体は初期化、後にFig.2 の新規提案であるDitillation LossとClassification Lossを用いることで破滅的忘却を軽減するMiBを提案した。
placeholder

新規性

・セマンティックセグメンテーションの増分学習において初めてタスク依存の手法を提案した点 ・Pascal-VOC 2012とADE20kの様々な設定の増分学習において、全てSOTAな点

結果

Pascal-VOC 2012とADE20kの様々な設定の増分学習において、全てSOTA

その他(なぜ通ったか?等)

わりかしやっていることはシンプルであるが、タスク提案の新規性、論文の書き方は非常にうまいため通ったと考えられる。