- …
- …
#340
summarized by : 鈴木共生
どんな論文か?
学習枚数の多いクラス(Head)に過剰適応し,学習枚数の少ないクラス(Tail)の分類精度が著しく低下するロングテール問題がある.この問題に対して,学習データの分布やロスの修正がこれまで多く提案されていた.一方,提案法では、分類する前にHeadかTailかを分類できている場合に,分類精度が改善することに注目し,これをNNの学習構造に取り入れた.
新規性
提案法での取り組みは画像のとおりである.学習済みのネットワークに入力した際の特徴量から,HeadとTailのクラスタを再定義して,分類ネットワークにこの情報を与える.これに段階的に行うことよって分類精度が向上させる.また,クラスタ生成において,クラスタのサイズ制約や1クラスタあたり1クラスに近づくようにする制約を加える工夫も行った.
結果
ImageNet-Lt,Places-Lt,iNaturalist18というバイアスの大きいデータセットで評価した.評価データ内全体と画像枚数の数ごとに分離(Many,Medium,Few)したもので評価し,多くの項目でSOTAを達成した.
その他(なぜ通ったか?等)
提案法はこれまでの学習データの分布やロスの修正とは異なる部分であるため,共存させることが可能であり,これまでのモデルの精度を底上げできる点.また,ネットワークやロスの組み合わせを変えた場合の評価も詳細に行っていることで,提案法が広範囲で有効であることを示したため.
- …
- …