#68
summarized by : 日坂 幸次
Distilling Virtual Examples for Long-Tailed Recognition

どんな論文か?

本研究では、ロングテールの視覚認識問題に対して、知識蒸留の観点から Distill the Virtual Examples (DiVE)法を提案する。

新規性

具体的には,教師モデルの予測値を仮想例として扱うことで,この仮想例からの蒸留が,ある制約の下でラベル分布学習と同等であることを証明する. また、仮想例の分布が元の入力分布よりも平坦になると、代表性の低い最後尾のクラスが大幅に改善されることを示す。これは、長い尾を持つ認識において重要である。提案するDiVE法では,仮想例の分布が平坦になるように明示的に調整することができる.

結果

大規模なiNaturalistデータを含む3つのベンチマークデータセットを用いた大規模な実験により、提案するDiVE法が最先端の手法を大幅に凌駕することが実証された。 さらに、追加の分析と実験により、仮想例の解釈を検証し、ロングテール問題に対するDiVEの調整された設計の有効性を示す。

その他(なぜ通ったか?等)