#81
summarized by : Hiroaki Aizawa
Rethinking Few-shot Image Classification: A Good Embedding is All You Need?

どんな論文か?

少量データから新たなカテゴリやタスクに汎化するための新たな方法として,pretraining & finetuningによって良い特徴量を得ることから新たな概念に汎化する方法の提案.
placeholder

新規性

具体的には,meta-trainingでembedding modelをpretrainingして,meta-testing時にトップの層のみをmeta-testing dataでfinetuningする.また,meta-testing時にembedding modelを蒸留する方法を提案.

結果

miniImageNetとtiredImageNetで検証を行い,1-shotと5-shotの両方で既存のfew-shot learningの方法を上回る性能を達成.この結果から,よく学習された表現は,few-shot learningの文脈においても,洗練されたfew-shot learningの方法より効果的であることがわかった.

その他(なぜ通ったか?等)