#196
summarized by : Hiroki Ohashi
Neural Networks Are More Productive Teachers Than Human Raters: Active Mixup for Data-Efficient Knowledge Distillation From a Blackbox Model

どんな論文か?

アーキテクチャ等がblackboxになっているteacher netから効率よくstudent netにdistillationをする手法を提案。Mix-upにより少量の学習データから大量の合成画像を生成するとともに、その中からteacher netへのクエリとして用いるデータをactive learningにより選択するのがポイント。
placeholder

新規性

blackboxなteacher netから少量学習データかつ少量クエリでknowledge distillationをする点

結果

MNIST, Fashion-MNIST, CIFAR-10, Places365-Standardデータセットでの実験において、whiteboxなteacherからdistillationする既存手法と比べても同等以上のパフォーマンス

その他(なぜ通ったか?等)

独自の問題設定とそれに対する解法提示で新規性を主張。また、主張点に関してしっかりとablation studyが行われている。しかし、かなり特殊な問題設定のように感じるが、それがどこまで現実的かには疑問が残った。