#885
summarized by : Shuhei M Yoshida
Towards Efficient Model Compression via Learned Global Ranking

どんな論文か?

学習済みCNNの精度を落とさないように不要な畳み込みフィルタを取り除く枝刈りに関する論文。従来の方法では設定した計算量まで枝刈りされたCNNが得られるが、計算量や精度の要件が変わるたびに1から枝刈りをやり直す必要があった。本論文では、計算量が異なる一連のモデルの集合を一度に生成する方法を提案する。
placeholder

新規性

(レイヤー毎ではなく)CNN全体の畳込みフィルタを順位付けするLearned Global Ranking (LeGR)を提案。LeGRが出力する順位で下位のものから順番に取り除いていくことで、精度の劣化を小さく抑えながら計算量を調整することが可能となる。応用先の要件に合わせて計算量や精度を調整したい時に、毎回枝刈りアルゴリズムを最初から走らせる必要がなくなる。

結果

CIFAR10/100, ImageNet, Bird200のデータセットで効果を検証。各目標計算量における精度で従来のSOTAに匹敵する値を達成。計算量の面では、従来手法は目標計算量を変えるたびに枝刈りを再実行する必要があるのに対し、LeGRは一回実行すれば異なる計算量のモデルを生成できる。

その他(なぜ通ったか?等)