#251
summarized by : Munetaka Minoguchi
Compressing Convolutional Neural Networks via Factorized Convolutional Filters

どんな論文か?

フィルタプルーニングによってCNNのモデルを圧縮する際に,フィルタ選択とフィルタ学習を同時に行う手法の提案.誤差逆伝播で標準のフィルタを更新し,CNN-FCFを学習.また,ADMMによってバイナリスカラを更新.この学習済みCNN-FCFモデルで,標準フィルターのみを保持し,他のフィルターと2進スカラーを破棄することで,コンパクトなCNNモデルを取得する.
placeholder

新規性

従来の手法では,主に次の3つの工程で処理される.初めに,モデルの事前学習を行う.次に,マニュアルの設定(フィルタのノルムなど)に従って,ランク付けを行うことで学習済みモデルのフィルタを選択する.最後にファインチューニングによって残ったフィルタを学習する.本研究では,フィルタ選択とフィルタ学習を同時に行う手法を提案している.

結果

CIFAR-10とImageNetによる実験では,従来のフィルタプルーニング法よりも優れていることを示唆.

その他(なぜ通ったか?等)