#327
summarized by : Tomoro Tokusumi
NeuralScale: Efficient Scaling of Neurons for Resource-Constrained Deep Neural Networks

どんな論文か?

モデルの構造をかえず、neuron (filter) サイズを変更してモデルをスケーリングするための手法NeuralScaleを提案した。 提案手法ではiterative pruningの手法を使って速度要件を満たすための最適なneuronサイズを探索する。 CIFAR10、CIFAR100、TinyImageNetデータセットを用いて効果を検証した。

新規性

最も有名とも言える構造探索手法と言えるneural architecture search (NAS) は探索空間が広く、膨大な計算資源が必要である。 そこで、提案手法では探索空間を狭めてneuronのサイズのみ探索することで効率化を図っている。

結果

VGG11でCIFAR10/100を学習、MobileNetV2でCIFAR100を学習、ResNet18でTinyImageNetを学習させて効果を評価。 NeurlaPruningを15 iter.行うことで、3 ~ 9%の精度向上を確認。 また、GTX 1080 Tiを使用して、VGGは1 iter. に約20分、MobileNetV2は約1時間、ResNetは約45分かかっている。

その他(なぜ通ったか?等)