- …
- …
#327
summarized by : Tomoro Tokusumi
どんな論文か?
モデルの構造をかえず、neuron (filter) サイズを変更してモデルをスケーリングするための手法NeuralScaleを提案した。
提案手法ではiterative pruningの手法を使って速度要件を満たすための最適なneuronサイズを探索する。
CIFAR10、CIFAR100、TinyImageNetデータセットを用いて効果を検証した。
新規性
最も有名とも言える構造探索手法と言えるneural architecture search (NAS) は探索空間が広く、膨大な計算資源が必要である。
そこで、提案手法では探索空間を狭めてneuronのサイズのみ探索することで効率化を図っている。
結果
VGG11でCIFAR10/100を学習、MobileNetV2でCIFAR100を学習、ResNet18でTinyImageNetを学習させて効果を評価。
NeurlaPruningを15 iter.行うことで、3 ~ 9%の精度向上を確認。
また、GTX 1080 Tiを使用して、VGGは1 iter. に約20分、MobileNetV2は約1時間、ResNetは約45分かかっている。
その他(なぜ通ったか?等)
- …
- …