- …
- …
#547
summarized by : iida
新規性
GANの汎用的な圧縮手法が新しい。知識の蒸留(Knowledge Distillation)と教師モデルの出力を用いて疑似的にペアとして学習することでペア学習とアンペア学習を統合し、汎用的で安定的なモデルの学習を実現。そして軽量なアーキテクチャはNASを用いて見つけるというのもの。アーキテクチャの探索とモデルの学習を切り離すのにはonce-for-all networkを用いている。
結果
pix2pix,GauGAN,CycleGANにおいて,性能を落とすことなく,パラメータを9~21倍に圧縮し,モデルサイズを5~33倍に縮小することを達成。
その他(なぜ通ったか?等)
様々なcGANで使える汎用性と性能を落とさない圧縮が実現できたため
- …
- …