#872
summarized by : 野中琢登
Collaborative Distillation for Ultra-Resolution Universal Style Transfer

どんな論文か?

Universal style transfer methods はVGG19などの豊富な表現を利用するが,限られたメモリではモデルサイズが大きくなってしまうことが問題であった.入力画像の解像度に大きな問題があった. モデル圧縮の中でも分類や検出では試みがあるが,低レベルのビジョンタスクにはあまり研究されていない. そこで,新しい知識蒸留法を提案した.
placeholder

新規性

新しい知識蒸留法(Collaborative Distillation)を提案し,畳み込みフィルタを削減すること. エンコーダーデコーダーモデルが排他的な協調関係を利用するために線形埋め込みを生徒モデルの学習時に行うこととした.

結果

モデルサイズを15.5倍に圧縮してもWCTやAdaINに適用した場合有効であることが示された.圧縮モデルを用いたWCTでは12GBのGPU上で40メガピクセル以上のUniversal style transferを実現した. さらに,atys stylization framework では最適化ベースのスタイル変換の汎用性が示された.

その他(なぜ通ったか?等)