#425
summarized by : Taiki Sugiura
Wavelet Knowledge Distillation: Towards Efficient Image-to-Image Translation

どんな論文か?

小型のGANは高品質の高周波情報を生成する能力に欠けていると主張.そのため,Wavelet Knowledge Distillationと呼ばれる新しい知識蒸留法を提案.教師側のGANで生成された画像を異なる周波数帯域に分解し,高周波帯域のみを蒸留する.その結果,生徒側のGANは高周波数帯の学習に注意を払うことが可能.
placeholder

新規性

(ⅰ)小型のGANは画像中の高品質な高周波情報を生成する能力に欠けていることを定量的に示した.(ⅱ)教師が生成した画像の高周波情報のみを抽出.(ⅲ)圧縮された生成器との競合を維持するためには,識別器の圧縮が必要であると示した.

結果

他のGANにおける知識蒸留手法と比べ,明確にマージンで上回っている.また,CycleGANにおいて,性能低下はほとんどなく,7.08倍の圧縮と6.80倍の高速化を実現した.また,知識蒸留した生徒は低いFIDを達成するだけでなく,FIDの標準偏差も低くなる傾向にあり,知識蒸留がGANの学習を安定させる可能性を示した.

その他(なぜ通ったか?等)