#6
summarized by : Hiroki Kobayashi
Gradient Normalization for Generative Adversarial Networks

どんな論文か?

GANの学習の安定化を目的とした,勾配正規化の提案.従来手法の「勾配ペナルティ」には,モデルごとにサンプリングベースの弱いリプシッツ制約を,「スペクトル正規化」には,モジュールごとに非サンプリングベースの強いリプシッツ制約を加える特徴があり,それぞれ長所と短所があった.そこで提案手法は,2つの長所を引き継ぐ手法,すなわち,モデルごとに非サンプリングベースの強いリプシッツ制約を加える手法を提案した.
placeholder

新規性

モデルごとに非サンプリングベースの強いリプシッツ制約を加える,勾配正規化を導入した点.

結果

Inception ScoreやFIDにおいて,WGAN-GP,SN-GANより性能が高いことを示した. また,スペクトル正規化と比較して,識別器の各レイヤーに対してはリプシッツ定数が大きくなるが,識別器全体に対してはリプシッツ定数が1.0付近に保たれていることを示した.

その他(なぜ通ったか?等)

ソースコード: https://github.com/basiclab/GNGAN-PyTorch