#38
summarized by : Akihiro FUJII
Training Generative Adversarial Networks in One Stage

どんな論文か?

通常GANはD/Gを片側を固定しつつ別々に更新するが、それを一気に更新させるone-stege GANを提案。D/Gそれぞれの更新で同じ勾配を使っていることを利用する。多くの既存GANに適用することが可能で精度を落とさず学習を1.5倍速にできる。
placeholder

新規性

GANはD/G別々に更新することが普通だったが、余計な計算コストをほとんどかけずに同時更新をかける手法を提案したところ

結果

様々な既存のGANで効果を確認した結果、高速になるだけでなくほとんど全てのGANで評価指標が改善する

その他(なぜ通ったか?等)

GANは大量のデータを使い、収束も決して早くはないので、高速化する手法があると実応用上かなり使いなる気がする