#283
summarized by : Tadashi Ise
L2M-GAN: Learning To Manipulate Latent Space Semantics for Facial Attribute Editing

どんな論文か?

Learning-to-manipulate GAN (L2M-GAN)と呼ばれる新しい潜在空間因数分解モデルを提案.L2M-GANはエンド・ツー・エンドで学習され、ローカル属性とグローバル属性の両方の編集に有効.変更したい属性にのみ操作が働き,関係のない属性はそのまま維持.実験では人物の顔画像に笑顔の付与や消去という属性操作を実施.生成された画像に対して属性操作の正確性,画像の品質を評価.
placeholder

新規性

L2M-GANはエンド・ツー・エンドで学習することができ,一度学習したL2M-GANは,他の属性操作タスクにも再学習なしで広く利用でき,写真からアニメの顔への一般化も良好.属性に関連する情報を正しく変更し、属性に関連しない情報を維持でき,生成される画像の画質も従来よりも良好.

結果

実験では,生成された画像に対して属性操作の正確性,画像の品質を評価され,どちらも従来よりも高精度.また,ユーザー調査も実施され,結果は従来よりもはるかに高精度.元画像の属性を参照画像の属性に追従,1つの画像に対して2つの属性を同時に操作,またアニメやゲームの顔画像にも適応もL2M-GANでは可能であることを証明.

その他(なぜ通ったか?等)