#79
summarized by : Kazuma_Asano
Latent Filter Scaling for Multimodal Unsupervised Image-To-Image Translation

どんな論文か?

 本論文ではマルチモーダル教師なし学習によるImage2Image Translationタスクにおいて,シンプルでクオリティを向上させる手法を提案しSOTAを獲得した.従来手法では多様性のある画像を出すには様々なパラメータを加える必要があり,ハイパラメータの調節が困難であった.そこで畳み込みフィルタの更新に潜在コードを利用することでハイパラを増やさずに多様性のある出力が可能となった.
placeholder

新規性

 コントリビューションは以下の通りである. 1.シンプルでディスエンタングルメントな潜在コードを利用し,マルチモーダル教師なし学習によるImage2Image Translation 手法を提案 2.多様性を持ちつつクオリティの高い結果より従来手法と比較してSOTA 3.自動符号化や潜在コードや画像の再構築Lossを必要としない初の手法.

結果

 MUNIT,BicycleGANと提案手法を比較しクオリティ(Amazon Mechanical Turk )と多様性(LPIPS )を評価.MUNITと同等の多様性を持ちながらクオリティは落ちない評価となり,従来手法と比べてSOTAを獲得.

その他(なぜ通ったか?等)