#357
summarized by : 加藤義道
StyleSwap: Style-Based Generator Empowers Robust Face Swapping

どんな論文か?

Face Swappingの研究. 既存手法はソース画像とターゲット画像の顔の情報バランスに課題があり目に見えるアーティファクトが生成される. 本研究では, StyleGAN2にターゲット画像の特徴マップとソース画像のID特徴量を注入することで高品質なFace Swappingを実現するStyleSwapを提案. 実験により, 提案手法が任意の顔交換において最先端の性能を達成することを実証.
placeholder

新規性

ターゲット特徴を保持するための属性特徴マップを生成器の各層に取り入れている点. 顔マスクを用いた学習を行うことで, ターゲット特徴が顔構造に与える影響を抑制している点. ID類似度を高めるために反復的な潜在空間最適化を行っている点.

結果

VGGFaceとVoxCeleb2で256×256の解像度を訓練、GPENで512×512の解像度を訓練. 評価はFaceForensics++(FF++) dataset、FaceShifter results、CelebA-HQ. 比較モデルはFaceshifter, SimSwap, InfoSwap, MegaFS, Deepfakes. ID類似度とFIDで最先端の性能を達成.

その他(なぜ通ったか?等)

プロジェクト:https://hangz-nju-cuhk.github.io/projects/StyleSwap コード:https://github.com/Seanseattle/StyleSwap