#195
summarized by : Hiroki Okawa
Flow-Guided Video Inpainting With Scene Templates

どんな論文か?

フローベースでの動画の欠損補完(Inpainting)手法の提案。シーンに対する欠損のない生成モデルと各フレームのマッピングを推定することで、歪みのない整合性の高い補完を行う。更に、補完にはL1-L2スキームと呼ばれる手法を導入し、従来起きていたブラーやアーティファクトの発生を抑えられることを示した。定性・定量双方の評価でSOTAに優越することも示している。
placeholder

新規性

生成モデル(論文中ではシーンテンプレートと呼ぶ一枚の背景画像のようなもの)を用いることで、時間的な整合性を担保しており、このテンプレートの精度を上げることに注力することで全体の品質を上げるという方針を立てている。また、除去対象を自動で追従する仕組みも用意している。また、機械学習に主眼をおいていないというのも珍しい。

結果

被験者実験において、分散が広いものの他の手法と比べて高い結果を示している。また、定量評価においては本手法のいずれかのバリエーションが他の手法に勝っているという表現を選んでいる。

その他(なぜ通ったか?等)

https://github.com/donglao/videoinpainting githubページは2021/11/26現在工事中。背景の2D画像を推定し、そのマッピングとして表現する、というのは時間的な変化が大きい背景には弱いものの、整合性・頑強性の点で強い。昨今には珍しくコードがmatlab。