#611
summarized by : 金城 忍
Understanding Object Dynamics for Interactive Image-to-Video Synthesis

どんな論文か?

RNNに物体の特徴量及び、時間ステップ毎の物体の特徴量及び、指定位置の情報を与え、指定された物体の指定された位置までの動きに関する系列情報を学習する一方で、各時間ステップ毎に生成された画像を識別器にかけることで、物体の移動系列を描写する動画を精細に生成する提案

新規性

指定された物体の目標値まで移動するまでの段階を任意の回数の離散化させることでより自然な動きで動画を合成するという点で新規

結果

Poking-Plants、iPER、Tai-Chi-HD及びHuman3.6mで、事前学習したVGGを特徴量抽出器として使用した評価では提案手法は、動画に対する予測では既存手法より良い結果を達成し、手法別の動画合成でも既存手法より良い結果を達成した (PSNR+Poking-Plants、SSIM+{TaiChi, Human3.6m}を除く)

その他(なぜ通ったか?等)