#19
summarized by : Yukitaka Tsuchiya
DTVNet: Dynamic Time-lapse Video Generation via Single Still Image

どんな論文か?

一枚の静止画からend-to-endでタイムラプス動画を生成する手法を提案.
placeholder

新規性

Optical Flow EncoderとDynamic Video Generatorから構成されるDTVNetを提案.テスト時にはフロー推定の部分は必要とせず,動きベクトルとして正規分布から直接サンプリングを行うことで多様な動き情報を表現可能.

結果

Sky Time-lapse datasetを用いて,PSNR, SSIM, Flow-MSEで既存のビデオ生成手法と数値評価を行った.Flow-MSEで動きの評価を行う. 画像とビデオのクオリティを,提案手法 vs GT,従来手法 vs GTで評価を行い比較した.また,提案手法 vs 従来手法,では圧倒的に提案手法が良いということが示された.

その他(なぜ通ったか?等)

著者コード(PyTorch):[https://github.com/zhangzjn/DTVNet]