#695
summarized by : siida
Progressive Attention Memory Network for Movie Story Question Answering

どんな論文か?

Visual QAよりも挑戦的なMovie story QA taskにおいて、Progressive Attention Memory Network(PAMN)モデルを提案する。
placeholder

新規性

PAMNは複数の構成要素を持つ。(1)stacked attentionに対してはQAのような複数のソースを扱える点,(2)bilinear operationに対して軽量な点,(3)既存のmemory networkに対してはマルチホップ構造を持つ点, が新規性。

結果

MovieQAのベンチマークにおいて、test dataを使った実験で既存の手法よりも優れたaccuracyを示した。また、timestamp情報を削除したTVQAのベンチマークにおいてSOTAを達成した。

その他(なぜ通ったか?等)

Movie QAにおける多くの先行研究を比較対象としそれらに対してSOTAを達成している点と、発想は単純だが構造の複雑なMulti-source, multi-encoderモデルの実装に成功し、その説明が丁寧である点が評価されたのだと思われる。