#39
summarized by : Yue Qiu
Vision-Language Navigation With Self-Supervised Auxiliary Reasoning Tasks

どんな論文か?

Vision-Language Navigation (VLN)タスクにおいてSOTAな精度を達成した新たなモデルの提案.提案モデルは4つの付加のSub-taskを導入し,SceneのSemantic情報を利用し,精度向上を達成.
placeholder

新規性

①新たなSPL(Success weighted by Path Length)精度を達成;②VLNタスクにおいて,付加タスクの導入により精度向上させる工夫.

結果

①seen environmentにおいてBaselineより3.45% SPLを向上;②Finetuned on unseen 環境で従来のBaseline手法より65%, 4%向上できた.

その他(なぜ通ったか?等)

①Sub-taskを導入することにより,VLNタスクの既存手法で利用されてこなかった豊なSemantic Scene情報を利用可能にした.②VLNのChallengeに優勝;