#1024
summarized by : Ryo Takahashi
Explainable Object-Induced Action Decision for Autonomous Vehicles

どんな論文か?

自動運転における説明性を担保するための新たなデータセットおよびタスクの枠組みを提案した論文.従来の深層学習を用いた自動運転の研究では説明性が不足しているか多段階の学習が判断根拠の一貫性の欠如を招いていると指摘し,妥当な説明に基づいた移動方向の指定ができるようなマルチタスクでの学習のためのデータセットおよびネットワークを考案した.
placeholder

新規性

運転席視点の写真が与えられた時に移動方向の推定を行うというタスクにおいて,従来研究では移動方向の推定のみを行っていたのに対し本研究では判断根拠と移動方向のマルチラベルでの推定を行うような課題設定とした. また,この課題に対して大域特徴と局所特徴のそれぞれを処理する検出器を用いることで判断根拠の洗練化を図った.

結果

ablation studyにより,大域特徴と局所特徴とを組み合わせて使用する提案手法が最も優れていることがわかった. また,判断根拠を推定しない従来手法よりも判断根拠の推定を同時に行うようにした提案手法の方が高い精度での推論を行えることが確認できた.

その他(なぜ通ったか?等)

判断根拠の推定を行うことで精度も同時にあげることができるという結果を出せたのが大きな貢献として注目されたと思われる.また,説明性を考慮した大規模データセットを提案しているという点も評価されたと考えられる. アブストラクトがかなりフランクかつ要所を抑えた伝わりやすい書き方となっているため,アブストだけでも一読の価値はある.