#423
summarized by : Takeru Oba
AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles

どんな論文か?

自動運転などにおいては,あらゆるケースを想定して,モデルが誤った予測をしないかをテストする必要がある.しかし,実際にすべてのケースをテストするのは計算コストが高すぎるため現実的ではない.そこで,本論文では敵対的な手法を提案し,モデルが失敗しやすいようなケースを生成することで,効率的にテストをする.
placeholder

新規性

提案手法では,事前に決められた危険度を測る関数の値を最大化するように,車の軌跡に摂動を加える(敵対的学習).また,車の軌跡を変化に伴いLiDARから得られるセンサーデータも変化させる方法についても提案した.

結果

既存データセットに,提案手法でデータを変化させた時,どれだけ失敗(車の衝突など)が増加するかを調べた.その結果,様々なモデルにおいて,失敗率が上昇したことから,モデルの失敗するようなケースの生成に成功していることを示した.

その他(なぜ通ったか?等)