- …
- …
#423
summarized by : Takeru Oba
どんな論文か?
自動運転などにおいては,あらゆるケースを想定して,モデルが誤った予測をしないかをテストする必要がある.しかし,実際にすべてのケースをテストするのは計算コストが高すぎるため現実的ではない.そこで,本論文では敵対的な手法を提案し,モデルが失敗しやすいようなケースを生成することで,効率的にテストをする.
新規性
提案手法では,事前に決められた危険度を測る関数の値を最大化するように,車の軌跡に摂動を加える(敵対的学習).また,車の軌跡を変化に伴いLiDARから得られるセンサーデータも変化させる方法についても提案した.
結果
既存データセットに,提案手法でデータを変化させた時,どれだけ失敗(車の衝突など)が増加するかを調べた.その結果,様々なモデルにおいて,失敗率が上昇したことから,モデルの失敗するようなケースの生成に成功していることを示した.
その他(なぜ通ったか?等)
- …
- …