#155
summarized by : Hirokatsu Kataoka
Do Explanations Explain? Model Knows Best

どんな論文か?

深層学習を用いた画像認識における説明性とは、多くの場合「画像のどの部分を見て認識結果を出力したか?」に着目されている。どの出力結果が信頼できるのか、という疑問から認識モデル自体の説明性に関する評価指標を導入。
placeholder

新規性

画像認識の説明性評価のための指標を導入したこと。

結果

Null Feature Experiment(識別結果に寄与しない領域追加)、Class Sensitivity Experiment(画像クラスに対する敏感性)などを評価し、可視化手法自体の評価をできるようにした。

その他(なぜ通ったか?等)