- …
- …
#556
summarized by : Ryo Takahashi
どんな論文か?
コンピュータービジョンの機械学習モデルの判断根拠を可視化する様々な手法に関して,網羅的に調査を行った.従来研究では逆伝播を可視化することにより判断根拠を説明しようと試みているが,実際にはハイパーパラメータなどにより説明が変化してしまうなどの問題が発見された.また,ノイズに対して頑健になるように学習されたモデルではこのような問題が起きづらいということも明らかになった.
新規性
手法的提案はないが,従来の説明モデルの問題点や頑健な学習を行うことによりそれらが解決されるということを明らかにした.特に,ハイパーパラメータが変化することによりモデルの説明が変化するという発見が大きな貢献となっている.
結果
以下の結果が得られている:
・敵対的ノイズを用いて学習したモデルは説明性の点でも優れた特徴抽出になっている
・従来研究で提案されているDenoise explanationは全く違うモデルでも同じ結果をもたらす可能性があり危険である
・従来の説明手法では学習のハイパーパラメータが変化するとモデルの説明も変化してしまう
・敵対的ノイズを用いて学習したモデルでは上記の問題も緩和される
その他(なぜ通ったか?等)
目立った手法的提案はないものの,よく使われる説明手法においてハイパーパラメータの変化によって説明が変化してしまうという点を指摘したのがかなりインパクトがあったと考えられる.
- …
- …