#18
summarized by : Kota Yoshida
Fooling Network Interpretation in Image Classification

どんな論文か?

Adversarialなパッチは,DNNの誤分類を引き起こすのに有効である.ただし,これらのパッチは標準のネットワーク解釈アルゴリズムを使用して強調表示されているため,攻撃者の身元が明らかになる. 本研究では,予測結果を欺くだけでなく,Grad-CAMによる予測の根拠を変更するAdversarialなパッチを作成する手法を提案.
placeholder

新規性

識別器と結果のカテゴリの解釈の両方を欺く敵対的なパッチを構築するための新しいアルゴリズムを導入. Grad-CAMからOclusion Patchに一般化,初見の画像に対する一般化,GAINを欺くことができることを示し.また攻撃の署名を隠すために解釈を均一にすることが可能.

結果

Grad-CAMによる実験結果の図を比較するとAdversarial patchはパッチのに着目部分があたっているのに対して,提案手法ではパッチ以外に着目部分があたっている.

その他(なぜ通ったか?等)

本研究は,ネットワークの根本的な意思決定プロセスを真に説明する,よりロバストなネットワーク解釈ツールの開発を促進すると述べている.