#801
summarized by : kiyo
Modeling Biological Immunity to Adversarial Examples

どんな論文か?

敵対的サンプルはディープニューラルネットワークによる分類モデルを騙すことができるが、ヒトの視覚を騙すことはできない。ヒトの知覚の頑健さを考察するため、視覚処理の細胞レベルのメカニズムをモデル化することで敵対的サンプルに含まれるノイズの影響を緩和できることを示した。
placeholder

新規性

ヒトの視覚処理を模したモデル(スパースコーディングと側方抑制とフィードバックの組み合わせ)を作製し、それが敵対的サンプルに耐性を持つことを示した。

結果

ILSVRC 2012の画像で検証。通常のResNetや既存の防御手法よりも、敵対的サンプルに対する分類精度がTop-1とTop-5のいずれでも高い。特に、Top-1ではResNetの9.5→35.7、Top-5ではResNetの17.7→67.7。既存手法に対してもTop-1、Top-5のどちらについても10ポイント以上改善。

その他(なぜ通ったか?等)