#574
summarized by : 山縣英介
Boosting the Transferability of Adversarial Samples via Attention

どんな論文か?

敵対的サンプルのtransferabilityを阻害するソースモデルに対する過学習を解消することによってtransferabilityを向上させた手法を提案する論文.
placeholder

新規性

異なるモデルであっても,抽出した特徴量に対するattentionは似通っているだろうということを利用し,attentionを抽出し最もクリティカルな特徴量を中心に劣化させるような学習を行う.

結果

ImageNetで学習したソースモデルとNeurIPS 2017 adversarial competitionで登場したデータセットで学習したターゲットモデルで実験.Blackboxな設定,防御あり・なし両方の場合でSOTA,whiteboxな場合でcomparable.

その他(なぜ通ったか?等)

攻撃手段の内whiteboxよりもblackboxの方が実用性が高く,かつ転移ベースの手法はクエリーベースの手法よりも計算コストが少ない.転移ベースの欠点であった精度を計算コストとのトレードオフにはせずに向上させた点で評価できる.