#47
summarized by : Anonymous
Revisiting Outer Optimization in Adversarial Training

どんな論文か?

AT(敵対的学習)における過学習を抑制した。Momentum SGDは頻繁にATに利用されるが、ミニバッチごとの重み更新のノルムとバリアンスの変動に左右されやすく、過学習に陥りやすい。
placeholder

新規性

MSGDでの重み更新量に制限を設け、ミニバッチごとの変動による過学習を抑制。ミニバッチごとにロス最小化を行うための重み変化に対するロス変化量(勾配)を計算するが、計算量が大きくなることが問題。そこで(摂動付加による?)入力サンプルの変化に対するロス変化量を計算する。実験よりこの2つは相関関係があり、後者で近似することでMSGD計算量を削減することが可能とした。

結果

実験より他のAT手法と比較して、精度良くテストデータの分類を行った。

その他(なぜ通ったか?等)

supplementary material:https://www.ecva.net/papers/eccv_2022/papers_ECCV/papers/136650240-supp.pdf