- …
- …
#19
summarized by : Kota Yoshida
どんな論文か?
ルール縛られたAdversarialな摂動に対してロバストなDNNをトレーニングできることが示されているが,大規模なネットワークでの最適化の拡張が困難である.本研究では,Interval bound propagation (IBP)を活用して,適切なハイパーパラメータや損失関数によって大規模なDNNをAdversarialな摂動に対してロバストなトレーニングする方法を示す.
新規性
最悪の場合のロジットに対応した損失関数を使用し,ニューラルネットワークの最終出力の全結合層を削除することで,最も低くするようなロジットの場合の推定結果を改善する.
結果
MNIST、CIFAR-10、SVHN、およびダウンスケールしたImageNetで検証し,IBPは計算コストが低いだけでなく、単一モデルアーキテクチャの最高精度を実現した.
その他(なぜ通ったか?等)
github: https://github. com/deepmind/interval-bound-propagation
- …
- …