#636
summarized by : 金城 忍
Activate or Not: Learning Customized Activation

どんな論文か?

Smooth maximum functionを使ってmaxオペレータを活性化関数 (シグモイド) を利用して近似し、学習可能な関数をその活性化を通すことで、適応的な活性化をする提案

新規性

非線形処理で使用されているmaxオペレータを近似し動的に非線形からの出力を活性化させるという点で新規

結果

ImageNetを使用し、ResNet-{18, 50, 101, 152}、MobileNetV{1, 2}及びShuffleNetV2でのReLUとの比較においては提案手法が良い結果となる一方で、計算量に変化はなくまたパラメータ数にも大きな違いは確認されなかった (ShuffleNetV1 1.5xを除く)

その他(なぜ通ったか?等)