#593
summarized by : Anonymous
Smooth Maximum Unit: Smooth Activation Function for Deep Networks Using Smoothing Maximum Technique

どんな論文か?

ReLUよりも精度が向上する新しい活性化関数SMU,SMU-1を提案.ReLUからこれらの関数に活性化関数を置き換えることで,いくつかのタスクで精度が改善したことを提示し,実験的に提案された活性化関数の有効性を示した.
placeholder

新規性

本論文では,ReLUに変わる活性化関数として,最大関数の近似にもとずく2つの新しい活性化関数を提案した.ReLUにはネットワークの学習中に最大50%のニューロング死んでしまうdying RelU,「死にゆくReLU問題」という欠点がある.それらを改善するために生まれたのがLeaky ReLuなどの活性化関数である.

結果

CIFAR100データセットにおいて、ShuffleNet V2、PreActResNet-50、ResNet-50、SeNet-50モデルでTop-1分類精度がそれぞれ6.22%、3.39%、3.51%、3.08%改善された. 添付した画像では,ReLUとSMU,SMU-1の各アーキテクチャにおける性能比較を紹介する.

その他(なぜ通ったか?等)