#863
summarized by : Yusuke Mori
Regularizing Activation Distribution for Training Binarized Deep Networks

どんな論文か?

リソースが限られたデバイスにおいて、 Binarized Neural Networks (BNNs) はレイテンシや消費電力の面で効果的であるが、学習面で Degeneration, Saturation, Gradient Mismatch という困難がある。本研究では、 distribution loss としてロス関数の中に正則化を組み込み、これらの問題の発生を抑える。
placeholder

新規性

BNN の精度を向上させるために活性化分布を明示的に正則化するフレームワークを提案した。

結果

distribution loss を導入することで、消費電力の効率を損なうことなく、 BNN の精度を向上させることができることが示された。

その他(なぜ通ったか?等)