#18
summarized by : K. Nakata
Improving Neural Network Efficiency via Post-Training Quantization With Adaptive Floating-Point

どんな論文か?

Post-Training Quantization向けに、浮動小数点の標準的な表記であるIEEE-754フォーマットを変形し、指数部と仮数部のビットの配分を柔軟に変えられるAdaptive Floating-Point (AFP)という独自のフォーマットを提案した論文。量子化誤差と推論の計算コストの両方を加味しながらベイズ最適化でビットの配分を自動で調整可能なフレームワークも開発。
placeholder

新規性

指数部と仮数部のビットの配分を柔軟に変えられるAdaptive Floating-Point (AFP)というフォーマットとその最適な設定の探し方

結果

32ビットから平均5ビットに量子化したときのImageNetの認識精度の劣化をResNet-50で0.04%, MobileNet-V2で0.6%に抑えている

その他(なぜ通ったか?等)

PyTorchの実装が近日公開予定 (https://github.com/MXHX7199/ICCV_2021_AFP)