#685
summarized by : Masanori YANO
Fast Sparse ConvNets

どんな論文か?

重みを疎(Sparse)にしたニューラルネットワークを高速に計算できるSpMMをXNNPACKライブラリに実装し、MobileNetアーキテクチャで有効性を確認した。
placeholder

新規性

1×1の畳み込み層の計算において、疎な重み行列をCHWフォーマットで適切に並べることにより、キャッシュメモリのヒット率を高めて高速化できるSpMMを提案した。

結果

SnapdragonシリーズのARMアーキテクチャ及びWebAssemblyのIntelアーキテクチャのハードウェアで、重みが密な場合と疎な場合の学習結果をImageNetデータセットで比較し、MobileNetのv1及びv2いずれも疎な重みでも同等のTop-1正解率かつ短い推論時間で、Snapdragon 835では1.3倍から2.4倍に推論が高速化。

その他(なぜ通ったか?等)

専用ハードウェアを使わず、疎な重みの計算を高速化することに独自性があり、かつ有効性を明確に示しているため通ったと考えられる。なお、Resultsで言及されている「EfficientNetの結果のSupplementary Material」はCVPR公式では読めず、arXivの論文( https://arxiv.org/abs/1911.09723 )で確認することができる。