- …
- …
#269
summarized by : Hideki Tsunashima
どんな論文か?
事前訓練モデルを用いて新しいデータセットに適合させるためにfine-tuningを行うことはコストがとてもかかり、モデルとして巨大になってしまう。
そこで、本論文では事前訓練モデルに加えて小さいサイズの訓練済みの畳み込みブロックを用い、最適な組み合わせを探索することでfine-tuningに匹敵する精度を叩き出しながら、パラメータ数を大幅に削減した。
新規性
事前訓練モデルを使用する利点はそのままに、小さいサイズの訓練済みの畳み込みブロックを組み合わせるというシンプルながら、fine-tuningに匹敵する精度を出しながらパラメータ数を大幅に削減可能な手法を提案した点
結果
各データセットにおいて精度はfine-tuningしたモデルとほぼ変わらないか上回る値を出し、パラメータ数は総じて1/5ほどに削減している。
その他(なぜ通ったか?等)
事前訓練モデルを用いて新しいデータセットに適合させるモデルはパラメータ数を削減することが出来なかったが、精度とパラメータ数の少なさ、計算量の少なさ全てを兼ね備えた強力な手法を提案したことから通ったと考えられる。
- …
- …