- …
- …
#321
summarized by : Kazuki Omi
どんな論文か?
マルチタスク学習に関する論文.
事前学習済みの既存のモデルの層をターゲットタスク毎に適応的にファインチューニングさせるTask Adaptive Parameter Sharing (TAPS)を提案している.
つまり層毎にファインチューニングするかそのまま使うかの選択をタスク毎に行う.
新規性
層毎にファインチューニングする場合はペナルティを課す損失関数を導入し,さらに微分可能とすることで,可能な限りパラメータを増やさず(ファインチューニングせず事前学習済モデルの重みを使用し),ターゲットタスクの性能を下げないことを可能とした.
また,事前学習時のタスクとの類似性やタスクの複雑さに応じて,手動ではなくTAPSによってネットワーク全体を最適化できる.
結果
ResNet, DenseNet, ViTでTAPSは有効であることを示した.
その他(なぜ通ったか?等)
TAPSの有効性を3つのアーキテクチャで示したことが採択につながったと考えられる.
- …
- …