#321
summarized by : Kazuki Omi
Task Adaptive Parameter Sharing for Multi-Task Learning

どんな論文か?

マルチタスク学習に関する論文. 事前学習済みの既存のモデルの層をターゲットタスク毎に適応的にファインチューニングさせるTask Adaptive Parameter Sharing (TAPS)を提案している. つまり層毎にファインチューニングするかそのまま使うかの選択をタスク毎に行う.
placeholder

新規性

層毎にファインチューニングする場合はペナルティを課す損失関数を導入し,さらに微分可能とすることで,可能な限りパラメータを増やさず(ファインチューニングせず事前学習済モデルの重みを使用し),ターゲットタスクの性能を下げないことを可能とした. また,事前学習時のタスクとの類似性やタスクの複雑さに応じて,手動ではなくTAPSによってネットワーク全体を最適化できる.

結果

ResNet, DenseNet, ViTでTAPSは有効であることを示した.

その他(なぜ通ったか?等)

TAPSの有効性を3つのアーキテクチャで示したことが採択につながったと考えられる.