- …
- …
#869
summarized by : Asato Matsumoto
どんな論文か?
Neural Architecture Search (NAS)を実行するには大量のラベル付けされたデータと計算資源が必要である。このため、few-shot learningにNASを適用するのはこんなである。そこで本研究では勾配ベースのメタ学習とNASを組み合わせたMetaNASを提案した。
新規性
少ないデータで重みとアーキテクチャを最適化するMetaNASを提案したこと。様々なタスクで重みとアーキテクチャを学習しそれらの結果を1つに統合することで最適な重みとアーキテクチャを獲得する。MetaNASは特定のモデルやメタ学習法に依存せず、タスクごとに固有のアーキテクチャを獲得することができる。
結果
Omniglot、MiniImageNetのデータセットで、探索したアーキテクチャの正解率で評価を行った。実験からアーキテクチャ探索手法であるDARTSとメタ学習手法であるPEPTILEを組み合わせたMetaNASが、PEPTILEやAutoMeta単体と比較して高い性能を発揮することが示された。
その他(なぜ通ったか?等)
- …
- …