#869
summarized by : Asato Matsumoto
Meta-Learning of Neural Architectures for Few-Shot Learning

どんな論文か?

Neural Architecture Search (NAS)を実行するには大量のラベル付けされたデータと計算資源が必要である。このため、few-shot learningにNASを適用するのはこんなである。そこで本研究では勾配ベースのメタ学習とNASを組み合わせたMetaNASを提案した。
placeholder

新規性

少ないデータで重みとアーキテクチャを最適化するMetaNASを提案したこと。様々なタスクで重みとアーキテクチャを学習しそれらの結果を1つに統合することで最適な重みとアーキテクチャを獲得する。MetaNASは特定のモデルやメタ学習法に依存せず、タスクごとに固有のアーキテクチャを獲得することができる。

結果

Omniglot、MiniImageNetのデータセットで、探索したアーキテクチャの正解率で評価を行った。実験からアーキテクチャ探索手法であるDARTSとメタ学習手法であるPEPTILEを組み合わせたMetaNASが、PEPTILEやAutoMeta単体と比較して高い性能を発揮することが示された。

その他(なぜ通ったか?等)