- …
- …
#733
summarized by : Anonymous
どんな論文か?
unlabeled dataに対する推論結果を擬似ラベルとして用いる,弱教師あり学習の一種のself-trainingにおいて,擬似ラベルやモデルにノイズを乗せた上で,同等かより大きなサイズのモデルを学習(蒸留)することを繰り返すNoisy Student Trainingを提案.
新規性
self-trainingにおいて,学習時にノイズを適切に付与することで,精度や出力の頑健性を向上させることを示した点
結果
Instagram3.5Bデータセットがラベルなしデータとして用いた弱教師あり学習のSOTA手法に対し,より小規模なJFT-300Mデータセットをラベルなしデータとして用いて,ILSVRC2012データセットに対するtop-1 accuracyを約2ポイント改善.また,ImageNet-A top-1 accuracyがで約12ポイント改善するなど,モデルの出力の頑健性向上を確認.
その他(なぜ通ったか?等)
- …
- …