#584
summarized by : Yuma Ochi
Debiased Learning From Naturally Imbalanced Pseudo-Labels

どんな論文か?

元々のデータが均衡でもPseudo-Labelsは自然と不均衡になってしまうことを発見し、Pseudo-Labelsのバイアスを減らすようなモデル学習手法を提案。SSLやZSLでSoTA達成。
placeholder

新規性

従来手法と比較して、本手法の特徴は 1) データの真の分布の情報が不要 2) 均衡/不均衡関わらず機能する 3) 訓練時と推論時のデータが異なる分布でも機能する ことが挙げられる。

結果

CIFAR-10、long tailed CIFAR-10を用いたSSL学習において、最大26%の向上をマークし、SoTA達成した。ZSL学習でもSoTAを達成した。また、ドメインシフトさせた場合でも、うまく機能し、ロバスト性も示された。

その他(なぜ通ったか?等)

https://github.com/frank-xwang/debiased-pseudo-labeling 反実仮想のドメインから手法を提案しているところも興味深い。