- …
- …
#584
summarized by : Yuma Ochi
どんな論文か?
元々のデータが均衡でもPseudo-Labelsは自然と不均衡になってしまうことを発見し、Pseudo-Labelsのバイアスを減らすようなモデル学習手法を提案。SSLやZSLでSoTA達成。
新規性
従来手法と比較して、本手法の特徴は 1) データの真の分布の情報が不要 2) 均衡/不均衡関わらず機能する 3) 訓練時と推論時のデータが異なる分布でも機能する ことが挙げられる。
結果
CIFAR-10、long tailed CIFAR-10を用いたSSL学習において、最大26%の向上をマークし、SoTA達成した。ZSL学習でもSoTAを達成した。また、ドメインシフトさせた場合でも、うまく機能し、ロバスト性も示された。
その他(なぜ通ったか?等)
https://github.com/frank-xwang/debiased-pseudo-labeling
反実仮想のドメインから手法を提案しているところも興味深い。
- …
- …