- …
- …
#342
summarized by : Akihiro FUJII
どんな論文か?
カテゴリでデータ数に偏りがあるlong tailedデータセットでは、学習と評価のラベル分布が異なることが精度劣化の原因になると考え、分布の補正項をいれたPC Softmaxを提案。また、学習段階でラベル分布を切り離すLADE損失を提案し、long tailedデータセットにおいて、SotA性能を達成した。
新規性
学習と評価データのラベル分布が異なることが精度劣化の原因になると考え、Donsker-Varadhan表現を用いて、学習データのラベルの分布を損失から分離するLAbel distribution DisEntangling損失を提案。データの数に左右されることなく、確信度の高さと正解ラベルの一致性を向上させることができる。
結果
CIFAR-100-LT, Places-LT, ImageNet-LT, and iNaturalist 2018でSotA性能を獲得
その他(なぜ通ったか?等)
https://github.com/hyperconnect/LADE/
- …
- …