#697
summarized by : Hiroki Ohashi
Equalization Loss for Long-Tailed Object Recognition

どんな論文か?

物体検出におけるlong tailの問題に対処するための手法equalization lossを提案。あるクラスAに対する正例は、A以外のクラスにとっては負例となるため、Aのサンプルが学習に現れる度にA以外のクラスはマイナスの影響を受けることに着目。サンプル数の少ないクラスは正例よりも圧倒的に負例が多く、この影響が大きいため、単に一定の割合で負例を無視するという手法。
placeholder

新規性

クラスごとのサンプル数の分布がlong tailになっているときに、サンプル数の少ないクラスの識別精度が悪くなる理由を新規の視点から考察し、それに対応するためのシンプルなロスを設計した点。

結果

LVISベンチマークにて、通常のロスを使ったMask R-CNNのベースラインに対して、大きな精度向上を確認。他のlong tail問題に対応するための既存手法と比べてもSoTA。また、LVIS Challenge 2019で1位達成。

その他(なぜ通ったか?等)

シンプルな手法ながら、結果がしっかりと出ており、導入した機能一つ一つに対してablationが行われていること、またLVIS Challengeで1位の結果が出ていることも大きいと思われる。