#124
summarized by : Ryo Takahashi
Towards Fairness in Visual Recognition: Effective Strategies for Bias Mitigation

どんな論文か?

コンピュータービジョンの様々な分野においてデータセット内に存在する不適切なバイアスを取り除く研究がなされているが,それらの手法に関する統一的な比較がなされてきていないという問題がある.そこで,データセットバイアスをシンプルな形で定め,バイアスを取り除く諸々の手法(敵対的学習,クラス分類モデルデカップリング等)を比較検討した.

新規性

・データセットバイアスを単純な形で定式化した.CIFAR-10のクラス分類において白黒画像/カラー画像の割合を半分のクラスでは95:5に,残りのクラスでは5:95により分けることにより,特定のクラスにおいて分類タスクとは無関係なバイアスが存在している状況を設定した. ・バイアスを除去する新たな手法を提案した.クラス分類モデルをバイアスごとに分割することによりバイアスを無視するという方法を提案した.

結果

上記設定において,一般的に無視すべき属性ラベルの影響を排除するために用いられる敵対的学習の手法よりも著者らが提案するデカップリングを行う手法の方が有効にバイアスを除去できることを示した.また,カラー画像・白黒画像というバイアスだけでなく顔画像における男性・女性というバイアスでも検証を行い,同様の傾向を確認した.

その他(なぜ通ったか?等)

手法的新規性よりも,公平性を比較できるベンチマークを作成したことに意義があると考えられる.公平性というこれから重要になっていくであろうトピックに対して一般的なベンチマーク手法を提案した本論文は無視できない影響がある.