#114
summarized by : Takuma Yagi
Learning for Single-Shot Confidence Calibration in Deep Neural Networks Through Stochastic Inferences

どんな論文か?

深層学習において正解率と確信度のcalibrationを行う手法の提案。確率的予測のばらつきに基づく新しい損失関数を提案。
placeholder

新規性

クラス予測確率のばらつきと正解率とに相関があることの発見。それを考慮した損失項の提案。

結果

複数のネットワークおよびデータセットにおいて制度を維持または改善しつつ少ないキャリブレーション誤差を達成。後処理ベースの手法に対しても優位。

その他(なぜ通ったか?等)

確率のキャリブレーション問題は実応用において重要で必要性が高い。問題意識も手法もクリアで読みやすい。提案手法もシンプルながら有効。