#200
summarized by : Yuya Yoshikawa
A Framework for Learning Ante-Hoc Explainable Models via Concepts

どんな論文か?

画像認識の結果を潜在的な概念 (concept)を用いて説明するタスクにおいて、概念についての教師が有っても無くても使える自己説明型深層学習モデルの提案。
placeholder

新規性

自己説明型の深層学習モデルにおいて、教師なし、自己教師あり、教師ありの異なる教師信号のレベルを扱える枠組みを提案したこと。

結果

概念の教師の有無に関わらず、説明の正しさ (faithfulness, fidelty, explanation error) と認識精度の両方で、既存手法 SENN, CBM よりも良い結果となった。

その他(なぜ通ったか?等)

実験コード: https://github.com/tataiani/Ante-hoc_Explainability_Concepts