#201
summarized by : Tomoya Nitta
FAM: Visual Explanations for the Feature Representations From Deep Convolutional Networks

どんな論文か?

CNNにおける認識の説明を示すsaliency mapの生成手法としてFAMを提案した。既存手法のCAMなどと違って認識結果の各classにの寄与に関するsaliency mapを生成するのでなく、特徴表現に関するsaliency mapを生成する。
placeholder

新規性

CAM系の手法と違ってclassifierの必要がなく、self-surpervised learningをしたモデルに対して適用可能で、実行したself-surpervised learningが効果的なものであるかを視覚的に判断することができる。

結果

Person Re-Identificationタスクにおいて既存手法より解釈可能な視覚的説明を提供することができた。

その他(なぜ通ったか?等)

他の手法と比べて説明可能性があるかは個人的には判断ができないと思ったが、特徴量表現に対してActivation mapが生成されるという考えは斬新だと思った。