#613
summarized by : 古澤嘉久
Towards Visually Explaining Variational Autoencoders

どんな論文か?

VAEやGANなどの生成モデルに対して.判断根拠の入力部分の可視化を行う手法の提案と得られたAttention Mapを使用したAttention Disentanglement Loss(AD Loss)を提案した.

新規性

可視化のベースになる手法はGrad-CAMであり,VAEを用いた異常検知モデルの場合は,正常データと異常データの潜在ベクトル間の差分を正規差分分布で計算されたスコアから逆伝搬することで,特徴マップの重みを計算する.また,AD Lossは,正常データと異常データの潜在ベクトルから計算されたAttention Mapの領域が離れるような潜在表現を獲得するための損失関数.

結果

Dsprites datasetを使用した場合では,他のβ-VAEなどの手法と比べてdisentanglement metricが高く,再構成誤差が小さくなった.AD Lossによって学習されたモデルを提案手法によって,それぞれの潜在ベクトルに対して可視化した場合に,他の手法と比べてそれぞれのマップの注目領域が分散している様子が確認された.

その他(なぜ通ったか?等)