#270
summarized by : Hiroaki Aizawa
A Disentangling Invertible Interpretation Network for Explaining Latent Representations

どんな論文か?

End2Endなニューラルネットの欠点は,ブラックボックスであり,特徴表現の解釈性がない.この研究では,AutoEncoderなどで学習された特徴表現を,人間が理解しやすい意味のある概念を示す表現へ,disentanglementするためのinvertibleな関数を提案.
placeholder

新規性

既存のdisentangled な画像生成と異なり,AutoEncoderに取り付けるだけでよく,再学習の必要がないと主張.

結果

学習された表現の次元をinterpolationすることから,性能を低下させることなく,解釈性のある意味のある潜在表現へ分解できていることを示した.

その他(なぜ通ったか?等)