- …
- …
#138
summarized by : 平澤寅庄
どんな論文か?
任意の活性化関数に適用可能な relevance propagation 手法を使うことで、Transformer にも適用可能な LRP (Layer-wise Relevancy Propagation) な可視化手法を提案している。
言語およびビジョンのタスクで有効性を示した。
新規性
非負な入力要素のみで relevance propagation を行うことで、非負な活性化関数に限定されていた LRP の適用範囲を広げた。
また、正規化を導入することで、self attention や skip connection での計算で発生する問題を解決している。
加えて、出力層の任意のクラスの尤度を LRP の起点とすることで、クラス毎の可視化を行うことを可能としている。
結果
言語・ビジョンの両ドメインにおいて、定量・定性的な評価の両方で、既存手法を上回る性能を達成している。
また、クラス別可視化では、複数存在するオブジェクト毎の可視化に成功している。
その他(なぜ通ったか?等)
Emperical な手法ではあるが、単純な修正で LRP を Transformer に適用できるようになった。クラス別の可視化を簡単に切り替えられることは、分析やモデルの評価と適用範囲が広い。
コード:https://github.com/hila-chefer/Transformer-Explainability
- …
- …