#181
summarized by : hisaka koji
Causal Attention for Vision-Language Tasks

どんな論文か?

注意機構(アテンション)に因果を考慮した因果的注意(Causal Attention: CATT)を導入することにより、視覚言語モデルを改善
placeholder

新規性

因果を学習させる注意機構(アテンション)を提案した点。 他のサンプルを強制的に参加させて因果関係のある介入を模倣。

結果

既存の資格言語モデルLXMERTなどにCATTを組み込むとより重いモデルUNITERを超える性能となった。

その他(なぜ通ったか?等)

https://github.com/yangxuntu/lxmertcatt 因果分析を導入したところが目新しい。 今後因果関係を把握したDeepLearningが増えていくことになるかなと思います。