- …
- …
#1028
summarized by : a2kiti
新規性
時間方向の畳み込みに対してレイヤー毎にAttentionを持ちいることでフレーム間での重み付けを行い、 さらにチャンネル間での重み付けのためのカーネルAttentionも導入。 時間方向にはマルチスケールに処理することで、受容野の暗黙的な依存性を学習。
結果
Human3.6MでSOTAを達成。 未来のフレームを使わずに過去のフレームだけを使う場合でも 高い精度が得られるため、リアルタイムアプリケーションにも有効。 レイヤー数が多いほどAttentionの寄与が大きくなり、 動画の中に速い動きや自己閉塞が存在する場合に効果的なことがわかった。
その他(なぜ通ったか?等)
- …
- …