#97
summarized by : Tsubura Kazuki
LSTA: Long Short-Term Attention for Egocentric Action Recognition

どんな論文か?

行動認識タスクにおいて多くの手法は,大規模な教師データやアテンション機構に基づいているが,教師データ量を抑えることや,時空間のパターンに関して考慮していない.ビデオシークエンス全体でアテンションをスムーズに追跡しつつ,関連する空間特徴に焦点を合わせるためのアルゴリズムとして,Long Short- Term Attention(LSTA)を提案.
placeholder

新規性

入力シークエンス内の識別情報が,空間的にローカライズされる可能性がある場合において,LSTMの欠点に対処するLSTAを提案.クロスモーダルフュージョンのバイアスパラメータの新しい制御法を用いることで,LSTAを2ストリームアーキテクチャに適用.

結果

アブレーションスタディーを行い,2つのコンポーネントを追加することが有効であることを証明している.

その他(なぜ通ったか?等)

LSTMの拡張機構を考案したことが大きな貢献点ではないか.アブレーションスタディを行うことで,提案手法の有効性を確実に提示している.