#69
summarized by : 日坂 幸次
Self-Mutual Distillation Learning for Continuous Sign Language Recognition

どんな論文か?

近年、深層学習により、ビデオベースの連続手話認識(CSLR)が大きく前進しています。

新規性

本論文では、視覚モジュールと文脈モジュールに短期情報と長期情報への注力を強制し、両モジュールの識別力を同時に向上させるSelf-Mutual Knowledge Distillation (SMKD) 法を提案する。 具体的には、視覚モジュールと文脈モジュールは、それぞれに対応する分類器の重みを共有し、同時にCTCロスを同時に発生させます。

結果

2つのCSLRベンチマークを用いて実験を行う。PHOENIX14とPHOENIX14-Tの2つのCSLRベンチマークで実験を行う。実験結果は、SMKDの有効性を示している。

その他(なぜ通ったか?等)