summarized by : Tosho Hirasawa
Jointly Masked Sequence-to-Sequence Model for Non-Autoregressive Neural Machine Translation

概要

非自己回帰MTにおける multimodality problem (特に繰り返し) を解消したい
placeholder

新規性

decoder 側のパラメータを bigram な Masked 言語モデルを使い、MT と同時に学習することで、同じ単語が繰り返し出力される問題を低減させた。

結果

評価セットにおける繰り返しの回数が 2.30 から 0.17 へと顕著に減少した。また、モデルの全体的な性能も向上した。