- …
- …
#67 #acl2020
summarized by : cfiken
概要
対話システムにおいて、通常の対数尤度最適化(MLE)では解決できない問題として (1) context のコピーに頼りがち (2) 発話に繰り返しを含む (3) 頻出単語の使いすぎ (4) 論理的破綻、などがある。本研究では、unlikelihood loss を活用することで1-3の課題を抑制し、かつ NLI タスクのデータに unlikelihood loss を活用することで4つ目の課題も改善した。
複数の対話タスクでの実験で本手法の効果を確認している。
新規性
unlikelihood loss を対話タスクに適用した。
NLI タスクのデータセットに unlikelihood loss を活用した。
結果
コピーと繰り返しについて PersonaChat, Wizard of Wikipedia, ELI5 のデータセットで実験。
MLE に比べて、言語モデルのPPLは維持しつつ、大きくコピーや繰り返しの割合が減らすことができた。
Dialogue NLI のデータでの実験では、contradicting なデータの出力確率がベースラインに比べて大きく下がったことを確認した。人手評価でも MLE に比べて高評価。
- …
- …