- …
- …
#5 #acl2020
summarized by : sobamchan
概要
Winograd Schema Challenge (WSC),一般知識を必要とする推論タスク,は人間には当然のように解けるが機械には依然として困難である.
BERT の登場を踏まえても,通常の事前学習タスクで得られる情報では,これらのタスクを解くことはできないため,文の論理構造を利用しさらなる事前学習用のデータセットを生成し,BERT の追加 pre-training を行った.
新規性
著者ら "trigger" words と呼んでいる変化することで,同文中の代名詞の指示先が変化する単語を差し替えながら,簡易的な推論タスクを自動生成し,BERT の追加事前学習に利用している.
結果
従来の教師なし学習モデルの性能は上回り,さらに教師あり学習モデルと同等の性能を WSC で出した.
- …
- …