summarized by : sobamchan
Contrastive Self-Supervised Learning for Commonsense Reasoning

概要

Winograd Schema Challenge (WSC),一般知識を必要とする推論タスク,は人間には当然のように解けるが機械には依然として困難である. BERT の登場を踏まえても,通常の事前学習タスクで得られる情報では,これらのタスクを解くことはできないため,文の論理構造を利用しさらなる事前学習用のデータセットを生成し,BERT の追加 pre-training を行った.
placeholder

新規性

著者ら "trigger" words と呼んでいる変化することで,同文中の代名詞の指示先が変化する単語を差し替えながら,簡易的な推論タスクを自動生成し,BERT の追加事前学習に利用している.

結果

従来の教師なし学習モデルの性能は上回り,さらに教師あり学習モデルと同等の性能を WSC で出した.