summarized by : Shintaro Yamamoto
SciBERT: A Pretrained Language Model for Scientific Text

概要

BERTなどの事前学習済み言語モデルがニュース記事やwikipediaの文章を学習に用いているのに対して,科学論文を用いて学習データを行うSCIBERTを提案した.

新規性

Computer Science及びBiomedical分野の論文約100万本を用いてBERTの学習を行った.その際ボキャブラリーもBERTのものとは異なり学習データより新たに構築をした.

結果

科学論文を題材としてNamed Entity Recognitionなど5つのタスクを考え,通常のBERTよりも精度が向上することを確認した.