- …
- …
#29 #acl2020
summarized by : sobamchan
概要
教師なし要約で,latent variable から生成する方法では,内容が一致しない傾向がある.beam search で目的関数を最大化するように生成する方法では,source sentence の最初の数文字から bias を受ける.
これを解決するために,提案手法は,source から直接単語を選択する手法である.最初はランダムに単語を選択し,そこから 1 単語ごと入れ替えていき,結果として目的関数値を改善するなら保持,そうでなければ取り消すということを繰り返す (first choice hill-climbing).
目的関数には,文の fluency と source への semantic similarity を利用する.
新規性
教師なし要約において,first choice hill-climbing を利用して,目的関数を最大化するように探索を行なった手法が新しい.
結果
DUC2004 と Gigaword headline generation で強い教師なしベースラインを上回った.
- …
- …