summarized by : sobamchan
Discrete Optimization for Unsupervised Sentence Summarization with Word-Level Extraction

概要

教師なし要約で,latent variable から生成する方法では,内容が一致しない傾向がある.beam search で目的関数を最大化するように生成する方法では,source sentence の最初の数文字から bias を受ける. これを解決するために,提案手法は,source から直接単語を選択する手法である.最初はランダムに単語を選択し,そこから 1 単語ごと入れ替えていき,結果として目的関数値を改善するなら保持,そうでなければ取り消すということを繰り返す (first choice hill-climbing). 目的関数には,文の fluency と source への semantic similarity を利用する.
placeholder

新規性

教師なし要約において,first choice hill-climbing を利用して,目的関数を最大化するように探索を行なった手法が新しい.

結果

DUC2004 と Gigaword headline generation で強い教師なしベースラインを上回った.