【论文】【ACL2018】Neural Document Summarization by Jointly Learning to Score and Select Sentences

论文题目:Neural Document Summarization by Jointly Learning to Score and Select Sentences. 

论文作者:Qingyu Zhou, Nan Yang, Furu Wei, Shaohan Huang, Ming Zhou, Tiejun Zhao.

下载链接:https://aclweb.org/anthology/P18-1061

代码开源:https://github.com/magic282/NeuSum

 

太长不看版

本文提出了一种端到端的抽取式文本摘要模型(NEUSUM)。

该模型将选择策略集成到打分模型中,解决了此前抽取式文本摘要中句子打分和句子选择这两部分割裂的问题,端到端且不再需要人为干预。

并达到了 CNN/Daily Mail 数据集的 state-of-the-art

 

主要思想

基于深度学习的抽取式摘要的方法基本分为以下四个步骤:句子编码、文章编码、句子打分、摘要选择。

 

这其中摘要选择部分的顺利进行依赖于句子可以很好的打分,然而在此前的研究方法句子打分与句子选择(即摘要选择)这两个环节常常被割裂开来。

 

本文针对这一现象,提出了一种端到端的抽取式文本摘要模型(NEUSUM),将选择策略集成到打分模型中,解决了此前抽取式文本摘要中句子打分和句子选择这两部分割裂的问题端到端且不再需要人为干预并达到了 CNN/Daily Mail 的 state-of-the-art

问题定义

抽取式摘要的目的在于抽取能够包含文章重要信息的句子,句子打分越高,其包含的信息越重要,越成为表示文章的摘要句。

 

本模型的训练目标即学到一个score function(打分函数)g,该函数计算加入当前句子后生成的摘要能得到的ROUGE F1的收益。

 

公式中函数 r 即表ROUGE F1。S表示当前句子与已经选出的句子集合。在每一个时间步 t,模型会选出能够得到最大收益(即使函数 得到最大值的句子)直至达到摘要限制长度。

 

 

 

模型结构

基于深度学习的抽取式摘要的方法基本分为以下四个步骤:句子编码、文章编码、句子打分、摘要选择。

 

1-2)Document & Sentence Encoding:句子编码、文章编码使用BiGRU

3-4)Sentence Scoring and Selection:句子打分、摘要选择融合到一起

 

融合到一起的好处

a. 句子打分时可以看到前面句子的信息(前人方法的句子打分时句子间相对独立)

b. 打分函数 的存在简化了句子选择模块

 

句子打分的具体实现:

句子打分需要同时考虑当前句子的重要性和已经选出的summary,此处加入另一个GRU。在GRU之上连接句子打分器(scorer)。

The sentence scorer 是一个双层MLP,有两个输入向量:current hidden ht 和 sentence vector si。公式如下(有bias,为了简化在公式中省略)

 

 

损失函数:

Objective Function:KL-loss-function

 

数据构建

CNN/Daily Mail 是人为标注的生成式摘要的数据集。本文构建抽取式摘要训练数据的方法是 maximizing the ROUGE-2 F1 score

 

数据预处理部分(包括sentence splitting, word tokenization)参照See et al. (2017), 使用非匿名版本。

 

CNN/Daily Mail 数据集统计如下表:

实验结果:

结论

本文的方法与以前的方法最大的不同之处在于,它将句子评分和选择结合成一个阶段。

每次选择一个句子,根据已输出摘要和当前状态对句子进行评分。

最终的ROUGE评价结果表明,本文提出的联合评分和选择方法明显优于以往的分离方法。

 

本文来自程序媛驿站,未经授权不得转载.

如有需要请公众号后台联系

(欢迎转发到朋友圈~)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章