【论文解读 EMNLP 2019 | TLNN】Event Detection with Trigger-Aware Lattice Neural Network

论文题目:Event Detection with Trigger-Aware Lattice Neural Network

论文来源:EMNLP 2019 清华

论文链接:https://www.aclweb.org/anthology/D19-1033/

代码链接:https://github.com/thunlp/TLNN

关键词:事件检测,word-trigger不匹配,trigger多义,LSTM



1 摘要

本文解决的是事件检测问题(ED),ED的目的是在文本中识别出事件触发词并将其分类成正确的事件类型。

对于ED任务,基于神经网络的方法已经成为主流。但是对于没有分隔符的语言,例如中文,就会面临两个问题:

(1)基於单词的模型存在严重的word-trigger不匹配问题,限制了模型的性能;

(2)即使能够准确定位trigger,一词多义现象的存在仍会影响到trigger分类的性能。

为了同时解决这两个问题,本文提出TLNN模型(Trigger-aware Lattice Neural Network):

(1)模型可以动态地合并词和字符信息,从而避免trigger-word不匹配问题

(2)对于多义的字或词,使用外部语言知识库对它的所有含义进行建模

实验结果显示,本文的模型有效地处理了上述两个问题,并超越了state-of-the-art


2 引言

事件检测分为两个子任务:触发词识别(TI)和触发词分类(TC)。这两个子任务分别面临着一个挑战:

(1)trigger-word不匹配问题(TI)

主流的方法大多是基於单词的,对于没有天然分隔符的语言(例如中文),分词操作是一项关键的预处理步骤。但是这些基於单词的方法忽视了一个重要的问题:触发词可能是一个词的一部分或者包含多个词

例如图1 a所示,“射杀”虽然是一个词,但“射”和“杀”是两个触发词。;“示威游行”是由两个词组成的一个触发词。在这种情况下基於单词的方法不能准确识别出触发词。

(2)一词多义问题(TC)

有多种含义的触发词会被分成不同的事件类别。如图1 b所示,“释放”可以表示两种完全不同的事件类型:Attack和Release-Parole。


表1展示了ACE 2005和KBP 2017数据集在上述两种问题上的统计结果:

可以看出trigger-word不匹配和一词多义问题在两个数据集中均占据了不小的比重


本文提出TLNN模型同时解决上述两个问题。

为了避免NLP分词工具带来的误差传播,作者使用字符作为输入序列的基本单元

另外,还使用了HowNet作为外部知识库,对多义的中英文词汇进行标注,以获得sense-level的信息。

然后,作者设计了trigger-aware lattice LSTM作为模型的特征提取器,并同时利用到了character-level, word-level, sense-level的信息。

为了解决trigger-word不匹配问题,作者对每个单词使用short cut paths连接起始字符和结束字符的cell state。注意此处的paths是sense-level的,也就是说以特定字符作为结尾的词的所有词义信息,将会流入到该字符的memory cell中。由于利用了不同粒度的信息(character, word, sense),一词多义问题可以较好地缓解。


3 模型

本文将ED任务看成是序列标注任务,对于每个字符,模型应该能识别出它是否是触发词的一部分,并将触发词正确分类。

模型的结构如图2所示:

模型由3个部分组成:

(1)分级的表示学习(Hierarchical Representation Learning),以无监督的方式学习到character, word和sense级别的嵌入向量;

(2)触发词感知的特征抽取(Trigger-aware Feature Extractor),使用树结构的LSTM模型,自动抽取出不同级别的语义特征;

(3)序列标注(Sequence Tagger),对每个候选的字符计算其是触发词的概率。


3.1 分级的表示学习

(1)字符级别(character level)

给定输入序列S={c1,c2,...,cN}S={\{c_1, c_2, ..., c_N}\}cic_i代表序列中的第ii个字符。使用Skip-Gram方法,为每个字符生成嵌入向量:

(2)词级别(word level)

给定输入序列S={w1,w2,...,wM}S={\{w_1, w_2, ..., w_M}\}wiw_i表示第ii个词。使用bbee两个下标表示一个词的起始和结束,词嵌入为:

(3)词义级别(sense level)

然而,Skip-Gram方法将每个词仅仅映射成了一个嵌入,忽视了多义词的存在。好的表示应该能表示更深的语义信息。因此,作者使用了HowNet作为外部知识库,得到字符或词的多义信息。

对于每个字符cc和每个词ww,在HowNet上可能被标注上了多种意思:sen(ci)S(c)sen^{(c_i)}\in S^{(c)}sen(wi)S(w)sen^{(w_i)}\in S^{(w)}。因此,可以通过使用Skip-gram联合学习word embedding和sense embedding得到senses的嵌入。

其中,senj(ci)sen^{(c_i)}_jsenj(wb,e)sen^{(w_{b, e})}_j分别表示字符cic_i和词wb,ew_{b, e}的第jj个sense。sjcis^{c_i}_jsjwb,es^{w_{b, e}}_j表示cic_iwb,ew_{b, e}的嵌入。


3.2 触发词感知的特征抽取

这一模块是模型的核心部分。训练结束后,抽取器输出的是输入句子的hidden state向量h\mathbf{h}

(1)常见的LSTM

LSTM在RNN上增加了门(gates)来控制信息:1)输入门ii;2)输出门oo;3)遗忘门ff。这些门共同控制了哪些信息要保留、遗忘和输出,并且三个门都有相对应的权重矩阵。当前的cell state cc记录了所有流到当前时间的历史信息。因此,基于字符级别的LSTM函数如下:

(2)Trigger-Aware Lattice LSTM

LSTMlattice LSTM的扩展。

假定字符和词有KK个含义,第ii个字符cic_i的第jj个含义的嵌入为sjcis^{c_i}_j

1)整合字符的多义信息

使用附加的LSTMCell整合字符的所有含义,因此多义字符cic_i的cell gate计算如下:

其中,cjcic^{c_i}_j表示第ii个字符的第jj个含义的cell state,cci1c^{c_i-1}是第i1i-1个字符最终的cell state。为了得到字符的cell state,要使用一个附加的字符含义门(character sense gate):

然后所有的含义需要被动态整合到一个临时的cell state,如下所示。其中,其中αjci\alpha^{c_i}_j归一化后的字符含义门。

2)整合词的多义信息

式(11)通过合并字符所有的含义信息,得到了临时的cell state ccic^{*c_i}。但是,还需要考虑词级别(word level)的信息,sjwb,es^{w_{b, e}}_j表示词wb,ew_{b, e}的第jj个含义的嵌入。

和字符类似,使用LSTMCell计算每个单词的cell state:

和式(10)~(12)类似,整合所有senses的cells信息,得到词的cell state:

3)合并字符信息和词信息

对于字符cic_i,临时的cell state ccic^{*c_i}包含了所有sense的信息。通过式(16)也可以计算出所有以索引ii结尾的词的cell states,记为{cwb,ib[1,i],wb,iD}{\{c^{w_{b, i}} | b\in [1, i], w_{b, i}\in \mathbb{D}}\}D\mathbb{D}表示词典)。

为了保证对应的信息可以流到cic_i最终的cell state,使用一个额外的门gb,img^m_{b, i}整合字符cells和词cells

字符cic_i最终的cell state计算如下,其中αwb,i\alpha^{w_{b, i}}αci\alpha^{c_i}分别是word gate和character gate归一化后的值:


因此,最终的cell state ccic^{c_i}可以动态地表示多义的字符和词。如式(7)所示,得到的 ccic^{c_i}再过一个输出门,得到输出,也就是序列标注模块的输入。


3.3 序列标注

ED任务被看作是一个序列标注任务,对于输入序列S={c1,c2,...,cN}S={\{c_1, c_2, ..., c_N}\},有一个相对应的标签序列L={y1,y2,...,yN}L={\{y_1, y_2, ..., y_N}\}。每个字符对应的隐层向量h\mathbf{h}作为输入,使用CRF层来进行序列标注,概率分布计算如下:

SS是打分函数,计算从hih_i到标签yiy_i发射分数(emission score )。WCRFyiW^{y_i}_{CRF}bCRFyib^{y_i}_{CRF}是针对标签yiy_i的可学习参数。

TT是转换函数,计算从yi1y_{i-1}yiy_i转换分数(transition score)。

C\mathbb{C}包含了在序列SS上所有可能的标签序列,LL^{'}mathbbCmathbb{C}中随机的一个标签序列。

然后使用维特比(Viterbi)算法计算出得分最高的标签序列

模型的损失函数如下,其中MM是句子数,LiL_i是句子SiS_i实际的标签序列:


4 实验

(1)数据集:ACE2005, KBP2017

(2)评价度量:Standard micro-averaged Precision,F1,Recall

(3)对比方法

  • DMCNN:使用dynamic Multi-pooling的CNN抽取句子级别的特征;
  • C-BiLSTM:提出卷积的Bi-LSTM用于ED任务;
  • HNN:设计了结合CNN和Bi-LSTM的混合的神经网络模型;
  • HBTNGMA:提出Hierarchical and Bias Tagging Networks,并使用Gated Multi-level Attention Mechanisms整合句子级别和文档级别的信息;
  • NPN:自动学习触发词的内部组成结构,以解决trigger不匹配问题。

(4)实验结果

1、整体效果

和其他模型相比,TLNN在两个数据集上均表现出色。这表示trigger-aware lattice structure可以提高定位触发词的准确性。由于使用了sense-level的信息,触发词的分类也更加精准。

TI任务上,TLNN表现出了最好的效果。该模型通过用shortcut paths连接所有候选词的当前字符,有效利用了字符信息和词信息,避免了trigger-word不匹配问题。

TC任务上,TLNN表现也是最好的。体现出了外部资源HowNet和动态利用sense-level信息的有效性。

2、触发词感知特征抽取的有效性

设计实验验证触发词感知特征抽取器的有效性。将triggeraware
lattice LSTM替换成标准的Bi-LSTM,得到基于字符和基于词的baselines。

1)对于基于词的baselines,输入是单词序列。使用额外的CNN和LSTM学习到字符级别的特征。

2)对于基于字符的baselines,输入的基本单元是字符。通过添加额外的word-level的特征(包括bigram和softword,softword指字符所位于的词),增强字符的表示,

两类baselines都能利用到字符信息和词信息。实验比较结果如表3所示:

实验结果表明,触发词感知的特征抽取器通过动态地结合多粒度的信息,和baselines中基于特征的方法相比,可以有效地挖掘出更深层次的语义特征

3、触发词不匹配的影响

将两个数据集分类两类:匹配和不匹配。表1展示了两个数据集word-trigger匹配和不匹配所占的比例。

不同方法在划分后的数据集上的Recall值表4所示:

4、触发词多义的影响

和NPN模型作对比,结果如表5表6所示,TLNN - W/O Sense info表示不使用多义信息。

5、举例


5 总结

本文提出TLNN模型解决ED问题,该模型可以同时解决trigger-word不匹配问题trigger多义问题

分层的表示学习和触发词感知的特征抽取器使得模型有效地利用了多粒度的信息,并且学习到了深层次的语义信息。多粒度体现为character-level, word-level, sense-level,具体表现为先整合字符的多义信息,再整合词的多义信息,最后将字符的信息和词的信息整合。整合的过程中使用到了LSTM和一些额外的门。

未来工作:在有天然的分隔符和没有分隔符的多语言上进行实验;设计动态的机制,对sense-level的信息进行选择,而不是直接将所有字符和词的多义信息都纳入考虑。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章