GRAPH2SEQ: GRAPH TO SEQUENCE LEARNING WITH ATTENTION-BASED NEURAL NETWORKS

Introduction

提出了一种新的基于注意力的图序列学习神经网络模型Graph2Seq。Graph2Seq模型遵循传统的编解码器方法,包含两个主要组件,一个图形编码器和一个序列解码器。本文提出的图形编码器旨在学习表达性节点嵌入,并将其重新组合成相应的图形嵌入。为此,灵感来自最近的图表示学习方法(汉密尔顿et al ., 2017),我们建议归纳基于神经网络学习节点从节点属性通过聚合社区信息嵌入的直接的和间接的图表,并探讨了两种截然不同的聚合器在每个节点上产生两个表示连接以形成最终的节点嵌入。此外,我们进一步设计了一种基于注意力的RNN序列解码器,该解码器以图的嵌入作为初始隐藏状态,学习基于与相应节点相关的上下文向量和所有先前的预测,联合对齐和平移,输出目标预测。

 

3 GRAPH-TO-SEQUENCE MODEL

 

3.1 节点的向量表示学习

学习节点的向量表示,然后根据邻接矩做gregation过程,过程的实现可以采用Mean aggregator,LSTM aggregator

,Pooling aggregator。

3.2 图的向量表示学习

采用Pooling-based Graph Embedding和Node-based Graph Embedding(在这种方法中,我们将一个超级节点vs添加到输入图中,并将图中的所有其他节点直接添加到vs中。我们使用前面提到的节点嵌入生成算法,通过聚合邻居节点的嵌入来生成vs的嵌入。将捕获所有节点信息的vs嵌入视为图的嵌入)

3.3 基于注意力机制的解码器

序列解码器是一个递归神经网络(RNN),它预测下一个token yi,给定前面所有单词y<i = y1,…, yi 1,时间i的RNN隐藏状态si,以及一个指向编码器端的上下文向量ci。特别是,上下文向量ci依赖于一组节点表示(z1,…,zV),图编码器将输入图形映射到其中。每个节点表示zi包含关于整个图的信息,重点放在输入图的第i个节点周围的部分。上下文向量计算加权和这些节点表示和计算每个节点的重量αij表示

点注意力权重:

4 解决的任务

 

1 最短路径

 

将问题处理为求两个节点No1和No2之间的最短路径,这两个节点在图中表示o1和o2。为了用Graph2Seq解决这个问题,我们用text属性START注释No1,用text属性END注释No2。对于其他节点,我们在图中将它们的id指定为它们的文本属性。值得注意的是,在我们的模型中,开始和结束标记是节点特性,它们的向量表示首先被随机初始化,然后由模型稍后学习。相比之下,在gs - nn中,起始节点和结束节点的向量表示被设置为一个热向量,这是专门为最短路径任务设计的。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章