2020北京智源大会 图神经网络专题 总结

引言

听这个讲座的时候,怕没听懂,录了屏,并进行了整理。不过由于软件故障,何向南老师的内容有三处没录上,断开了,每段缺失1-2分钟,不影响整体观感。

链接:https://pan.baidu.com/s/1QU-3yEcTL2oFkGNJMxLImg
提取码:0pzm

如有侵权,请联系我删除。

[1] 基于感知和认知系统的逻辑关系推理

作者介绍

唐建 Mila和HEC Montreal的助理教授
个人主页

分享内容

system1 和 syetem2 reasoning

放一张ppt。

  • system1 reasoning适用于快速思考、system2 reasoning适用于缓慢思考
  • 当前的深度学习普遍处于system1,正在向system2迈进。
  • system1是直觉系统,主要负责快速、无意识、非语言的认知,这是目前深度学习主要做的事情;
  • system2是逻辑分析系统,是有意识的、带逻辑、规划、推理以及可以语言表达的系统。这是未来深度学习需要着重考虑的。

再放一张ppt

GMNN: Graph Markov Neural Networks (ICML2019)

motivation:

contribution:

system1 or system2:

  • 半监督+EM算法
  • system1 和 system2 结合

Probabilistic Logic Neural Networks for Reasoning (NeurIPS2019)

motivation:


method:

system1 or system2:

总结

唐建老师分享的内容围绕着system1和system2进行展开,现有的DL方法正在由system1逐步迈向system2,唐老师的几篇文章都是讲system1和system2的优势相结合,这显然会比单纯的system1方法结果要好。

[2] 图神经网络在信息检索等领域的应用

作者介绍

熊辰炎 微软研究院高级研究员
个人主页

分享内容

说实话,这部分内容我都没太听懂。。。

数据:结构化、半结构化

结构化数据的优劣:

使用的数据大多是半结构化的。

Free-Text Knowledge Graph (WebConf2020)

motivation:

Transformer-XH: Modeling Semi-structured Information with eXtra-Hop Attentions (ICLR2020)

用transformer去model半结构化的数据。

总结

讲的主要内容都是基于半结构化数据,而且较为偏向NLP领域,我没太听懂,收获是:工业上可能有些时候无法去进行昂贵的数据标注,只能使用半结构化的数据,所以这类方法可能更具有现实意义?

[3] 图神经网络在推荐系统的前沿研究

作者介绍

何向南 中国科学技术大学大数据学院教授
个人主页

分享内容

Related Work

CF: Collaborative Filtering,协同过滤
早期CF:手动计算相似度,用cosin等方法,再进行融合。
近10年:在隐空间学用户和物品的表示,衡量相似度。
近两年:把整个图都拿过来,学习相似度。

NGCF (SIGIR2019)

将用户、物品关系建模成二分图,用高阶连接性(对于节点u,指的是u能到达的所有节点,但是路径长度要大于1)建模协同过滤的信号。

method:

LightGCN (SIGIR2020)

针对CF task,对GCN进行改进。

method:

最终得到的模型很简单,丢掉了self-connection,但是能够达到有self-connection的效果。

DGCF (SIGIR2020)

motivation:

中间的方法部分,没录上,没有ppt。

总结

何老师讲的内容,都有着很明确的motivation,虽然我们不做推荐这个领域,但是发现问题、研究问题的过程其实都应该是互通的。何老师讲的三篇论文是渐进的,一步一步改进的,但每次改进都能带来较大提升,这种能把方法做成一系列的,非常值得我们思考和借鉴。

[4] 图神经网络的表达能力

作者介绍

沈华伟 中国科学院计算技术研究所研究员,智源青年科学家
个人主页

分享内容

GNN的框架

GNN的表达能力

一层GCN和两层GCN的对比如下图所示,深度越深,**节点表达能力**更高(表达能力还有:图表达能力、结构表达能力)。 但是GCN的表达能力存在瓶颈: 下面介绍WL Test。 WL Test是aggregation-based GNNs的表达能力上限。 结论: 解决方法:

总结

思考:

  • DNN理论上能够逼近任意连续函数,近似能力强,无需担心表达能力,需要考虑泛化能力
  • GCN能不能做深?需要把特征变换、邻居聚合分开做,因为邻居聚合会给GCN的表达能力带来瓶颈。

[5] 构建高效易用的深图学习引擎

作者介绍

王敏捷 亚马逊上海人工智能研究院应用科学家
个人主页

分享内容

GNN和PageRank的计算方式存在很大的共通之处:
在这里插入图片描述

图分析引擎

在这里插入图片描述

现有深度学习框架

现有的深度学习框架对图神经网络支持不好,原因在于图计算和张量计算的区别。

DGL: Deep Graph Library

这部分是王老师分享的主要内容,也是他们团队做的东西。DGL是图世界和张量世界的一座桥,适用于图神经网络的深度学习引擎。

总结

  • 目前没有较好的、较全面的图神经网络计算引擎。
  • 图计算和张量计算存在本质区别。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章