图神经网络学习笔记:2018年-2020年 GNN论文简读(其他部分)

忘记分类的(模型和池化,还有什么忘了)

  1. STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS
    该论文提出了GNN预训练策略
    其核心思想是

    在结点级和图级训练GNN,让GNN同时学习到有用的局部和全局表示

  2. Graph Transformer Networks
    该论文提出 Graph Transformer Networks
    (GTNs),可以端到端的学习结点表示。
    其核心思想是

    通过任意边类型和任意长度的元路径将异构图转换成多个新的图,然后在新图通过卷积学习结点表示。

  3. Recurrent Space-time Graph Neural Networks
    该论文提出 Recurrent Space-time Graph (RSTG)
    其核心思想是
    分解时间和空间,区别对待

  4. COMPOSITION-BASED MULTI-RELATIONAL GRAPH CONVOLUTIONAL NETWORKS
    提出 COMPGCN
    其核心思想是

    利用知识图谱嵌入中的实体-关系组合算子来将结点和关系联合嵌入到图中

  5. HYPER-SAGNN: A SELF-ATTENTION BASED GRAPH NEURAL NETWORK FOR HYPERGRAPHS
    该论文提出
    Hyper-SAGNN,可以处理可变超边大小的同构超图和异构超图

  6. INDUCTIVE REPRESENTATION LEARNING ON TEMPORAL GRAPHS
    该论文提出 temporal graph attention (TGAT),可以处理时态图
    其核心思想是
    将自注意力机制和函数时间编码技术结合在一起

  7. Dynamic Hypergraph Neural Networks
    该论文提出 dynamic hypergraph neural networks
    (DHGNN),考虑了图结构的动态变化
    其核心思想是
    用DHG更新超图结构,用HGC聚合顶点和超边之间的特征

  8. Exploiting Interaction Links for Node Classification with Deep Graph Neural
    Networks
    该论文提出 Temporal-Static-Graph-Net
    (TSGNet),可以同时捕获时序和静态交互模式
    其核心思想是

    用静态邻居编码器学习聚合邻居模式,用GNN循环单元捕获复杂的交互模式

  9. Hypergraph Neural Networks
    该论文提出 hypergraph neural networks
    (HGNN),可以编码超图中的高阶数据相关性。
    其核心思想是
    超边卷积算子

  10. GCN-LASE: Towards Adequately Incorporating Link Attributes in Graph
    Convolutional Networks
    该论文提出 GCN-LASE (GCN with Link Attributes and Sampling
    Estimation),同时考虑了结点和链路属性
    其核心思想是
    用链路特征和结点特征的内积作为邻居特征

  11. EvolveGCN: Evolving Graph Convolutional Networks for Dynamic Graphs
    该论文提出 EvolveGCN,可以处理动态图
    其核心思想是
    通过RNN来演化GCN参数

  12. Heterogeneous Graph Attention Network
    该论文提出 Heterogeneous graph Attention Network
    (HAN),可以用于异构图
    其核心思想是
    通过层次注意力捕获异构图背后的复杂结构和丰富语义

  13. HyperGCN: A New Method of Training Graph Convolutional Networks on
    Hypergraphs
    该论文提出 HyperGCN
    其核心思想是

    通过链接超图顶点的边近似超图的超边,把学习问题视为近似问题

  14. Self-Attention Graph Pooling
    该论文提出 SAGPool
    其核心思想是

    自注意力通过图卷积考虑结点特征和图拓扑,自注意力决定结点的保留和丢弃

  15. Hierarchical Graph Pooling with Structure Learning
    该论文提出图池化算子 Hierarchical Graph Pooling with Structure
    Learning (HGP-SL)
    其核心思想是

    通过带稀疏注意力的结构学习机制在采样子图中保留原图的关键子结构

  16. STRUCTPOOL: STRUCTURED GRAPH POOLING VIA CONDITIONAL RANDOM FIELDS
    该论文提出 STRUCTPOOL
    其核心思想是

    将图池化变成一个结构预测问题,通过CRFs捕获高阶结构信息

  17. Hierarchical Graph Representation Learning with Differentiable Pooling
    该论文提出 STRUCTPOOL
    其核心思想是

    将图池化变成一个结构预测问题,通过CRFs捕获高阶结构信息

  18. An End-to-End Deep Learning Architecture for Graph Classification
    该论文提出 Deep Graph Convolutional Neural Network (DGCNN)
    其核心思想是
    SortPooling layer
    将无序的顶点特征排序后输出一个有序的固定大小的图表示

Analysis

  1. Deeper Insights into Graph Convolutional Networks for Semi-Supervised
    Learning
    该论文证明GCN是一种特殊形式的拉普拉斯平滑。

  2. Representation Learning on Graphs with Jumping Knowledge Networks
    该论文提出 Jumping Knowledge Networks (JK-Nets)
    其核心思想是
    让邻居的范围适应单独的结点

  3. Universal Invariant and Equivariant Graph Neural Networks

    该论文用另一种方法证明了通过网络高阶张量化可以获取不变性GNN,并扩展到等变性(equivariant)的情形

  4. DeepGCNs: Can GCNs Go as Deep as CNNs?
    该论文提出 ResGCN and DenseGCN,成功训练深GCN(56层,151层)
    其核心思想是
    residual/dense connections and dilated convolutions,添加跳链接

  5. Weisfeiler and Leman Go Neural: Higher-Order Graph Neural Networks
    该论文证明GNN在区分非同构(子)图的能力和1-WL一样

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章