圖神經網絡學習筆記:2018年-2020年 GNN論文簡讀(其他部分)

忘記分類的(模型和池化,還有什麼忘了)

  1. STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS
    該論文提出了GNN預訓練策略
    其核心思想是

    在結點級和圖級訓練GNN,讓GNN同時學習到有用的局部和全局表示

  2. Graph Transformer Networks
    該論文提出 Graph Transformer Networks
    (GTNs),可以端到端的學習結點表示。
    其核心思想是

    通過任意邊類型和任意長度的元路徑將異構圖轉換成多個新的圖,然後在新圖通過卷積學習結點表示。

  3. Recurrent Space-time Graph Neural Networks
    該論文提出 Recurrent Space-time Graph (RSTG)
    其核心思想是
    分解時間和空間,區別對待

  4. COMPOSITION-BASED MULTI-RELATIONAL GRAPH CONVOLUTIONAL NETWORKS
    提出 COMPGCN
    其核心思想是

    利用知識圖譜嵌入中的實體-關係組合算子來將結點和關係聯合嵌入到圖中

  5. HYPER-SAGNN: A SELF-ATTENTION BASED GRAPH NEURAL NETWORK FOR HYPERGRAPHS
    該論文提出
    Hyper-SAGNN,可以處理可變超邊大小的同構超圖和異構超圖

  6. INDUCTIVE REPRESENTATION LEARNING ON TEMPORAL GRAPHS
    該論文提出 temporal graph attention (TGAT),可以處理時態圖
    其核心思想是
    將自注意力機制和函數時間編碼技術結合在一起

  7. Dynamic Hypergraph Neural Networks
    該論文提出 dynamic hypergraph neural networks
    (DHGNN),考慮了圖結構的動態變化
    其核心思想是
    用DHG更新超圖結構,用HGC聚合頂點和超邊之間的特徵

  8. Exploiting Interaction Links for Node Classification with Deep Graph Neural
    Networks
    該論文提出 Temporal-Static-Graph-Net
    (TSGNet),可以同時捕獲時序和靜態交互模式
    其核心思想是

    用靜態鄰居編碼器學習聚合鄰居模式,用GNN循環單元捕獲複雜的交互模式

  9. Hypergraph Neural Networks
    該論文提出 hypergraph neural networks
    (HGNN),可以編碼超圖中的高階數據相關性。
    其核心思想是
    超邊卷積算子

  10. GCN-LASE: Towards Adequately Incorporating Link Attributes in Graph
    Convolutional Networks
    該論文提出 GCN-LASE (GCN with Link Attributes and Sampling
    Estimation),同時考慮了結點和鏈路屬性
    其核心思想是
    用鏈路特徵和結點特徵的內積作爲鄰居特徵

  11. EvolveGCN: Evolving Graph Convolutional Networks for Dynamic Graphs
    該論文提出 EvolveGCN,可以處理動態圖
    其核心思想是
    通過RNN來演化GCN參數

  12. Heterogeneous Graph Attention Network
    該論文提出 Heterogeneous graph Attention Network
    (HAN),可以用於異構圖
    其核心思想是
    通過層次注意力捕獲異構圖背後的複雜結構和豐富語義

  13. HyperGCN: A New Method of Training Graph Convolutional Networks on
    Hypergraphs
    該論文提出 HyperGCN
    其核心思想是

    通過鏈接超圖頂點的邊近似超圖的超邊,把學習問題視爲近似問題

  14. Self-Attention Graph Pooling
    該論文提出 SAGPool
    其核心思想是

    自注意力通過圖卷積考慮結點特徵和圖拓撲,自注意力決定結點的保留和丟棄

  15. Hierarchical Graph Pooling with Structure Learning
    該論文提出圖池化算子 Hierarchical Graph Pooling with Structure
    Learning (HGP-SL)
    其核心思想是

    通過帶稀疏注意力的結構學習機制在採樣子圖中保留原圖的關鍵子結構

  16. STRUCTPOOL: STRUCTURED GRAPH POOLING VIA CONDITIONAL RANDOM FIELDS
    該論文提出 STRUCTPOOL
    其核心思想是

    將圖池化變成一個結構預測問題,通過CRFs捕獲高階結構信息

  17. Hierarchical Graph Representation Learning with Differentiable Pooling
    該論文提出 STRUCTPOOL
    其核心思想是

    將圖池化變成一個結構預測問題,通過CRFs捕獲高階結構信息

  18. An End-to-End Deep Learning Architecture for Graph Classification
    該論文提出 Deep Graph Convolutional Neural Network (DGCNN)
    其核心思想是
    SortPooling layer
    將無序的頂點特徵排序後輸出一個有序的固定大小的圖表示

Analysis

  1. Deeper Insights into Graph Convolutional Networks for Semi-Supervised
    Learning
    該論文證明GCN是一種特殊形式的拉普拉斯平滑。

  2. Representation Learning on Graphs with Jumping Knowledge Networks
    該論文提出 Jumping Knowledge Networks (JK-Nets)
    其核心思想是
    讓鄰居的範圍適應單獨的結點

  3. Universal Invariant and Equivariant Graph Neural Networks

    該論文用另一種方法證明了通過網絡高階張量化可以獲取不變性GNN,並擴展到等變性(equivariant)的情形

  4. DeepGCNs: Can GCNs Go as Deep as CNNs?
    該論文提出 ResGCN and DenseGCN,成功訓練深GCN(56層,151層)
    其核心思想是
    residual/dense connections and dilated convolutions,添加跳鏈接

  5. Weisfeiler and Leman Go Neural: Higher-Order Graph Neural Networks
    該論文證明GNN在區分非同構(子)圖的能力和1-WL一樣

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章