論文解析:Variational Graph Auto-Encoders

論文解析:Variational Graph Auto-Encoders

  • 作者:Thomas N. Kipf, Max Welling, 和GCN的作者是一樣的
  • 會議:Bayesian Deep Learning Workshop (NIPS 2016), NIPS的一個workshop,不是長文
  • 論文鏈接:Variational Graph Auto-Encoders
  • 代碼鏈接:tkipf/gae

VAE

Variational Auto-Encoder (VAE),變分自編碼器,主要由兩部分構成,一個Encoder和一個Decoder, 主要用於生成式模型,Encoder把input變成是概率分佈,從概率分佈中採樣得到隱變量Z,Decoder把這個隱變量Z變成output.
Auto-Encoder (AE),其他步驟與VAE類似,但是Encoder把input直接變成隱變量Z
對於本文,就是要做一個從圖的節點特徵以及部分邊到圖的所有邊的生成模型。隱變量就是圖節點的表示,Encoder就是圖節點的編碼器,Decoder就是圖的邊生成器。

GAE

GAE是GCN在Auto-Encoders (AE)的應用,非常容易理解,隱變量Z就是圖上的N個節點經過GCN後的N*F維特徵,Encoder就是兩層GCN, Decoder就是向量點積。可以將隱變量Z理解爲某種意義上圖的節點的相似度,通過向量點積得到的兩個圖節點的相似度越大,則兩個節點之間存在邊的概率越大

VGAE

GAE是GCN在Variational Graph Auto-Encoders (VAE)的應用。Encoder用兩個兩層GCN分別得到N個均值和標準差,這兩個GCN會共享第一層的參數,從而得到N個正態分佈。Decoder仍然是向量點積

損失函數

對於每個邊,VAE會生成一個預測值,與真實值(0/1, 0代表無邊,1代表有邊)之間的交叉熵函數就是損失函數

實驗

本文的實驗通過在圖學習三大經典數據集:Cora, Citeseer, Pubmed上扔掉一些邊來構造數據集,然後預測扔掉的邊是否存在。評價指標是AUC和Precision. 對比方法是圖譜方法和DeepWalk, 都是圖學習領域的經典baseline. 實驗結果入下圖所示:
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章