常見的圖embedding的方法

轉處:https://blog.csdn.net/ckqsars/article/details/78184834

在圖計算中,如何把圖中的結點進行嵌入變成可計算的值或者向量一直是現在研究所關注的問題,初次學習,記錄常用的embedding的方法。 

主流方法主要有三大類: 
1)factorization methods 
2) random walk techniques 
3) deep learning 
本文主要介紹第一類和第二類中比較知名的算法,若有不足歡迎補充。 
1)factorization methods 
此類方法主要是通過用矩陣的方式去描述形成的網絡,並通過矩陣分解來得到每個結點的嵌入。 
1.1) 
Locally Linear Embedding 
假設:每個網絡的結點的embedding的值是和其所連接結點的線性組合,則可以表達爲式(1) 
YijWijYjiV(1)(1)Yi≈∑jWijYj∀i∈V

因此我們可以通過(2)式得到我們想要的每個一個結點的embedding。 
ϕ(Y)=i|YijWijYj|(2)(2)ϕ(Y)=∑i|Yi−∑jWijYj|

爲了防止退化的基可行解(degenerate solution)<並不知道這是個什麼東西,知道的人可以在評論解釋下> 
進行了以下約束

s.t.1NYTY=IiYi=0s.t.1NYTY=I∑iYi=0

1.2) 
Laplacian Eigenmaps 
假設:如果兩個結點它們之間的連邊對應的權重越大,則表明這兩個節點越相近,因此在embedding之後對應的值應該越相近。 因此可以得到一下最優化目標: 

ϕ(Y)=12i,j(YiYj)2Wij=YTLYϕ(Y)=12∑i,j(Yi−Yj)2Wij=YTLY

其中L是對應的網絡的拉布拉斯矩陣。即L=DAL=D−ADD 是度矩陣,AA是鄰接矩陣。這個解可以被看爲特徵向量對應於標準化的拉布拉斯矩陣的d最小的特徵值,標準拉布拉斯矩陣如下:Lnorm=D1/2LD1/2Lnorm=D−1/2LD−1/2

1.3)

Graph Factorization 
假設兩個結點所代表的變量之積與兩節點之間的變等價,因此構造目標函數如下: 

ϕ(Y,λ)=12(i,j)E(Wij<Yi,Yj>)2+λ2i||Yi||2ϕ(Y,λ)=12∑(i,j)∈E(Wij−<Yi,Yj>)2+λ2∑i||Yi||2

1.4)

GraRep 
這個跟HOPE很相近所以直接介紹HOPE。

HOPE 
目標函數: 

|SYsYTt||2F|S−YsYtT||F2

其中,S是相似度矩陣,具體見文章Asymmetric transitivity preserving graph embedding

2)random walk techniques

(未完待續)

參考文獻Graph Embedding Techniques,Applications, and Performance: A Survey

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章