轉處:https://blog.csdn.net/ckqsars/article/details/78184834
在圖計算中,如何把圖中的結點進行嵌入變成可計算的值或者向量一直是現在研究所關注的問題,初次學習,記錄常用的embedding的方法。
主流方法主要有三大類:1)factorization methods
2) random walk techniques
3) deep learning
本文主要介紹第一類和第二類中比較知名的算法,若有不足歡迎補充。
1)factorization methods
此類方法主要是通過用矩陣的方式去描述形成的網絡,並通過矩陣分解來得到每個結點的嵌入。
1.1)
Locally Linear Embedding
假設:每個網絡的結點的embedding的值是和其所連接結點的線性組合,則可以表達爲式(1)
Yi≈∑jWijYj∀i∈V(1)(1)Yi≈∑jWijYj∀i∈V
因此我們可以通過(2)式得到我們想要的每個一個結點的embedding。
ϕ(Y)=∑i|Yi−∑jWijYj|(2)(2)ϕ(Y)=∑i|Yi−∑jWijYj|
爲了防止退化的基可行解(degenerate solution)<並不知道這是個什麼東西,知道的人可以在評論解釋下>
進行了以下約束
1.2)
Laplacian Eigenmaps
假設:如果兩個結點它們之間的連邊對應的權重越大,則表明這兩個節點越相近,因此在embedding之後對應的值應該越相近。 因此可以得到一下最優化目標:
其中L是對應的網絡的拉布拉斯矩陣。即L=D−AL=D−A。DD 是度矩陣,AA是鄰接矩陣。這個解可以被看爲特徵向量對應於標準化的拉布拉斯矩陣的d最小的特徵值,標準拉布拉斯矩陣如下:Lnorm=D−1/2LD−1/2Lnorm=D−1/2LD−1/2
1.3)
Graph Factorization
假設兩個結點所代表的變量之積與兩節點之間的變等價,因此構造目標函數如下:
1.4)
GraRep
這個跟HOPE很相近所以直接介紹HOPE。
HOPE
目標函數:
其中,S是相似度矩陣,具體見文章Asymmetric transitivity preserving graph embedding
2)random walk techniques
(未完待續)
參考文獻Graph Embedding Techniques,Applications, and Performance: A Survey