圖機器學習 - cs224w Lecture 1 & 2 - 圖的性質及隨機圖

最近在看 Stanford 的 Machine Learning with Graphs。然後在網上找相關的筆記或者其他人的理解,發現大部分內容是照搬並翻譯 slides, 沒有一些個人的理解,而且很多地方只有前幾個 lecture。所以打算自己整理一個系列的筆記供以後反覆溫習,也歡迎大家指正,共同學習。

Lecture 1: Introduction

Jure 提出了兩個概念 Network 和 Graph,這兩者的界限很模糊,但大致上我們可以將 Network 視爲現實中的圖,而 Graph 是一種更數學的描述方式。在很多複雜的系統之下都有錯綜複雜的關係網,比如食物鏈、化學物質的相互反應等。
課程標題很明確的表示了這個學科研究的是圖,那麼怎麼研究。主要通過4個方面:

  • node classification
  • link prediction
  • community detection
  • network similarity

每一個方面後面當然會涉及到,所以即使現在不知所云也請稍安勿躁。

之前學的關於圖的知識都沒有進行這樣的劃分,但 Jure 提到這裏不同的術語之間有微妙的區別(雖然感覺不是那麼重要):

Objects Interactions System
nodes links network
vertices edges graph
NN EE G(N,E)G(N,E)

其他的關於圖的基本知識不再贅述,不清楚的朋友可以先去溫習一下圖的基礎部分。

對於無向圖的連通性有個有趣的現象之前沒有注意過:若按一定順序排列節點用鄰接矩陣表示圖的話,非連通圖是嚴格的對角分塊矩陣。
adjacency matrix of disconnected graph

Lecture 2: Properties and Random Graph

描述一個圖的特徵一般有這樣幾個:

  • degree distribution: P(k)P(k)
  • path length: hh
  • clustering coefficient: CC
  • connected components: ss

Degree Distribution

簡單來說就是度的直方圖,歸一化後就是:P(k)=Nk/NP(k)=N_k / NNkN_k 是有 kk 個度的節點個數。

一般來說,圖的度分佈是傾斜的,因此在可視化的時候可以選擇用對數座標,即 101,102,103...10^1, 10^2, 10^3 ...

Path Length

一般意義上,路徑長度指兩個節點間的最短路徑。而一個圖中最長的最短路徑定義爲這個圖的直徑(diameter)。然而某些奇奇怪怪的圖可能會有一條很長很長很長的路徑,那麼會導致直徑很大。這樣會對圖的描述產生傾斜或者說是偏差,因此一般用平均路徑長度來描述路徑長度。

hˉ=12Emaxi,jihij\bar{h}=\frac1{2E_{max}}\sum_{i,j \neq i}h_{ij}

EmaxE_{max} 是最大可能的邊數,即 (n1)n/2(n-1)n/2。然而一般地,只計算存在的邊算,而忽略不相通的節點對。

Clustering Coefficient

這個特徵是用來衡量一個節點周圍的鄰接節點的互連關係的,簡單來說就是一個節點的一個鄰接節點多大程度上了解其他鄰接節點。表示爲

Ci=2eiki(ki1)C_i=\frac{2e_i}{k_i(k_i-1)}

eie_i 是節點 ii 的鄰接節點之間的邊的數量
clustering coefficient demo

Connectivity

連通性這個概念很廣泛,包括連通子圖的個數、最大連通子圖的大小等


在有了這些衡量一個圖的特徵後,這些指標對我們來說只是一串數字而已。我們想知道這些值是“情理之中”還是“意料之外”,那麼就需要一個參照來進行對比。

Erdos-Renyi Random Graph Model

這是一種最簡單的隨機圖模型,它有兩種定義方式:

  1. 給定 nn 個節點,然後按同一概率 pp 去生成每組節點對的邊
  2. 給定 nn 個節點,按均勻分佈選 mm 條邊

那麼通過這樣的模型產生的隨機圖有怎樣的性質呢?

Degree Distribution
度的分佈服從伯努利分佈,即

P(k)=(n1k)pk(1p)nk1P(k)=\begin{pmatrix}n-1\\k\end{pmatrix}p^k(1-p)^{n-k-1}

那麼根據伯努利分佈的性質,其均值和方差分別爲

  • kˉ=p(n1)\bar{k}=p(n-1)
  • σ2=p(1p)(n1)\sigma^2=p(1-p)(n-1)

這裏 slide 上給出了一個表達式

σkˉ=[1pp1n1]1/2\frac{\sigma}{\bar{k}}=\big[\frac{1-p}p\frac1{n-1}\big]^{1/2}

Jure 的原話是:you can then ask how does the variance change as a function of the average degree.
也就是說這裏服從大數定理,當圖的規模足夠大時,度的分佈會變得很“窄”,即可以視作所有節點都有 kˉ\bar{k} 的度

Clustering Coefficient
根據 clustering coefficient 的定義,我們需要知道節點的鄰接節點間的邊的數量。由於在 ER 隨機圖中邊是 i.i.d. 的,所以期望爲

E[Ci]=E[ei]ki(ki1)=pki(ki1)2ki(ki1)=p=kˉn1kˉnE[C_i]=\frac{E[e_i]}{k_i(k_i-1)}=\frac{p\frac{k_i(k_i-1)}{2}}{k_i(k_i-1)}=p=\frac{\bar{k}}{n-1}\approx\frac{\bar{k}}{n}

也就是說,隨着圖的規模增大,clustering coefficient 的值不斷減小。

Path Length
在討論路徑長度之前要先引入一個概念:Expansion α\alpha

SV:#(edges leaving S)αmin(S,V\S)\forall S \sube V:\#(edges\ leaving\ S)\geq\alpha\min(|S|,|V\text{\textbackslash}S|)

這個定義很數學,通俗地解釋就是把一個圖的節點分成兩堆,使得連接兩部分的邊最少。那麼通過這個我們怎麼推導路徑呢?
我們先回憶下 BFS 的工作原理,如下圖,從一個點出發開始遍歷整個圖。如果圖是連通的,那麼第二層應該是初始點的鄰接點,然後依次展開直到覆蓋圖中所有點。假設遍歷的是這裏的 ER 隨機圖,那麼這棵樹的深度就應該是 lognpn=logn/lognp\log_{np}n=\log n / \log np
但這裏沒有涉及到 expansion 這個概念呀!應該說沒有顯示地說明這個概念,因爲我們限制了 ER 圖。更一般的圖的度不一定是 npnp,因此需要用 expansion 的 α\alpha 來替換這裏特殊的 average degree。如此一來,將平均路徑長度推廣爲 O((logn)/α)O((\log n) / \alpha)
expansion demo
Connectivity
在邊的概率 pp 逐漸增大過程中可以發現,當 p=1/(n1)p=1/(n-1) 時,即平均度爲 11 時,giant component 開始出現。


這樣我們就有了一個可以與真實網絡進行對比的模型了

  • average path length
  • giant connected component
  • clustering coefficient
  • degree distribution

通過對比我們可以發現這個隨機圖模型的特徵只在路徑長度和最大連通子圖上和真實網絡差不多,但其餘性質上差得很遠。這樣也說明了真實世界的網絡不是隨機的,其背後有複雜的關係等待我們去發現。

Small-World Model

通過對 ER 圖的分析我們發現這種簡單的隨機圖丟失了聚類信息,即 local structure。然而,單純的加上 local connections 會導致圖的平均路徑增加而破壞我們原本已經吻合了的性質。因此提出了這個 Small-World 模型。

這裏 Jure 對爲什麼 triadic closure 會導致網絡直徑增加的解釋有點不清楚。按理說朋友的朋友就是我的朋友這一點能縮短路徑長度呀。我的理解是這裏應該突出的是 local 這一條件。以交通網爲例,如果現在只有相鄰城市間有交通線路,那麼我從四川到北京就得途經“四川-陝西-山西-河北-北京”。但如果我有四川到北京的直飛線路呢?那直觀上不就直接“四川-北京”了嗎。

這個 Small-World 模型首先爲了確保有 local structure,將自己初始化爲下圖的樣子(regular ring lattice)。然後依概率將一條邊的一個端點連接到任意一個不同節點上。如此,初始化保證了 clustering coefficient,而 rewiring 引入了隨機性從而縮減了網絡直徑。
small-world pseudocode
但是這裏需要注意的是如果 rewiring 的概率太高或太低都不行。

  • 太低,約等於不做
  • 太高,破壞了局部結構
    small-world demo
    雖然小世界模型能比較好的模擬真實網絡的局部結構,但它沒法吻合度的分佈情況。

Kronecker Graph Model

這個模型有兩個突出的優勢

  • 可並行,快,適合生成大規模的圖
  • 遵從一些真實網絡的“規則”

Idea:遞歸地生成一張圖

每個公司內都有很多部門,各個部門有管理層和不同的事業羣,每個事業羣內又有組長和員工。這樣的結構在大部分公司裏都差不多。那麼推廣這個規律,我們先定義一個小羣體內的網絡結構,然後遞歸地使用這樣的結構來構建更大的圖。

定義 Kronecker product

C=AB(a1,1Ba1,2B...a1,mBa2,1Ba2,2B...a2,mB......an,1Ban,2B...an,mB)C=A \otimes B \doteq \begin{pmatrix} a_{1,1}B & a_{1,2}B & ... & a_{1,m}B \\ a_{2,1}B & a_{2,2}B & ... & a_{2,m}B \\ & ... & ... \\ a_{n,1}B & a_{n,2}B & ... & a_{n,m}B \end{pmatrix}
Kronecker graph
如果用鄰接矩陣來直接生成那太死板了,所以爲引入隨機性將鄰接矩陣換成概率矩陣,即矩陣的每個元素表示對應節點對右邊的概率。這樣通過 Kronecer product 最終得到整個網絡的邊的概率分佈圖。然後我們再通過每個區域的概率遞歸地選擇邊來得到圖的一個 realization。
drop an edge in Kronecker graph
這種方法選邊時不可避免地會遇到重複邊,但概率很小。就算遇到了,reinsert 就行了,無傷大雅。

需要確定邊的條數,而這一般依賴經驗

實驗證明 Kronecker 圖在各種性質上都能較好地擬合真實的網絡。但這個模型生成的圖的 degree distribution 並不是平滑的。直觀上說,按初始定義的 block structure 進行遞歸所得到的圖可能的確存在這個問題,即某些部分連接緊密有些地方稀疏,而這種差異並不連續。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章