網絡表示學習初總結(Network embedding)

       Network embedding 目前是非常火熱的一個研究方向,特別是從DeepWalk開始,後續引入了大量的工作,在數據挖掘領域沒年都可以看到很多傑出工作,特別是北郵石川老師提出異質信息網絡(HIN)後。隨後很多領域專家老師提出了淺層模型(如矩陣分解,隨機遊走等等),深層模型(神經網絡模型),筆者困擾爲什麼可以這樣化分,化分標準是什麼?如何進行下一步改進?

     已經有人證明了Deepwalk,Line , node2vec等等工作都屬於矩陣分解範疇,都屬於淺層模型,其後筆者在看一些論文綜述時,也看到有學者說矩陣分解屬於線性變換,因此學習到的低維表示,只有淺層特徵,因此,引出了深層模型,以希望學習到更爲複雜的表示或者特徵,既非線性表示

     終於今天在看到其他博主關於矩陣分解的一些思考和見解時,意會到了化分標準。可以進一步參考其他博客內容特徵值與特徵向量矩陣分解

   對於AX =aX,其中A矩陣,X爲特徵向量,a爲特徵值,“由於矩陣相當於一個線性變換, 矩陣A與向量相乘,本質上對向量進行一次線性轉換(旋轉或拉伸),而該轉換的效果爲一個常數乘以向量(即只進行了拉伸)。當我們求特徵值與特徵向量的時候,就是爲了求矩陣A能使哪些向量(特徵向量)線性變換後只發生拉伸,不發生旋轉。而拉伸的程度,自然就是特徵值λ了‘’。
 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章