離散型Hopfield神經網絡

以後要養成寫博客的習慣,把學習到的東西總結一下。

一、離散型Hopfield神經網絡結構

        離散型hop的結構是一個沒有自環的全連接無向圖,也就是權值滿足Wij=Wji,Wii=0。這一點和玻爾茲曼機BM很像。結構圖如下

從上圖可能不太好看出來,但是隻要記住Hop的結構是一個全連接沒有自環的無向圖就可以了。注意Hop屬於那種不分層的神經網絡,因爲沒有層次可言。

二、輸入輸出和節點計算方法

        假如無向圖中有N個節點,也就是這個網絡中有N個節點。那麼着N個節點全部都作爲輸入,也就是對這些節點賦初值,用X0表示(這裏的X0不是代表第0個節點的狀態,而是一個向量,代表的是整個網絡第0個時間的狀態向量),有了權值,那麼就可以計算第1個時間整個網絡的狀態等等一直到狀態不再發生變化爲止,即Xi-1=Xi的時候,Xi就是網絡的輸出。

        至於第i個時間網絡的整個狀態Xi=(xi1,xi2,......xiN)每個節點xij應該怎麼計算,是由以下方法計算的。

        

         像這樣的每個時間i的時候,網絡的所有節點都要更新的這種方式是並行更新,與之對應的是串行更新。串行更新的時候,每個時間i網絡的狀態只有一個或者幾個更新,具體是那幾個都是根據具體情況來確定。目前對這種更新的方式在實際應用中也不是很瞭解。

三、定義網絡狀態的能量

        在定義網絡能量並且證明網絡的能量會隨着改變而減小,直到到達極小值。我也不是很確定這個東西是否正確,因爲當混沌狀態時候的網絡根本沒有極小值點。可能是因爲如果網絡出現混沌狀態說明網絡的權值不合理吧。證明過程也就不詳細寫了,完全可以得出能量函數隨着每次迭代,都在不斷減小直至不變。在後面BM裏面引進的模擬退火算法就是說,當激勵函數用sgn(取符號)的時候,可以明確的證明能量函數是在不斷地去往極小值點,也就是不斷減小直至不變,但是這種性質未必好,因爲這樣到達的局部最優點未必是全局最優點,如果換一個激勵函數,這個激勵函數能夠保證能量函數是在一定概率下不斷地去往極小值點,至於說會不會每一次迭代能量函數都會減小,全靠這個概率,這個概率會隨着時間而增大(或者隨着能量函數的下降而增大,具體物理意義就是在能量較低的情況下,狀態比較穩定,因而更容易走向低能態,能量更高的時候,狀態不穩定,相對來說向更高能態轉換的概率較大)。

四、網絡權值的計算

      和所有的網絡一樣,求解的過程都是爲了求權值和閥值。但是計算的方法有好多種,不過好壞程度也不同。Matlab自帶的工具箱newhop函數創建的Hopfield網絡使用的哪種方式我不太清楚。但是具體的有外積法,正交設計法,違逆法,d學習規則。這些學習規則在《人工神經網絡原理》和網上的一些資料中可以查找到。

原本想在這一篇裏面介紹離散型Hopfield的使用的,但是英文小寫字母總是出錯,是在沒寫寫下去了。實例應用就看下一篇吧


發佈了24 篇原創文章 · 獲贊 20 · 訪問量 5萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章