离散型Hopfield神经网络

以后要养成写博客的习惯,把学习到的东西总结一下。

一、离散型Hopfield神经网络结构

        离散型hop的结构是一个没有自环的全连接无向图,也就是权值满足Wij=Wji,Wii=0。这一点和玻尔兹曼机BM很像。结构图如下

从上图可能不太好看出来,但是只要记住Hop的结构是一个全连接没有自环的无向图就可以了。注意Hop属于那种不分层的神经网络,因为没有层次可言。

二、输入输出和节点计算方法

        假如无向图中有N个节点,也就是这个网络中有N个节点。那么着N个节点全部都作为输入,也就是对这些节点赋初值,用X0表示(这里的X0不是代表第0个节点的状态,而是一个向量,代表的是整个网络第0个时间的状态向量),有了权值,那么就可以计算第1个时间整个网络的状态等等一直到状态不再发生变化为止,即Xi-1=Xi的时候,Xi就是网络的输出。

        至于第i个时间网络的整个状态Xi=(xi1,xi2,......xiN)每个节点xij应该怎么计算,是由以下方法计算的。

        

         像这样的每个时间i的时候,网络的所有节点都要更新的这种方式是并行更新,与之对应的是串行更新。串行更新的时候,每个时间i网络的状态只有一个或者几个更新,具体是那几个都是根据具体情况来确定。目前对这种更新的方式在实际应用中也不是很了解。

三、定义网络状态的能量

        在定义网络能量并且证明网络的能量会随着改变而减小,直到到达极小值。我也不是很确定这个东西是否正确,因为当混沌状态时候的网络根本没有极小值点。可能是因为如果网络出现混沌状态说明网络的权值不合理吧。证明过程也就不详细写了,完全可以得出能量函数随着每次迭代,都在不断减小直至不变。在后面BM里面引进的模拟退火算法就是说,当激励函数用sgn(取符号)的时候,可以明确的证明能量函数是在不断地去往极小值点,也就是不断减小直至不变,但是这种性质未必好,因为这样到达的局部最优点未必是全局最优点,如果换一个激励函数,这个激励函数能够保证能量函数是在一定概率下不断地去往极小值点,至于说会不会每一次迭代能量函数都会减小,全靠这个概率,这个概率会随着时间而增大(或者随着能量函数的下降而增大,具体物理意义就是在能量较低的情况下,状态比较稳定,因而更容易走向低能态,能量更高的时候,状态不稳定,相对来说向更高能态转换的概率较大)。

四、网络权值的计算

      和所有的网络一样,求解的过程都是为了求权值和阀值。但是计算的方法有好多种,不过好坏程度也不同。Matlab自带的工具箱newhop函数创建的Hopfield网络使用的哪种方式我不太清楚。但是具体的有外积法,正交设计法,违逆法,d学习规则。这些学习规则在《人工神经网络原理》和网上的一些资料中可以查找到。

原本想在这一篇里面介绍离散型Hopfield的使用的,但是英文小写字母总是出错,是在没写写下去了。实例应用就看下一篇吧


发布了24 篇原创文章 · 获赞 20 · 访问量 5万+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章