Hopfiled 神经网络实例解释
Hopfiled 神经网络入门
本文参考 Hinton 的机器学习课程,总结了 Hopfield 神经网络,整个学习的脉络是:Hopfield 网络 -> 玻尔兹曼机 BM -> 受限玻尔兹曼机 RBM,本文是第一部分 Hopfield 网络。
Hopfield 神经网络
首先我们需要知道 Hopfield 网络是一种递归神经网络,从输出到输入有反馈连接。Hopfield 网络的一个特性是能实现联想功能,能够以动力学的方式运行。
其典型的结构如下:
对于每一个节点单元,它只有两种状态:0 或者 1,代表闭或开,节点之间彼此之间互相连接,但是这种网络是很难分析的,其可能的状态有:
稳定状态
震荡状态
混沌状态
收敛
非稳定
混沌
人们研究发现如果模型是对称的,那么整个网络就会存在一个全局能量函数,系统能够收敛到一个最低能量处。因此,我们研究的 Hopfield 网络是一个对称网络。
Hopfield 能量函数
能量函数定义如下:
定义两个差值变量:
则可以得出能量变化为:
我们假设 t 时刻,只有 1 个神经元调整状态,假设神经元为 j,则此时
带入上式,得到:
因为神经元不存在自反馈,所以 wii 为 0,则最终能量变化为:
我们考虑:
因此能量 E 是不断减少的。
下面以一个例子来说明能量减少的整个过程。
上图表示有 3 个节点,每个节点之间的权重 x12=x21=-0.5,x13=x31=0.2,x23=x32=0.6,每个节点的阈值为:-0.1,0.0,0.0。
假设每个节点状态为 0 或者 1,则 3 个节点共有 2*2*2=8 种状态,对应上面的右图,我们以 000 为第一个状态,即 x1=x2=x3=0,此时我们假设先变化 x1=1,则
其他节点状态不变,网络状态由 000 变为 100;此时如果先更新 x2 或者 x3,则网络状态还是 000,所以上面图中从 000,有 1/3 概率变为 100,2/3 概率保持不变,最终我们计算所有的状态转移概率,我们发现 011 是一个稳定状态,系统从任意状态出发,经过若干次更新,最终都能稳定到 011。
存储记忆
记忆可以是一个具有对称权重的 神经网络 的能量最小状态。
二值阈值局侧可以用来清理不完整的记忆,即使我们只知道部分记忆,也能通过网络最终知道全部(怎么理解呢?个人理解是因为最后状态都会趋于能量极小,而神经元只会取 0 或者 1,因此状态是有限的,所以在能量极小附近的相似输入,最后都会趋于同一个能量极小状态)
如果我们取节点状态为 - 1 或者 1,则根据能量公式:
我们取 wij=xixj,T=0,则此时能量 E=-n^2。很明显,这时候 E 是最小的。
总结
本文主要根据 Hinton 大神 Hopfield 部分的第一节整理而来,主要介绍了 Hopfield 网络的定义,能量函数以及记忆存储,下面一节将会介绍如何在 Hopfield 网络中处理 伪极小值。
这是 Hopfield 网络 的第一篇,你的鼓励是我继续写下去的动力,期待我们共同进步。
参考
人工神经网络理论、设计及应用_第 2 版
从 Hopfiled 网络到 BM(玻尔兹曼机)
Hopfield 神经网络?
Lecture 12.1 — Boltzmann machine learning
更新的时候 其他两个节点计算再减去自身节点
一个结点改变的时候会影响其他结点同时改变