国科大高级人工智能2-人工神经网络(MLP、Hopfield)
常见组合函数
常见**函数
结构
- 前馈神经网络(单向)
- 反馈/循环神经网络
学习方法
-
学习模型
- 增量
- 迭代
-
类型
- 监督
- 无监督
-
学习策略
- Hebbrian Learning
- 若两端的神经元同时**,增强联接权重
- Unsupervised Learning
- 循环?
- Error Correction
- 最小化实际和输出的误差
- BP
- 目标函数:
- 迭代:
- delta rule(LMS rule,windrow-hoff
- BP
- 最小化实际和输出的误差
- 随机学习(模拟退火?)
- 采用随机模式,跳出局部极小
- 如果网络性能提高,新参数被接受.
- 否则,新参数依概率接受
- 采用随机模式,跳出局部极小
- Hebbrian Learning
重要的ANN
…损失函数… | …目标函数… | …**函数… | …更新… | 特点 | |
---|---|---|---|---|---|
多层感知机(MLP,全连接) | L(y,f(x)) | 梯度法 | - | ||
多层感知机(MLP,全连接–>BP网络) | 平方误差 | - | 输入从前向后,损失从后向前(链式法则),梯度下降法 | 允许非线性,收敛慢,过拟合,局部极小,表达能力强,容易执行 | |
单层感知机 | 看分类对错 | - | 仅当线性可分时收敛,对噪声(不可分)/泛化性不好 | ||
单层感知机(最小二乘法) | 平方损失 | - | 仅当线性可分时收敛,对噪声(不可分)/泛化性不好 | ||
单层感知机(改进) | 平方损失E= | - | $\frac{ | ||
\partial E}{\partial w_k}=\Sigma_{i=1}n\Sigma_{k=1}m(y_k(x_i)-t_{k,i})y_k(x_i)(1-y_k(x_i))x_i$ | 仅当线性可分时收敛,对噪声(不可分),泛化性不好 | ||||
支持向量机 | - | 最大化间隔,约束: | - | - | 可以找到最好的分界面,解决了泛化性 |
Hopfield网络(能量稳定点-记忆) | - | 有输入: | wij=ji(i!=j) | f分布式记忆,动态联想,记忆容量有限,伪稳定点的联想与记忆,样本接近时,难以回忆 |
感知机
-
感知机收敛定理:线性可分则收敛
- w、x是增广得到的
- 若数据集可分,
- 存在
- 令最终分离超平面参数为
- ——yt=1
- 所以
-
改进
- sigmoid**函数
- 批处理
- 一次性更新权重
- 收敛慢
- 增量模式
- 逐样本更新
- 随机近似,但速度快能保证收敛
- 批处理
- sigmoid**函数
-
MLP(多层感知机
- 在实际应用中
- 预处理很重要—normalize
- 调整学习率——
- 表达能力强
- 容易执行
- 收敛速度慢
- newton法
- 过拟合(
- 正则化,约束权值平滑性
- 采用更少的隐层单元
- 局部极小(不同的初始化,增加扰动
- 三层-所有连续函数
- 4层:多层连续
- 权重如何学习?BP–链式法则计算反向传递
- 在实际应用中
Hopfield
- 应用
- 将优化目标函数转换成能量函数(energy function)——网络的稳定状态是优化问题的解
- 两个稳态:——>解
- E最大——>w1
- E最小——>w2
- 两个工作方式
- 异步:每次只改变一个状态x_i
- 同步:所有状态均改变:x1~xn
- 反馈网络(无向有权图)
- 权值是设定的,而不是学习出来的
- TSP:
- Hopfield网络:l邻接矩阵
- 行:城市;列:时间,每行只有一个亮,每列也只有一个on