笔记:ML-LHY-6 Brief Introduction of Deep Learning

Deep Learning 发展

  • 1958:感知机(线性模型,和Logistic Regression非常像,没有sigmoid)
  • 1969:发现感知机的限制
  • 1980s:多层感知机(和现在的深度学习方法没有明显区别)
  • 1986:反向传播(发现超过3层隐藏层没有帮助)
  • 1989:发现1个隐藏层就可拟合任何函数,为什么需要深度(多层隐藏层)
  • 2006:使用受限玻尔兹曼机(RBM)初始化(和多层感知机的区别就是有无使用RBM初始化然后进行GD,RBM使用图模型并且复杂,但是提升似乎不够明显),使用了RBM初始化被称为Deep Learning
  • 2009:GPU加速(矩阵运算)
  • 2011:开始使用Deep Learning进行语音识别
  • 2012:ALexNet在ILSVRC图像竞赛中取得很好的性能

Deep Learning 步骤

和Logistic Regression一样定义函数结构、找最好的模型(损失的定义)、得到最好的结果(梯度下降)

定义函数结构

Deep Learning的函数结构就是Neural Network
笔记:ML-LHY-6 Brief Introduction of Deep Learning

笔记:ML-LHY-6 Brief Introduction of Deep Learning

这里可以用上节最后的多个Logistic Regression来理解,神经元的输入可以是上层神经元的输出
笔记:ML-LHY-6 Brief Introduction of Deep Learning
这里的**函数还是Sigmoid函数:σ(z)=11+ez\sigma(z)=\frac{1}{1+e^{-z}},上图有2个隐藏层,1个输入层和1个输出层。因为层和上一层的神经元是全连接的(一个神经元输出连接到下一层所有神经元上,下一层的神经元把上一层所有神经元的输出作为输入),并且传递时正向的,所以叫做全连接正向网络(Fully Connect Feedforward Network)
上图表示为函数形式的输入和输出:

f([11])=[0.620.83]f([00])=[0.510.85]f\left(\left[\begin{array}{c} 1 \\ -1 \end{array}\right]\right)=\left[\begin{array}{l} 0.62 \\ 0.83 \end{array}\right] \quad f\left(\left[\begin{array}{l} 0 \\ 0 \end{array}\right]\right)=\left[\begin{array}{l} 0.51 \\ 0.85 \end{array}\right]

多个特征(输入特征x1,x2...xnx_1,x_2...x_n)和层次划分:
笔记:ML-LHY-6 Brief Introduction of Deep Learning

层数对比:
笔记:ML-LHY-6 Brief Introduction of Deep Learning
各个模型paper笔记:ALexNetVGGGoogLeNetResidual Net

表示为矩阵操作

笔记:ML-LHY-6 Brief Introduction of Deep Learning
然后
y=f(x)y=f(x)
就可以表示为:
f(x)=σ(WLσ(W2σ(W1x+b1)+b2)+bL))\left.\left.\left.f(x)=\sigma\left(\begin{array}{ccccccccc} W^{L} & \cdots & \sigma( & W^{2} & \sigma( & W^{1} & x & + & b^{1} \end{array}\right)+b^{2}\right) \cdots+b^{L}\right)\right)

找最好的模型(损失的定义)

举例使用交叉熵:
C(y,y^)=i=1Nclassy^ilnyiC(y, \hat{y})=-\sum_{i=1}^{N_{class}} \widehat{y}_{i} \ln y_{i}
然后求和计算总损失L:
L=n=1NCnL=\sum_{n=1}^{N} C^{n}

找到网络参数????∗使得最小化总损失L

得到最好的结果(梯度下降)

笔记:ML-LHY-6 Brief Introduction of Deep Learning
使用GD更新????,得最小化总损失L

讨论

之前提到一个隐藏层便可以拟合任何函数,如下面,只不过会变得更胖了。这样还需要Deep的神经网络吗?
笔记:ML-LHY-6 Brief Introduction of Deep Learning

以上参考李宏毅老师视频和ppt,仅作为学习笔记交流使用