神经网络学习10--CNN简介

1.首先先看一下什么是卷积:

神经网络学习10--CNN简介

神经网络学习10--CNN简介

神经网络学习10--CNN简介

神经网络学习10--CNN简介

2.卷积神经网络介绍

神经网络学习10--CNN简介
下面是对应的上图的具体解释:
(1)我们对一堆图片做卷积神经网络的训练,首先需要需要对数据进行处理,然后作为输入层接到卷积神经网络中。
(2)之后就是中间层,这一层中我们有:
卷积层(提取图像的局部信息,减小图像面积,增加图像维度)
激励层(实际梯度下降中,sigmoid容易饱和、造成终止梯度传递,且没有0中心化。 ReLU的优点是收敛快,求梯度简单。)
池化层(其中一个显而易见,就是减少参数。通过对 Feature Map 降维,有效减少后续层需要的参数。另一个则是 转化不变性。它表示对于 Input,当其中像素在邻域发生微小位移时,Pooling Layer 的输出是不变的。这就使网络的鲁棒性增强了,有一定抗扰动的作用)
(3)最后经过全连接层输出。
全连接层 在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和**函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。

卷积层:通过卷积可以减少图片的面积,增加深度。深度对应的是特征图的个数. 用多少个 filter, 就能卷积出多少张feature map, 每个特征图卷积的方式是一样的. 个数的话, 是根据以往的测试效果来定的, 具体数量可以参考很多以前的人做过的网络.
神经网络学习10--CNN简介

神经网络学习10--CNN简介

池化层的简单原理如下图所示(这样子就可以提取物体的局部特征并且不会由于像素的微小变化导致输出变化。):
神经网络学习10--CNN简介

全连接层的简单理解示意图:
神经网络学习10--CNN简介