白话讲解卷积神经网络

卷积神经网络其实是一个函数,也可以说它是一个黑箱,输入是一个二维的像素阵列,也就是图片,输出就是这个图片是什么
白话讲解卷积神经网络
就是将这些经过平移,旋转,局部加粗等的图像辨别出来,抗干扰性很强
白话讲解卷积神经网络
对于计算机来说,怎么用数字进行特征提取是非常重要的,即使图像进行了一定的改变,但也会保留原始图的特征
白话讲解卷积神经网络
比如把这三个特征提取出来,叫做卷积核,或者特征提取器,用于在输入图中寻找相应的特征
白话讲解卷积神经网络
下面介绍一下,卷积核是怎样判断特征的,让卷积核与图片对应相乘,得出结果为九个一的矩阵,将这些得出来的数做平均值
白话讲解卷积神经网络
白话讲解卷积神经网络
这就表示绿框中的的值和卷积核的特征完全一致
白话讲解卷积神经网络
那么如果卷积核与图像的其他部分做卷积运算呢
当该卷积核与中间部分进行卷积时,情况如下:
白话讲解卷积神经网络
它加起来平均值为0.55,表示他俩不一样,但仍保留了0.55的特征,把所有的数据算出来是这样的,颜色越浅表示相似度越高
白话讲解卷积神经网络
用不同的卷积核可以把不同的特征提取出来
白话讲解卷积神经网络
因为实际的识别涉及到的特征和图片很大,所以要将得到的矩阵缩小,把一部分的矩阵得出的数用一个数字表示,这也叫做池化
白话讲解卷积神经网络
也就是在可接受范围内牺牲一部分值,池化有两种方式,一是取最大值,二是取平均值,应用都非常广
白话讲解卷积神经网络
以取最大值为例,将上面的矩阵缩小,得到的特征仍会保留,如果计算需要,在外圈补零
白话讲解卷积神经网络
接下来使用**函数将上面矩阵的负数全部抹成零,经过卷积,抹零(**函数是relu),池化,得到:
白话讲解卷积神经网络
以上过程可以进行多次

全连接层
将得到的矩阵排成一列
白话讲解卷积神经网络
每一个像素点都有权重,把判断x的权重加起来,就可以得到一个概率,这是要通过训练得到的

白话讲解卷积神经网络
x的概率是0.92,o的概率是0.51,所以认为图的特征是x
全连接网络可以放好多层
白话讲解卷积神经网络

用大量图片去训练模型,通过反向传播的方法,将它与真实的结果进行比较,然后将神经网络的结果与真实结果的误差进行计算,这叫损失函数,我们的目标就是将损失函数降到最低(求导获得最低值),通过将卷积核和权重进行微调使得误差函数最小,他会将误差一层层反馈回去,所以叫反向传播。
经过大量训练,他就自动学会了选择卷积核和选择权重,这就是机器学习。