入门卷积神经网学习(二) 池化层

池化层

我们计算卷积时,会用卷积核滑过特征图的每一个像素。如果特征图的像素很大,那么卷积层的计算量就会很大。所以我们通常在几个卷积层后加一个池化层,以降低特征图的分辨率。
入门卷积神经网学习(二) 池化层
图1代表的最大池化层。
我们将4X4的特征图分为了4部分,而池化后的输出图的取值为4个部分中的最大值。
入门卷积神经网学习(二) 池化层
图2位平均池化层
也就是池化后的结果是取每部分的平均值。

池化层主要作用

(关于第二点,可以参考下面这个链接:https://www.zhihu.com/question/36686900)
1.就是降维,也就是我们上面所说的降低图片分辨率的操作。
2. invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)
(1) translation invariance:
这里举一个直观的例子(数字识别),假设有一个16x16的图片,里面有个数字1,我们需要识别出来,这个数字1可能写的偏左一点(图1),这个数字1可能偏右一点(图2),图1到图2相当于向右平移了一个单位,但是图1和图2经过max pooling之后它们都变成了相同的8x8特征矩阵,主要的特征我们捕获到了,同时又将问题的规模从16x16降到了8x8,而且具有平移不变性的特点。图中的a(或b)表示,在原始图片中的这些a(或b)位置,最终都会映射到相同的位置。

入门卷积神经网学习(二) 池化层

(2) rotation invariance:
下图表示汉字“一”的识别,第一张相对于x轴有倾斜角,第二张是平行于x轴,两张图片相当于做了旋转,经过多次max pooling后具有相同的特征

入门卷积神经网学习(二) 池化层

(3) scale invariance:
下图表示数字“0”的识别,第一张的“0”比较大,第二张的“0”进行了较小,相当于作了缩放,同样地,经过多次max pooling后具有相同的特征

入门卷积神经网学习(二) 池化层