关于卷积神经网络该如何理解的一些思考

最近思考了一下关于“卷积神经网络”该如何去理解的问题。很多文章说,越到后边的卷积层,就会有组合多个特征的能力。但是我们每个卷积层不是有很多卷积核吗,每个卷积核不是滤波器吗,前几层把特征都滤掉了。怎么得到的如下所示的图?关于卷积神经网络该如何理解的一些思考

后来我想到可以这样理解:假设一个卷积核可以过滤出横线,而且过滤效果非常好,那么图像经过它之后应该就变成一堆长短不一的横线。假设一个卷积核可以过滤出竖线,而且过滤效果非常好,那么图像经过它之后应该就变成一堆长短不一的竖线。这样肯定不行。所以滤波器不能过滤的太过火,示例程序在随机生成卷积核的时候,随机数方差也不大。只有在过滤得不彻底的情况下,图像经过第一个卷积核以后,横线当然明显,竖线也还有残留。然后经过第二个卷积核,他又把竖线的特征放大,横线的特征也有所保留。这样经过多层卷积以后,一些组合特征便会出现。


同时也可以思考,池化时选择最大化效果更好:让特征尽快凸显。


再考虑,全连接层需要多少?我觉得一层就够了。因为多个全连接层是非线性选择器。而之前我们已经由许多个卷积核、许多层卷积核过滤除了特征的各种组合,在这里已经没有必要了。


有些神经网络,处于前面的神经元要越过中间层向后边的卷积层提供输入,应该因为多层滤波器会丢失一些特征,通过这些方法进行弥补。