总结CNN的发展历程,以及一些骚操作

1.Lenet-5  :最先出现的卷积神经网络,1998年,由于当时的硬件还不成熟,因此到了2012年出现了AlexNet

2.AlexNet:可以说是现在卷积神经网络的雏形

3.VGGNet:五个模块的卷积叠加,网络结构如下:

 

总结CNN的发展历程,以及一些骚操作

4.GoogleNet:inception v1,v2,v3, xception,基本思想就是对feature map用不同的卷积核filter进行卷积,然后concact,其中xception是对每个通道的feature map进行3×3的卷积,叫做通道分离卷积。

5.ResNet:分为building block,bottleneck都是叫做残差块,应为都有跳远连接,网络结构如下,主要也是五个大的模块:

总结CNN的发展历程,以及一些骚操作

6.DenseNet:主要思想是当前卷积层的输出feature map都要concact上一层的卷积输出,主要网络图如下:

总结CNN的发展历程,以及一些骚操作

7.一些好用的卷积操作:

1×1filter又叫通道卷积 。

3×3卷积,一般经典网络的卷积核大小。

上采样:FCN网络中提到的思想

通道concact:inception网络中的思想,让网络变胖

跳远连接:ResNet网络中的思想,让网络变长

随机分组卷积:对feature map的channel随机分组再进行卷积,ShuffleNet思想

通道加权卷积:SEnet

空洞卷积:dilated conv,一个卷积点周围填0,让卷积变大,视野更广

网络多尺度的理解:不同的卷积核大小看到的图片的视野不一样

Label Smoothing Regularization(LSR):是一种通过在输出y中添加噪声,实现对模型进行约束,降低模型过拟合(overfitting)程度的一种约束方法(regularization methed)。

ohem:

focal loss:

softmax:

总结CNN的发展历程,以及一些骚操作

softmaxloss(cross entropy):

总结CNN的发展历程,以及一些骚操作

sigmoid:

总结CNN的发展历程,以及一些骚操作