经典神经网络架构

整体概述

经典神经网络架构
前4个是目标分类的经典网络

Alexnet(现在用的少)

经典神经网络架构
卷积核比较大
local response norm层后来被证明是无用的。

Vgg

经典神经网络架构

卷积核都是3X3:细粒度特征提取。
特点:在maxpool后,把损失的特征弥补起来,用厚度翻倍弥补长和宽。
Vgg的时间会比Alexnet长很多,如Alexnet8小时,Vgg需要3天。

Resnet残差网络

经典神经网络架构
对于问题:56层比20层的错误率要更高。
Resnet提出解决方案:在20层以后,当经过两次卷积,若结果不好就跳过第二层卷积,把之前的输入加回来。在残差网络中,每一层至少不会比前一层的学习效果差
经典神经网络架构
经典神经网络架构

经典神经网络架构

在解决实际问题中,使用经典神经网络就可以了。

GoogLeNet:多分辨率融合

Inception module

经典神经网络架构

经典神经网络架构

经典神经网络架构

原先是左边,后来增加1X1的卷积,数据就会被降维,不会这么臃肿。

经典神经网络架构

全卷积FCN

经典神经网络架构