图像卷积网络里的概念汇总(持续更新)
CNN经典结构(Lenet,AlexNet,VGG,GoogleNet,ResNet, Resnext, Densenet, Senet, BAM,mobilenet)及其pytorch实现_人工智能_xu_fu_yong的专栏-****博客
https://blog.****.net/xu_fu_yong/article/details/92848502?depth_1-
(22条消息)深度学习----CNN几种常见网络结构及区别_网络_樱花落瓣-****博客
https://blog.****.net/Sakura55/article/details/81559881
我将从Lenet 开始,以时间线为维度,从各大经典网络里抽取 每一个网络 提出的各种经典的网络结构,方法做个汇总,讲解,也当作一个自己的知识梳理。
- LeNet-5
- AlexNet
- VGG-16
- Inception-v1
- Inception-v3
- ResNet-50
- Xception
- Inception-v4
- Inception-ResNets
- ResNeXt-50
1、LeNet-5
2、AlexNet
3、VGG-16(19)
特点:网络的层次都更深了。但是参数是Alexnet的三倍
NIN层 和 全局平均池化层 (Global Average Pooling)GAP
GAP 另外一个很好解释的图
GAP能减少参数量的解释图,最右边那个应该是 4*4 = 16.
4、GoogleNet:2014年的ILSVRC的冠军模型
https://zhuanlan.zhihu.com/p/104671625
特点:网络的层次都更深了。
虽然深度有22层,但是参数却是Alexnet的1/12。性能更加优越,碾压VGG。
Inception-v1
特色: 引入了多尺度的方法,增加多尺度对于输入特征图信息的提取,同时参数也维持脚底水平。
设计一个稀疏网络结构,但是怎么产生稠密的数据呢。就用这个!CNN中常见的三种卷积核,和池化操作堆叠在一起,一方面增加了网络的宽度,另一方面也加强了网络对尺度的是影响。但是这个原始的版本思路是好的,但是计算量太大了,因此作者对3x3和5x5的卷积层之前用了1x1的缩小图片的channel数量,因此V1是这个样子: