《吴恩达深度学习》04卷积神经网络(第2周深度卷积网络:实例探究)
分类:
文章
•
2024-01-02 14:42:34
04.卷积神经网络
第2周 深度卷积网络:实例探究
2.1 为什么要进行实例探究?
- 概述
(1)经典网络
LeNet-5
AlexNet
VGG
(2)ResNet
(3)Inception
2.2 经典网络
- LeNet-5
(1)针对灰度图像。
(2)输入:32×32×1。
(3)Conv1:f=5,s=1,6个过滤器,输出28×28×6。
(4)Pool1:f=2,s=2,一般采用平均池化,输出14×14×6。
(5)Conv2:f=5,s=1,16个过滤器,输出10×10×16。
(6)Pool2:f=2,s=2,一般采用平均池化,输出5×5×16。
(7)FC3:120
(8)FC4:84
(10)论文:LeCun et al. 1998. Gradient-based learning applied to document recognition。
- AlexNet
(1)输入:227×227×3。
(2)Conv1:f=11,s=4,96个过滤器,输出KaTeX parse error: Undefined control sequence: \5 at position 9: 55\times\̲5̲5\times96。
(3)Pool1:f=3,s=2,采用最大池化法。
(4)Conv2:f=5,256个过滤器,采用相同卷积法,输出27×27×256。
(5)Pool2:f=3,s=2,采用最大池化法,输出13×13×256。
(6)Conv3:f=3,采用相同卷积法,输出13×13×384。
(7)论文:Krizhevsky et al. 2012. ImageNet: classification with deep convolutional neural networks。
- VGG-16
(1)Conv=3×3过滤器,s=1,相同卷积
(2)MAX-POOL=2×2,s=2
(3)[CONV64]×2表示有两层卷积层,每层有64个卷积过滤器
(4)论文:Simonyan & Zisserman 2015. Very deep convolutional networks for large-scale image recognition。
- 论文阅读顺序建议:首先阅读AlexNet论文,然后是VGG论文,最后是LeNet。
2.3 残差网络
2.4 残差网络为什么有用?
2.5 网络中的网络以及1×1卷积
2.6 谷歌Inception网络简介
2.7 Inception网络
2.8 使用开源的实现方案
2.9 迁移学习
2.10 数据扩充
2.11 计算机视觉现状