《吴恩达深度学习》04卷积神经网络(第2周深度卷积网络:实例探究)

04.卷积神经网络

第2周 深度卷积网络:实例探究

2.1 为什么要进行实例探究?

  1. 概述
    (1)经典网络
    LeNet-5
    AlexNet
    VGG
    (2)ResNet
    (3)Inception

2.2 经典网络

  1. LeNet-5
    (1)针对灰度图像。
    (2)输入:32×32×132\times 32 \times 1
    (3)Conv1:f=5,s=1f=5, s=1,6个过滤器,输出28×28×628\times 28\times 6
    (4)Pool1:f=2,s=2f=2, s=2,一般采用平均池化,输出14×14×614\times 14 \times 6
    (5)Conv2:f=5,s=1f=5, s=1,16个过滤器,输出10×10×1610\times 10\times 16
    (6)Pool2:f=2,s=2f=2, s=2,一般采用平均池化,输出5×5×165\times 5 \times 16
    (7)FC3:120120
    (8)FC4:8484
    《吴恩达深度学习》04卷积神经网络(第2周深度卷积网络:实例探究)
    (10)论文:LeCun et al. 1998. Gradient-based learning applied to document recognition。
  2. AlexNet
    (1)输入:227×227×3227\times227\times 3
    (2)Conv1:f=11,s=4f=11, s=4,96个过滤器,输出KaTeX parse error: Undefined control sequence: \5 at position 9: 55\times\̲5̲5\times96
    (3)Pool1:f=3,s=2f=3, s=2,采用最大池化法。
    (4)Conv2:f=5f=5,256个过滤器,采用相同卷积法,输出27×27×25627\times27\times256
    (5)Pool2:f=3,s=2f=3,s=2,采用最大池化法,输出13×13×25613\times13\times256
    (6)Conv3:f=3f=3,采用相同卷积法,输出13×13×38413\times13\times384
    《吴恩达深度学习》04卷积神经网络(第2周深度卷积网络:实例探究)
    (7)论文:Krizhevsky et al. 2012. ImageNet: classification with deep convolutional neural networks。
  3. VGG-16
    (1)Conv=3×33\times3过滤器,s=1s=1,相同卷积
    (2)MAX-POOL=2×2,s=22\times2,s=2
    (3)[CONV64]×2[CONV 64]\times2表示有两层卷积层,每层有64个卷积过滤器
    《吴恩达深度学习》04卷积神经网络(第2周深度卷积网络:实例探究)
    (4)论文:Simonyan & Zisserman 2015. Very deep convolutional networks for large-scale image recognition。
  4. 论文阅读顺序建议:首先阅读AlexNet论文,然后是VGG论文,最后是LeNet。

2.3 残差网络

2.4 残差网络为什么有用?

2.5 网络中的网络以及1×11\times1卷积

2.6 谷歌Inception网络简介

2.7 Inception网络

2.8 使用开源的实现方案

2.9 迁移学习

2.10 数据扩充

2.11 计算机视觉现状