残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

2.3 残差网络(Residual Networks (ResNets)

非常非常深的神经网络是很难训练的,因为存在梯度消失和梯度爆炸问题。这节课我们学习跳跃连接(Skip connection),它可以从某一层网络层获取**,然后迅速反馈给另外一层,甚至是神经网络的更深层。我们可以利用跳跃连接构建能够训练深度网络的ResNets,

有时深度能够超过 100 层,让我们开始吧。

ResNets 是由残差块(Residual block)构建的,首先我解释一下什么是残差块。

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

 

 

ResNet 网络就是通过将很多这样的残差块堆积在一起,形成一个很深神经网络,我们来看看这个网络。

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

这并不是一个残差网络,而是一个普通网络(Plain network),这个术语来自 ResNet 论文。

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

把它变成 ResNet 的方法是加上所有跳跃连接,正如前一张幻灯片中看到的,每两层增加一个捷径,构成一个残差块。如图所示,5 个残差块连接在一起构成一个残差网络。

如果我们使用标准优化算法训练一个普通网络,比如说梯度下降法,或者其它热门的优化算法。如果没有残差,没有这些捷径或者跳跃连接,凭经验你会发现随着网络深度的加深,训练错误会先减少,然后增多。而理论上,随着网络深度的加深,应该训练得越来越好才对。也就是说,理论上网络深度越深越好。但实际上,如果没有残差网络,对于一个普通网络来说,深度越深意味着用优化算法越难训练。实际上,随着网络深度的加深,训练错误会越来越多。

2.4 残差网络为什么有用?(Why ResNets work? )

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

结果表明,残差块学习这个恒等式函数并不难,跳跃连接使我们很容易得出???? [????+2] = ???? [????] 。 这意味着,即使给神经网络增加了这两层,它的效率也并不逊色于更简单的神经网络,因为学习恒等函数对它来说很简单。尽管它多了两层,也只把???? [????] 的值赋值给???? [????+2] 。所以给大型神经网络增加两层,不论是把残差块添加到神经网络的中间还是末端位置,都不会影响网络的表现。

我认为残差网络起作用的主要原因就是这些残差块学习恒等函数非常容易,你能确定网络性能不会受到影响,很多时候甚至可以提高效率,或者说至少不会降低网络的效率,因此创建类似残差网络可以提升网络性能。

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

最后,我们来看看 ResNets 的图片识别。这些图片是我从何凯明等人论文中截取的,这是一个普通网络,我们给它输入一张图片,它有多个卷积层,最后输出了一个 Softmax。

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

如何把它转化为 ResNets 呢?只需要添加跳跃连接。这里我们只讨论几个细节,这个网络有很多层 3×3 卷积,而且它们大多都是 same 卷积,这就是添加等维特征向量的原因。所以这些都是卷积层,而不是全连接层,因为它们是 same 卷积,维度得以保留,这也解释了

添加项z[????+2] + a [????] (维度相同所以能够相加)

残差网络 吴恩达 第四门课 卷积神经网络 第二周 深度卷积网络

不论这些层是什么类型,正如我们在上一张幻灯片看到的,你都需要调整矩阵Ws 的维度。普通网络和 ResNets 网络常用的结构是:卷积层-卷积层-卷积层-池化层-卷积层-卷积层-卷积层-池化层……依此重复。直到最后,有一个通过 softmax 进行预测的全连接层。

以上就是 ResNets 的内容。