批量归一化和残差网络、凸优化、梯度下降

一、批量归一化(BatchNormalization)

1. 对输入的标准化(浅层模型):处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。
                                                      标准化处理输入数据使各个特征的分布相近。

2. 批量归一化(深度模型):利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。

      2.1 对全连接层做批量归一化:

                      位置:全连接层中的仿射变换和**函数之间。

                      批量归一化和残差网络、凸优化、梯度下降

    2.2  对卷积层做批量归一化

           位置:卷积计算之后、应⽤**函数之前。
           如果卷积计算输出多个通道,我们需要对这些通道的输出分别做批量归一化,且每个通道都拥有独立的拉伸和偏移参数。             计算:对单通道,batchsize=m,卷积计算输出=pxq 对该通道中m×p×q个元素同时做批量归一化,使用相同的均值和方差。

    2.3  预测时的批量归一化

           训练:以batch为单位,对每个batch计算均值和方差。
           预测:用移动平均估算整个训练数据集的样本均值和方差。

二、残差网络(ResNet)

      深度学习的问题:深度CNN网络达到一定深度后再一味地增加层数并不能带来进一步地分类性能提高,反而会招致网络收敛变得更慢,准确率也变得更差。

批量归一化和残差网络、凸优化、梯度下降

     批量归一化和残差网络、凸优化、梯度下降

      批量归一化和残差网络、凸优化、梯度下降

三、稠密连接网络(DenseNet)

       批量归一化和残差网络、凸优化、梯度下降

      批量归一化和残差网络、凸优化、梯度下降

        批量归一化和残差网络、凸优化、梯度下降

       批量归一化和残差网络、凸优化、梯度下降

四、凸优化

   尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。

  • 优化方法目标:训练集损失函数值
  • 深度学习目标:测试集损失函数值(泛化性)

优化在深度学习中的挑战

  1. 局部最小值

      批量归一化和残差网络、凸优化、梯度下降

      2. 鞍点

      批量归一化和残差网络、凸优化、梯度下降

       3. 梯度消失

        批量归一化和残差网络、凸优化、梯度下降

五、凸性

          批量归一化和残差网络、凸优化、梯度下降

         批量归一化和残差网络、凸优化、梯度下降

       

        批量归一化和残差网络、凸优化、梯度下降

 

             批量归一化和残差网络、凸优化、梯度下降

 

             批量归一化和残差网络、凸优化、梯度下降

 

六、梯度下降

     批量归一化和残差网络、凸优化、梯度下降

    批量归一化和残差网络、凸优化、梯度下降

      批量归一化和残差网络、凸优化、梯度下降

  批量归一化和残差网络、凸优化、梯度下降

 

  批量归一化和残差网络、凸优化、梯度下降

   批量归一化和残差网络、凸优化、梯度下降