深度学习之CNN反向传播



  大多数人了解推导的都是全连接层的反向传播公式,全连接层的每一层都可以看作是一个一维向量,其中的元素即代表权重,而CNN中的卷积操作以及池化操作的反向传播,你又了解多少呢?虽然二者思想一致,却又有着诸多不同之处,理解CNN的反向传播之前,先了解下互相关以及卷积的概念。

互相关

  给定一个输入图像I以及一个滤波器为k1Xk2的(即卷积核)K,则互相关定义为:
                        (IK)ij=m=0k11n=0k21I(i+m,j+n)K(m,n)            (1)

卷积

  给定一个输入图像I和一个滤波器为k1Xk2的(卷积核)K,则卷积操作为:
                        (IK)ij=m=0k11n=0k21I(im,jn)K(m,n)            (2)
                                    =m=0k11n=0k21I(i+m,j+n)K(m,n)        (3)

反向传播

卷积层

  对于CNN反向传播来说,权值W和误差敏感项δ需要更新。
  首先是权值的更新,即计算损失函数对权重的导数Ewmnl,这可以用来解释卷积核中的一个像素权重wmn的改变如何影响损失函数E。
深度学习之CNN反向传播
  在前向传播期间,卷积操作确保了卷积核中的黄色像素wmn参与对卷积核与其覆盖的输入特征图之间的乘加运算,这就意味着wmn会最终影响到输出特征图中的所有元素。
  输入为HxW,卷积核为k1xk2,那么产生的卷积图大小为(H-k1+1)x(W-k2+1),某一权重的梯度可由计算链式法则得到:
                        Ewmnl=i=0Hk1j=0Wk2Exi,jlxi,jlwmnl
                                 =i=0Hk1j=0Wk2δi,jlxi,jlwmnl        (4)
  在(4)中,xi,jl即等价于mnwm,nloi+m,j+nl1+bl,其中oi,jl=f(xi,jl),f()表示**函数。所以有:
                        xi,jlwmnl=wmnl(mnwm,nloi+m,j+nl1+bl)        (5)
  由求偏导数的性质有下列结论:
                        xi,jlwmnl=wmnl(w0,0loi+0,j+0l1+...+wmnloi+mj+nl1+...+bl)
                                =wmnl(wmnloi+mj+nl1)
                                =oi+mj+nl1        (6)
  将(6)代入(4)有:
                       Ewmnl=i=0Hk1j=0Wk2δi,jloi+mj+nl1        (7)
                                =rot180{δi,jl}omnl1        (8)
  上述(7)的求和公式是权值共享的结果,表示误差敏感项δi,jl来源于所有下一层l的输出。
  通过将误差敏感项δi,jl进行旋转180度操作即将一个相关操作变成了卷积操作。
深度学习之CNN反向传播
  下图则表示为(δ11,δ12,δ21,δ22)在反向传播中如何产生的。
深度学习之CNN反向传播
  卷积操作用来更新权重,请注意下图中误差敏感项的180度旋转操作:
深度学习之CNN反向传播
  既然得到了对权值求梯度的公式,而其中的位置项即误差敏感项δi,jl,而误差敏感项来源于:
                       δi,jl=Exi,jl        (9)
  在这点计算误差敏感项Exi,jl,能更好理解在特征图中的一个像素xij对损失函数E的影响。
深度学习之CNN反向传播
  使用求导链式法则有:
                       Exijl=i,jQExQl+1xQl+1xijl
                              =i,jQδQl+1xQl+1xijl        (10)
  Q表示上述虚线为边界的输出区域的累加,由输出的像素组成并受输入特征图中的一个像素xij所影响。
                       Exijl=m=0k11n=0k21Exim,jnl+1xim,jnl+1xijl
                              =m=0k11n=0k21δim,jnl+1xim,jnl+1xijl        (11)
在(11)中,xim,jnl+1=wmnl+1oim+m,jn+nl+bl+1,故:
                       xim,jnl+1xijl=xijl(mnwmnl+1oim+m,jn+nl+bl+1)
                                   =xijl(mnwmnl+1f(xim+m,jn+nl)+bl+1)        (12)
  继续根据偏导数的性质有:
                       xim,jnl+1xijl=xijl(wmnl+1f(x0m+m,0n+nl)+...+wm,nl+1f(xijl)+...+bl+1)
                                   =xijl(wm,nl+1f(xijl))
                                   =wm,nl+1xijl(f(xijl))
                                   =wm,nl+1f(xijl)        (13)
  将(13)代入(11),有:
                       Exijl=m=0k11n=0k21δim,jnl+1wm,nl+1f(xijl)        (14)
  对于上述(14)可以将这种相关关系表达为卷积形式即:
                       xijl=m=0n=0δim,jnl+1wm,nl+1f(xijl)
                              =rot180(m=0n=0δi+m,j+nl+1wm,nl+1f)f(xijl)        (15)
                              =δijl+1rot180(wm,nl+1)f(xl,jj)        (16)
  而对于偏置b来说,因为误差敏感项δ是三维张量,而偏置b指示一维向量,通常的作法是将误差敏感项δ各个子矩阵的项分别求和,得到一个误差向量:
                       Ebl=u,v(δl)u,v

池化层

  池化层的作用就是通过逐渐降低表达能力的维度来减少网络中的参数量以及计算量,从而也达到控制过拟合的作用。
  池化层常包括最大池化、平均池化以及L2范数池化。在池化层中,前向传播使得一个NxN的特征图减小降维,反向传播中进行上采样。
  最大池化:先利用padding对深层进行扩充,然后通过前向传播时记录最大池化中最大值的位置,然后利用这个最大位置,将深层的特征图中的值代入扩充的池化层中即可。
  平均池化:先利用padding对深层进行扩充,然后将深层中的特征图中的每个值对即将代入的扩充的池化层进行均值处理,然后代入。