交叉熵损失函数的优点
利用一些饱和**函数的如sigmoid**时,假如利用均方误差损失,那么损失函数向最后一层的权重传递梯度时,梯度公式为
可见梯度与最后一层的**函数的导数成正比,因此,如果起始输出值比较大,也即**函数的导数比较小,那么整个梯度幅度更新幅度都比较小,收敛时间很长。若一开始输出值比较小那么更新速度比较好,收敛也快,因此不稳定。且与输出值a与真实值的误差成正比。
再看损失函数改成交叉熵损失时:
此时损失函数对于最后一层权重的梯度不再跟**函数的导数相关,只跟输出值和真实值的差值成正比,此时收敛较快。又反向传播是连乘的,因此整个权重矩阵的更新都会加快。
另外,多分类交叉熵损失求导更简单,损失仅与正确类别的概率有关。而且损失对于softmax**层的输入求导很简单。