Softmax
1、定义
假设我们有一个数组V,Vi表示V中的第i个元素,那么这个元素的softmax值就是
也就是该元素的指数,与所有元素的指数和的比值。
2、计算与标注样本之间的差距
在神经网络的计算当中,我们经常需要计算按照神经网络的正向传播计算的分数S1,和按照正确标注计算的分数S2,之间的差距,计算Loss,才能应用反向传播。Loss定义为交叉熵。
取log里面的值就是这组数据正确分类的Softmax值,它占的比重越大,这个样本的Loss值就越小,这种定义符合我们的要求。
3、计算方便
参考:https://www.zhihu.com/question/23765351
https://hit-scir.gitbooks.io/neural-networks-and-deep-learning-zh_cn/content/chap3/c3s4.html