logit,softmax和cross entropy
在多分类问题中:
笔者理解logit是一个催化剂的作用,它扩大了数据之间的差异性,使一些由于值域有上下限的问题数据之间的差别更大了。之后用softmax函数将扩大后的数据再映射到概率区间(0,1),输出概率最大的类别为预测值,再用cross entropy函数计算损失值。
附上公式:
logit函数:
softmax:
cross enropy:yi是正确解的标签,pj是该标签下预测出来的概率
流程为(粗略):
若是一个四分类问题,softmax输出概率为(0.2,0.1,0.6,0.1)对应索引为(0,1,2,3),如果预测错误,正确的标签为3,由于ONE-HOT,损失函数为-log(0.1)。如果预测正确,正确的标签为2,损失函数为-log(0.6),损失函数较小。如有理解错误,欢迎指正。
参考文章:
https://zhuanlan.zhihu.com/p/51431626
https://blog.****.net/u014380165/article/details/77284921