Logistic Regression逻辑回归的一些知识点
关于Logistic Regression的一些知识点:
- 为什么损失函数不用平方误差:
答:这样的损失函数不是凸的,梯度下降法会陷入局部最小值。
二分类问题的损失函数:
另外,使用平方误差 + sigmoid**函数,所得backprop梯度为:
而使用交叉熵,所得backprop梯度为:
表达式里面没有了,一定程度上避免了反向传播梯度小,收敛速度慢的问题。
关于Logistic Regression的一些知识点:
另外,使用平方误差 + sigmoid**函数,所得backprop梯度为:
而使用交叉熵,所得backprop梯度为:
表达式里面没有了,一定程度上避免了反向传播梯度小,收敛速度慢的问题。