数学理论(一种有趣的LR_loss)

一种有趣的LR_loss

在上篇博客中,我们描述了3中不同的loss函数,本节重点说明一下第三种log损失函数

1、在逻辑回归的loss函数中,交叉熵最大似然损失,大家已经很熟悉了,此时 y ∈ [ 0 , 1 ] y\in[0,1] y[0,1]:
数学理论(一种有趣的LR_loss)
2、那么,当我们记正例为1,反例为-1时会发生什么样的变化呢?,此时:
数学理论(一种有趣的LR_loss)

3、所以在2的基础上,逻辑回归问题就转化成了优化问题,只需要让上面这个loss最小:
数学理论(一种有趣的LR_loss)
在联邦学习中,纵向LR时使用的就是这个loss函数,可能因为经过泰勒展开( f ( x ) = f ( x 0 ) + f ( x 0 ) ′ ( x − x 0 ) ) f(x) = f(x_0)+f(x_0)\prime(x-x_0)) f(x)=f(x0+f(x0)(xx0))之后方便计算吧

[1] http://www.robots.ox.ac.uk/~az/lectures/ml/2011/lect4.pdf