数学理论(一种有趣的LR_loss)
一种有趣的LR_loss
在上篇博客中,我们描述了3中不同的loss函数,本节重点说明一下第三种log损失函数
1、在逻辑回归的loss函数中,交叉熵最大似然损失,大家已经很熟悉了,此时
y
∈
[
0
,
1
]
y\in[0,1]
y∈[0,1]:
2、那么,当我们记正例为1,反例为-1时会发生什么样的变化呢?,此时:
3、所以在2的基础上,逻辑回归问题就转化成了优化问题,只需要让上面这个loss最小:
在联邦学习中,纵向LR时使用的就是这个loss函数,可能因为经过泰勒展开(
f
(
x
)
=
f
(
x
0
)
+
f
(
x
0
)
′
(
x
−
x
0
)
)
f(x) = f(x_0)+f(x_0)\prime(x-x_0))
f(x)=f(x0)+f(x0)′(x−x0))之后方便计算吧
[1] http://www.robots.ox.ac.uk/~az/lectures/ml/2011/lect4.pdf