logistic回归的代价函数为:J(θ)=−m1i=1∑m[y(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i)))]
其中,m 是样本个数,(x(i),y(i))是第 i 个样本,而 hθ 表达式是:hθ(x)=1+e−θTx1
我们用梯度下降法找到最合适的参数 θ ,如果代价函数是 θ 的一个凸函数,可以保证到达全局最优点,否则只能是局部最优点。现在,我们来对该代价函数的凸性进行分析:
[预备知识] Boyd的《convex optimization》一书中给出的一些基础知识:
(a). 72页:Log-sum-exp函数是凸函数:

(b). 83页:复合函数的凸性:


[分析] 首先,我们只对某一个样本(x(i),y(i))进行分析:
log[hθ(x(i))]=log[1+e−θTx(i)1]=−log(1+e−θTx(i))是一个根据预备知识(a), log(1+et)是 t 的一个凸函数。(evluated at t0=1,t1=t)。于是又根据预备知识(b),log(1+e−θTx(i))是 θ 的一个凸函数,于是 log[hθ(x(i))]是一个凹函数(凸函数乘了一个负号)。由于y(i)取0或1,因此y(i)log[hθ(x(i))]是凹函数。
同理:log[1−hθ(x(i))]=log[1+e−θTx(i)e−θTx(i)]=−θTx(i)−log(1+e−θTx(i))由于−θTx(i)是 θ 的一个凹函数,因此log[1−hθ(x(i))] 是凹函数。由于 1−y(i) 取值0或1,因此(1−y(i))log[1−hθ(x(i))]是凹函数。
由此可知:−m1[y(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i)))]是 θ 的一个凸函数(凹函数前乘了一个负号),也不难得到最后的代价函数也是凸函数了(多个凸函数相加)。