逻辑回归
逻辑回归是一种经典的分类方法,属于判别模型。
逻辑斯蒂分布
设X是连续随机变量,X服从逻辑斯蒂分布是指X具有以下分布函数:
F(x)=P(X≤x)=1+e−x1
分布函数F(x)又可称为Sigmoid函数,函数图形如下图所示:

二项逻辑回归模型
二项逻辑回归模型是一种分类模型,由条件概率分布P(Y∣X)表示。随机变量X取值为实数,随机变量Y取值为1或0。
二项逻辑回归模型的条件概率分布:
P1=P(Y=1∣X)=1+exp(w⋅x+b)exp(w⋅x+b)
P0=P(Y=0∣X)=1+exp(w⋅x+b)1
逻辑回归比较两个条件概率值的大小,将实例x分类到概率值较大的那一类。
综合以上条件概率分布可将模型表示为以下函数:
P(Y∣X)=P1P0=P(Y=1∣X)YP(Y=0∣X)1−Y
通过逻辑回归模型可以将线性函数w⋅x转换为概率,线性函数的值越接近正无穷,概率值就越接近1;线性函数的值越接近负无穷,概率值就越接近0.
模型参数估计
逻辑回归模型学习时,可以应用极大似然估计法估计模型参数,从而得到逻辑回归模型。假设w的极大似然估计是w^,且数据样本之间是独立同分布的,故有
w^=wargmaxlogP(Y∣X)=wargmaxlogi=1∏NP(yi∣xi)(独立同分布)=wargmaxi=1∑NlogP(yi∣xi)=wargmaxi=1∑N(yilogP1+(1−yi)logP0)
这样问题就变成了对数似然函数为目标函数的最优化问题。逻辑回归学习中通常采用的方法是梯度下降法及拟牛顿法。
多项逻辑回归
可将二项的逻辑回归模型推广到多项逻辑回归模型,用于多项分类。假设离散型随机变量Y的取值集合是1,2,⋯,K,那么多项逻辑回归模型是:
P(Y=k∣X)=1+∑k=1K−1exp(wk⋅x)exp(wk⋅x),k=1,2,⋯,K−1
P(Y=K∣X)=1+∑k=1K−1exp(wk⋅x)1
二项逻辑回归的参数估计法也可推广到多项逻辑回归。