摘要
逻辑斯特回归同样属于监督学习,说到回归一般指的是对连续值的预测,这里的逻辑斯特回归用来解决分类问题,此篇博客主要以二分类为例子分析。
例子如下:
横坐标表示肿瘤大小,纵坐标表示是否为恶性肿瘤。

可以看到线性回归得到的一条直线中加上一个阈值(大于某一值取正样本,反之取负样本)可以对这8个样本点有一个比较明确的分类,如下如图:
但是这个方法对噪声点很敏感,如果我们增加三个样本点,得到一个新的拟合直线:

再用刚才的阈值来划分时发现,新添加的样本被判断错了,鲁棒性不够,由此可见在线性回归中很难找一个绝对的值来严格划分样本结果,此时使用逻辑斯特回归来解决。
问题分析
逻辑斯特回归利用一个相对的值(线性回归不能绝对的确定结果)——概率,来对每一个样本点预测,它的输出被映射到[0,1]上,是一个连续值。此映射归功于sigmoid函数:
y=1+e−x1

逻辑斯特的做法是:将线性回归的结果映射到sigmoid函数可以得到每一个样本点的概率值。但是需要一组好的参数来将样本分开,这里的参数就是判定边界的参数。
接下来讨论一个概念——判定边界,就是在样本集中分类的边界。
如图线性回归中,判定边界为一条直线,我们假设为y=−3+x1+x2,当y=0时,直线将样本划分为两类:

其中:hθ(x)=g(θ0+θ1x1+θ2x2)
表示将线性回归的结果映射到sigmoid函数,hθ(x)输出一个[0,1]的概率值,y=0为此时的判定边界,在直线上方是正样本,下方为负样本,假设的参数θ是要学习的。

同理当我们造出高次项的特征时,非线性的判定边界也可以是曲线。当y=0时为圆的边,y>0为圆的外面,y<0为圆的里面,这样可以很好的分类样本集。
逻辑斯特回归的损失函数:
线性回归中利用方差的方法不适合,因为逻辑回归的是分类问题,所求得结果是概率,在[0,1]之间 导致hθ(x)是一个不光滑的曲线(非凸函数,有局部最小点,梯度下降法不能用),此时使用互熵损失:
Cost(hθ(x),y)={−log(hθ(x))−log(1−hθ(x))if:if:y=1y=0
当y=1结果是正样本时,x越接近1,Cost函数越小,损失越小:
当y=0结果是正样本时,x越接近0,Cost函数越小,损失越小:

可得出逻辑斯特回归的损失函数:
J(θ)=m1i=1∑mCost(hθ(x(i)),y(i))=−m1i=1∑m[(yiloghθ(x(i))+(1−yi)log(1−hθ(x(i)))]
别忘了L2正则化:
J(θ)=−m1i=1∑m[(yiloghθ(x(i))+(1−yi)log(1−hθ(x(i)))]+2mλi=1∑mθi2
接下来是梯度下降(Jθ(x)是一个凸函数,只存在一个最优解)法寻找最优解:
θi=θi−α∂θi∂J(θ)
多分类问题是可以构建多个分类器,例如:对A和{B,C}分类构建分类器,然后再对B,C构建分类器。
总结与链接
LR(逻辑斯特回归)使用注意:
1.样本量太大时可以:
- 离散化后用one-hot编码处理;
- 连续值注意要用scaling(标准化)
2.样本平衡
- LR对样本敏感,注意噪声样本
- 做上采样(样本多,可以对不均衡样本采样,正多采正)和下采样(图像中对样本丰富,镜像,反转…)
- 改lose function(对不均衡样本权重调节)