1. 逻辑回归(Logistic)
用于解决二元分类问题
1. 二元分类
1. 介绍
从两个备选类中,将给定数据分到这两个类之中的一个类去。![[2019计算机视觉]——贪心学院 学习笔记 2. 统计学基础 {逻辑回归} [2019计算机视觉]——贪心学院 学习笔记 2. 统计学基础 {逻辑回归}](/default/index/img?u=aHR0cHM6Ly9waWFuc2hlbi5jb20vaW1hZ2VzLzk1MC80NjFkZmY1MTFjYzRiYzY3NDk3ODM5OThjYWQ5MGY4Ni5wbmc=)
1. 逻辑函数/模型(logit model)
Logit函数 F(x)=1+e−x1
![[2019计算机视觉]——贪心学院 学习笔记 2. 统计学基础 {逻辑回归} [2019计算机视觉]——贪心学院 学习笔记 2. 统计学基础 {逻辑回归}](/default/index/img?u=aHR0cHM6Ly9waWFuc2hlbi5jb20vaW1hZ2VzLzY1Mi8xNTI4ODgzZjIzZWIxNjMwNzA2MTMxY2NkNTNmZjgyNC5wbmc=)
取值:当f(x)≥0.5,取y = 1,否则取y = 0
注意观察Logit函数导数的样子
2. Logit与二元回归
我们可以将f(x)看作是“在给定输入x下,y=1的概率”即 P(y=1∣x)
于是, 可以得到P(y=1∣x)=f(x)=1+e−(θ0+θ1x)1
3. 使用逻辑回归解决二元分类问题
P(y=1∣x;θ)=f(x;θ)=1+e−θTx1
解释:求训练得到的系数θ,给定x下y=1的概率。也就等于后面的1+e−θTx1
θ为向量,θ=[θ0,θ1,θ2,...]
x也向量,x=[1,x1,x2,...] [^2]:X从1开始的原因是:线性拟合的的一个参数是1∗θ
θTx=∑i=0θixi (x0=1)
【实验】2.1 使用逻辑函数 完成对购车的预测
2. 使用Logit进行预测的模型解释
1. 损失函数定义
P(y=1∣x;θ)=f(x;θ)=1+e−θTx1
损失函数:J(θ)=p=−n=1∑N[y(i)ln(P(Y=1∣X=x(i);θ)+(1−y(i))ln(1−P(Y=1∣X=x(i);θ))]
2. 损失函数的解释
对于给定第i个模型的概率,yi表示第i个数据为1,它乘以ln(P(Y=1∣X=xi;θ)表示乘以在参数θ下 x=x(i)的条件下 y为1的概率,如果猜测符合实际,这个值将会=0。同理,右边(1−y(i))ln(1−P(Y=1∣X=x(i);θ))]在预测正确的情况下也会趋于0。故此,损失函数J(θ)较好的表示了预测值和真值的相差程度,因此将至用于度量模型的损失值。
3. 损失函数的特点
损失函数是凸函数,可导
▽θJ(θ)=i∑x(i)(f(x(i);θ)−y(i))
4. 计算方式
- 随机初始化
- 计算梯度
- 梯度下降
5. Logit函数求梯度
(过程略)关键结论如下
- f(Z)′=(1+eZ1)′=...=f(Z)[1−f(Z)]
- l(θ)=logL(θ)=log(i=0∏nyiPi∗i=0≡0∏n(1−yi)(1−Pi))
- dθdln(θ)=i=1∑N(yi−Pi)xi
-
log(L(θ))为期望,我们需要最大化期望,这需要梯度上升法。为满足一般使用梯度下降法的习惯,故取loss(θ)=−l(θ)。由此,对loss求θ求导就为∂θ∂loss(θ))=i=1∑N(Pi−yi)x