逻辑回归理解

第三天系统学习。

1.二分类问题,希望能够找一条边界把样本划分开来,例如下面这个图

逻辑回归理解

       线性回归是找一条线尽量的穿过所有样本,而不是找一条边界隔开,这时候希望函数输出的值为两个0-1,如果是红色的就是1,绿的就是0,越像红色就越接近于1,越像绿色就越接近0.这里有一个概率函数Sigmod()函数。它的输出y值在0-1之间,符合二分类问题,这里的推导是可以从数学方面直接推导出来的,推导过程比较麻烦不太想写,简单介绍一下,首先是根据朴素贝叶斯公式推导出sigmod方程,根据最大似然估计和高斯分布的除伯努利分布,交叉熵(cross entropy),感觉知道怎么用就好了。

逻辑回归理解

将θTX带入到sigmod方程中就可以将结果限制在0-1之间,这样就得到了预测函数,当h>0.5(可以自行设置)的时候可以认为该样本属于第一类,h<0.5的时候属于第二类,h=0.5可以任意一类,这个0.5可以设置为任何数比如0.7,这样对与第一类的查找就更加严格了。

逻辑回归理解

下面举个例子,当θ已知的时候,画出决策边界。

逻辑回归理解

2.损失函数

已经有了预测函数,如何将θ最优解找出来就需要一个损失函数,来表示当前值和最优解的差距。因为是二分类任务,当y=0的时候就可以用1-h来表示,将两个方程整合一下。

逻辑回归理解

逻辑回归理解

与线性回归一样,将概率用似然函数

逻辑回归理解

同样的求一下log

逻辑回归理解

这里的L为cross entropy

逻辑回归理解

3.逻辑回归+梯度下降

首先先对L进行求导,为了梯度下降的时候求的切线方向

逻辑回归理解

发现逻辑回归和线性回归梯度下降方程基本一致,只是h不一样,这里的h是sigmod方程,线性回归的h是θX。

逻辑回归理解

4.多类别分类softmax

逻辑回归理解