4、机器学习中的逻辑回归

前面介绍的是线性回归,就是说有一堆的数据,找到一条线去拟合他们,找出规律,然后做预测。
现在呢,我们要解决的是分类问题,也就是说我们最终预测的结果是一个概率值,预测出的结果属于某一个类的概率是多少。(概率嘛,值肯定是在0到1之间)
4、机器学习中的逻辑回归
对于一个二元分类问题,结果y只能等于0或者1,分别称为负向类和正向类。我们需要用到逻辑回归算法,使得假设h的输出在0到1之间,就需要找到一个满足这个性质的假设函数。
4、机器学习中的逻辑回归
这样理解就是,当假设输出大于等于0.5,那么我们就认为y=1,否则y=0
假设函数在这里定义一个新的模型:
4、机器学习中的逻辑回归
是不是很熟悉,括号里面的是线性回归中的假设h,我们要做的就是把这个线性回归中的输出转化成一个0到1之间的值,需要用到这样一个函数:
4、机器学习中的逻辑回归
我们动手画一画其实就是这个样子:
4、机器学习中的逻辑回归
那么至此我们得到的假设函数就是这个样子(h)
4、机器学习中的逻辑回归
它不同于线性回归中的假设函数,因为线性回归中可以用梯度下降法来求解参数,但是这个h由于不是一个凸函数,所以不能用梯度下降法来求取,那么如何确定参数呢?
我们重新定义代价函数J如下:
4、机器学习中的逻辑回归
4、机器学习中的逻辑回归
理解一下cost function,当 y=1 的时候,如果我们的假设函数也预测的是1,那么cost = 0,也就是代价就是0;若假设函数的输出是0,那么cost就是无穷大,代价就是无穷。
4、机器学习中的逻辑回归
进一步简化一下,将其合并就是:
4、机器学习中的逻辑回归
带入代价函数J中,那么得到:
4、机器学习中的逻辑回归
之后呢,我们便可以用梯度下降法来进行参数的求解了。(最小化代价函数 J)
4、机器学习中的逻辑回归
最后我们来总结一下他和线性回归中的区别,一张图足矣。
4、机器学习中的逻辑回归