机器学习---背后数学原理--线性回归
文章目录
线性回归的地位
线性回归–最小二乘法估计与极大似然法则
线性回归模型
当前目标 是 找到 模型,也就是求出参数 w。
下面介绍 用 最小二乘估计 和 极大似然 两种方法(其实二者本质上是一样的)
最小二乘估计,极大似然 ,及二者的关系(用频率派的角度理解最小二乘)
最小二乘估计
最小二乘估计的思路是:
我们找到的这个函数,于已有样本集的误差平方和 最小
极大似然
极大似然的思路是:
原本我们的样本x都是由模型生成的,但是在外界干扰的条件下,模型对x的输出(即y)会有所改变。
假设这个干扰 服从高斯分布 均值为0,方差为
即最终得到原本的y 也服从 高斯分布。
即
最小二乘估计 与 极大似然 的关系
事实上,最小二乘估计 就是 干扰服从高斯分布(均值为0,方差为 )的极大似然法则
线性回归–正则化
方法正则化
求模型即求参数w, 根据上图,想求w即要求 , 但是 并不一定可逆。
数学上不可逆,模型直观上就是过拟合。