machine learning学习笔记(二)多元线性回归
多元线性回归 Linear Regression
线性回归,就是给在平面图上给出一组数据,我想找到一条穿过他们中间的直线,使得每个点到这条直线的距离的和都能最小。
如果是多元线性回归,那么意味着将不再是普通的y=wx+b问题,而是y=w1x1+w2x2+…+b的问题。
但是,拟合必然有损失,我们定义以下损失函数↓
均方误差,顾名思义又算方差,又算平均值。
展开来写:
最后一步实际上是求偏导。要求这个式子的最小值,也就是
他的最小值:
我们在高中学过,求最大最小值,就要求导数=0.
所以对w进行偏导:
一顿求导和矩阵左右移动,得到我们最终的:
求得的这个w就叫OLS
例题:
令X=
0 1 1
0 1 1
1 1 1
1 0 1
1 0 1
y=
0
1
2
3
4
带入公式
可得 w =( 2,1.5, -1.5)