machine learning学习笔记(二)多元线性回归

多元线性回归 Linear Regression

线性回归,就是给在平面图上给出一组数据,我想找到一条穿过他们中间的直线,使得每个点到这条直线的距离的和都能最小。
如果是多元线性回归,那么意味着将不再是普通的y=wx+b问题,而是y=w1x1+w2x2+…+b的问题。

machine learning学习笔记(二)多元线性回归
但是,拟合必然有损失,我们定义以下损失函数↓

均方误差,顾名思义又算方差,又算平均值。
machine learning学习笔记(二)多元线性回归
machine learning学习笔记(二)多元线性回归

展开来写:
machine learning学习笔记(二)多元线性回归

最后一步实际上是求偏导。要求这个式子的最小值,也就是
machine learning学习笔记(二)多元线性回归
他的最小值:
machine learning学习笔记(二)多元线性回归

我们在高中学过,求最大最小值,就要求导数=0.

所以对w进行偏导:
machine learning学习笔记(二)多元线性回归
一顿求导和矩阵左右移动,得到我们最终的:
machine learning学习笔记(二)多元线性回归
求得的这个w就叫OLS

例题:

machine learning学习笔记(二)多元线性回归

令X=
0 1 1
0 1 1
1 1 1
1 0 1
1 0 1

y=
0
1
2
3
4

带入公式
machine learning学习笔记(二)多元线性回归
可得 w =( 2,1.5, -1.5)