机器学习理论笔记(1)

线性模型和最小二乘法

Given input: XT=(X1,X2,,Xp)
Predict output:Y
Via:

(1.1)Y^=β0^j=1pXjβj^

β0^表示截断(intercept)or 偏差(bias)
为方便起见,我们让X中包含常量1,那么就有
(1.2)Y^=XTβ^

对于输出输出对(x,y)的最小二乘方法是:
(1.3)RSS(β)=i=1N(yixiTβ)2

那么求解次最小二乘问题的解是:
(1.4)β^=(XTX)1XTy

分类问题

机器学习理论笔记(1)
参考图片中线性分类模型,我们规定两部分函数值(蓝色=0,橙色=1)。用线性回归模型来拟合,决策边界线是xTβ^=0.5,把所有的点分成0,1两类,线的一侧为0,另一侧为1,由已知点极小化分类误差RSS(β)可以得到唯一一条直线,然后对整个空间进行分类。
这种回归分类方法简单但是适应性差。