机器学习笔记(二)
根据观看吴恩达机器学习视频做的个人笔记,记录如下:
第二章
第六课时 模型描述
过程如下:训练集--〉学习算法-->h假设函数
线性回归: 先学习简单的一元线性回归,如h(x) = a + bx;
m:训练样本数量 x:输入变量 y:输出变量
第七课时 代价函数
代价函数(也称平方误差函数、平方误差代价函数):可以测量假试函数的精准
平方误差代价函数对于绝大多数回归问题是很有用的。
其中,J代表代价函数(Cost Function).
第八课时 代价函数(一)
假设h(x) = bx,常数为0 只考虑一个参数.
第九课时 代价函数(二)
等高线图(又称等高图像)如下:
第十课时 梯度下降
:= 冒号等号表示赋值
= 表示真假判定,表示如a=b表示a与b的值相等
α 学习率:梯度下降走的步伐
第十二课时 线性回归的梯度下降
对线性回归的代价函数,结合梯度下降算法,即可得出线性回归算法
第十七课时 矩阵乘法
第三十二课时 正规方程
第三十三课时 正规方程在矩阵不可逆情况下的解决方法