机器学习笔记(二)

根据观看吴恩达机器学习视频做的个人笔记,记录如下:

第二章

第六课时 模型描述
过程如下:训练集--〉学习算法-->h假设函数
线性回归: 先学习简单的一元线性回归,如h(x) = a + bx;
m:训练样本数量 x:输入变量 y:输出变量
机器学习笔记(二)

第七课时 代价函数
代价函数(也称平方误差函数、平方误差代价函数):可以测量假试函数的精准
平方误差代价函数对于绝大多数回归问题是很有用的。
其中,J代表代价函数(Cost Function).
机器学习笔记(二)


第八课时 代价函数(一)

机器学习笔记(二)

假设h(x) = bx,常数为0 只考虑一个参数.

第九课时 代价函数(二)
等高线图(又称等高图像)如下:
机器学习笔记(二)


第十课时 梯度下降
:= 冒号等号表示赋值
= 表示真假判定,表示如a=b表示a与b的值相等
α 学习率:梯度下降走的步伐
机器学习笔记(二)注意:要实现同步更新,左下角的做法是正确的,右下角的做法是错误的

第十二课时 线性回归的梯度下降
对线性回归的代价函数,结合梯度下降算法,即可得出线性回归算法

第十七课时 矩阵乘法
机器学习笔记(二)

第三十二课时 正规方程

机器学习笔记(二)


第三十三课时 正规方程在矩阵不可逆情况下的解决方法
机器学习笔记(二)