week1 机器学习介绍
1 机器学习介绍
1.1 什么是机器学习
“在未明确变成的情况下,赋予计算机能够学习的能力”
——Arthur Samuel
“对于某个任务T,任务表现衡量P随着任务的完成增长,便称极速那集能够通过经验来学习该任务
—–Tom Mitchell
1.2 监督学习 supervised learning
对于预先给了算法”正确结果”的称之为监督学习
分为:
- 回归问题 (regression)
已知一些房价数据和对应的房子占地面积,预测一个占地面积为750平方英尺的房屋交易价格可能是多少
解决方式是根据已知的这些数据点,拟合一个符合数据点分布的线来完成数据的预测
- 分类问题 (classification)
现在有不同年龄的乳腺癌病人和她们身上的肿瘤尺寸以及这些肿瘤是否是恶性的,我们希望通过这些已有的数据预测一个新的病人她的乳腺癌是否是恶性的。
其中圆圈代表良性肿瘤,叉叉代表恶性肿瘤,这样的问题是分类问题,我们希望算法能够学会将新的数据自动分类。
上面的例子只用了两个特征进行分类,既肿瘤的大小和年龄,实际上可能有多个特征,我们希望能够处理无限多个特征的问题,后面我们会学到,例如:支持向量机。
1.3 非监督学习 unsupervised learning
- 区别于上一节,在监督学习中,我们的数据都有一个具体的结果,例如房子的房价,肿瘤是否为良性。
- 而在非监督学习中,我们不会告诉计算机一个准确的结果,输入计算机的只是数据的特征,而非监督学习要解决的问题是发现这些数据是否可以分为不同的组
- 典型的非监督学习的栗子就是聚类问题(clustering),计算机将根据具体特征,自动将数据进行分类,
eg1.鸡尾酒会问题
在一个满是人的房间中,人们在相互对话,使用麦克风录音,利用聚类问题来识别是哪个人说的。
2 单变量线性回归
2.1 模型表达
考虑上一节的房屋价值估计问题,使用回归问题训练集,如下:
令一些变量标记如下:
由上图可知,实际上是通过将训练集给我们的训练算法学习,学习得到一个假设h,将房屋尺寸作为输入变量给假设h,就可以得到房屋的预估价格
若用一次函数你和,则h可由下式表示:
因为这种只含有一个特征/输入变量,因此这种问题叫做单变量线性回归问题
2.2代价函数
现在,我们给出了我们的假设h,只要找到合适的
现在我们选择代价函数
上图可以看出,存在一点
2.3梯度下降 gradient descent
梯度下降是一种求函数最小值的算法,我们用它来求代价函数
但梯度下降有个问题就是,我们得到的不一定是全局最小值,肯呢个只是局部最小值
批量梯度算法公式:
不停重复,直到收敛:
其中
2.4 梯度下降法在线性回归中的运用
在刚刚的梯度下降算法中,有以下公式:
其中导数部分的结果为:
因此,原梯度下降算法公式为: