吴恩达机器学习day7(机器学习的进一步发展)
机器学习的建议
一.决定下一步做什么
【1】.获得更多的训练样本
注意:通过获得更多的数据,有时候有效,但有时候获得更多的训练数据实际上并没有作用。
通常是有效的,但代价较大,下面的方法也可能有效,可考虑先采用下面的几种方法。
【2】尝试减少特征的数量
【3】尝试获得更多的特征
【4】尝试增加多项式特征
比如的平方,的平方,的乘积
【5】尝试减少正则化程度
【6】.尝试增加正则化程度
二.评估一个假设
如何避免过拟合和欠拟合
选择参量来使训练误差最小化,仅仅是因为这个假设具有很小的训练误差,并不能说明它就一定是一个好的假设函数。可能是一个过拟合假设函数的例子
【1】如何判断一个假设函数是过拟合的呢?
1.方法一
我们可以对假设函数进行画图,然后观察图形趋势,但对于特征变量不止一个的这种一般情况,还有像有很多特征变量的问题,想要通过画出假设函数来进行观察,就会变得很难甚至是不可能实现。
2.方法二
为了检验算法是否过拟合,我们将数据分成训练集和测试集,通常用70%的数据作为训练集,用剩下30%的数据作为测试集。很重要的一点是训练集和测试集均要含有各种类型的数据,通常我们要对数据进行“洗牌”,然后再分成训练集和测试集。
测试集评估在通过训练集让我们的模型学习得出其参数后,对测试集运用该模型,我们有两种方式计算误差:
对于线性回归模型,我们利用测试集数据计算代价函数
对于逻辑回归模型,我们除了可以利用测试数据集来计算代价函数外:
误分类的比率,对于每一个测试集样本,计算:()
然后对计算结果求平均
三.模型选择和交叉验证集
假设我们要在10个不同次数的二项式模型之间进行选择:
显然越高次数的多项式模型越能够适应我们的训练数据集,但是适应训练数据集并不代表着能推广至一般情况,我们应该选择一个更能适应一般情况的模型。我们需要使用交叉验证集来帮助选择模型。
即:使用60%的数据作为训练集,使用 20%的数据作为交叉验证集,使用20%的数据作为测试集
模型选择的方法为:
使用训练集训练出10个模型
用10个模型分别对交叉验证集计算得出交叉验证误差(代价函数的值)
选取代价函数值最小的模型
用步骤3中选出的模型对测试集计算得出推广误差(代价函数的值
Train/validation/test error
Training error:
Cross Validation error:
Test error:
四.诊断偏差和方差
算法的表现不理想,出现两种情况:要么是偏差比较大,要么是方差比较大
出现的情况要么是欠拟合,要么是过拟合问题
我们通常会通过将训练集和交叉验证集的代价函数误差与多项式的次数绘制在同一张图表上来帮助分析
Bias/variance
Training error:
Cross Validation error:
对于训练集,当 较小时,模型拟合程度更低,误差较大;随着 的增长,拟合程度提高,误差减小。
对于交叉验证集,当 较小时,模型拟合程度低,误差较大;但是随着 的增长,误差呈现先减小后增大的趋势,转折点是我们的模型开始过拟合训练数据集的时候。
如果我们的交叉验证集误差较大,我们如何判断是方差还是偏差呢?根据上面的图表,我们知道:
训练集误差和交叉验证集误差近似时:偏差/欠拟合
交叉验证集误差远大于训练集误差时:方差/过拟合
五.正则化和偏差/方差
正则化的程度太高或太小了,即在选择λ的值时也需要思考与刚才选择多项式模型次数类似的问题。
我们选择一系列的想要测试的 值,通常是 0-10之间的呈现2倍关系的值(如:共12个)。 我们同样把数据分为训练集、交叉验证集和测试集。
选择的方法为:
使用训练集训练出12个不同程度正则化的模型
用12个模型分别对交叉验证集计算的出交叉验证误差
选择得出交叉验证误差最小的模型
运用步骤3中选出模型对测试集计算得出推广误差,我们也可以同时将训练集和交叉验证集模型的代价函数误差与λ的值绘制在一张图表上:
• 当 较小时,训练集误差较小(过拟合)而交叉验证集误差较大
• 随着 的增加,训练集误差不断增加(欠拟合),而交叉验证集误差则是先减小后增加
六.学习曲线
学习曲线就是一种很好的工具,使用学习曲线来判断某一个学习算法是否处于偏差、方差问题。
学习曲线是学习算法的一个很好的合理检验(sanity check)。
学习曲线是将训练集误差和交叉验证集误差作为训练集样本数量()的函数绘制的图表。
即,如果有100行数据,从1行数据开始,逐渐学习更多行的数据
思想是:当训练较少行数据的时候,训练的模型将能够非常完美地适应较少的训练数据,但是训练出来的模型却不能很好地适应交叉验证集数据或测试集数据。
作为例子,我们尝试用一条直线来适应下面的数据,可以看出,无论训练集有多么大误差都不会有太大改观:
也就是说在高偏差/欠拟合的情况下,增加数据到训练集不一定能有帮助。
如何利用学习曲线识别高方差/过拟合:假设我们使用一个非常高次的多项式模型,并且正则化非常小,可以看出,当交叉验证集误差远大于训练集误差时,往训练集增加更多数据可以提高模型的效果。
也就是说在高方差/过拟合的情况下,增加更多数据到训练集可能可以提高算法效果。
七.决定下一步做什么
获得更多的训练样本——解决高方差
尝试减少特征的数量——解决高方差
尝试获得更多的特征——解决高偏差
尝试增加多项式特征——解决高偏差
尝试减少正则化程度λ——解决高偏差
尝试增加正则化程度λ——解决高方差