机器学习算法 Part3 模型评估
Part3 模型评估
1. 评估方法:
留出法
交叉验证法:介绍一下交叉验证法,解决什么问题存在的
K折交叉验证:将可用数据划分为K个分区(K通常取4或5),实例化K个相同的模型,将每个模型在K-1个分区上训练,并在剩下的一个分区上进行评估。模型的验证分数等于K个验证分数的平均值。解决小数据集而存在的
自助法(bootstrap):
每次随机从样本空间D中有放回采样一个样本,重复m次,得到有m个样本的样本空间D’
即通过自主采样,初始数据集中约有36.8%的样本未出现在采样数据集D’中,可用这部分数据作为测试集,这就是包外估计 ;自助法会引入估计偏差,常采用留出法和交叉验证法
**2. **损失函数
回归问题:
-
平方损失:
缺点:对异常值较为敏感,不够鲁棒
-
绝对值损失
特点:对异常值表现较好,缺点是不是处处可导,不容易优化
-
Huber损失
对于分类问题来讲,损失函数中的并不是预测出来的0或1的值,对于LR,对于adaboost来讲,,最终的分类结果是,对于SVM,可以认为是到各个点到分类间隔的距离
分类问题:
-
0-1损失
特点:不连续,非凸,优化困难
-
交叉熵损失(LR)——类别为{-1,1}
推导:
则:
利用极大似然思想,使得
最大,则两边同取对数,得到
求即可 -
交叉熵损失——类别为{0,1}
求 -
对数似然代价函数(当为二分类时,与交叉熵相等):
其中':第n个样本的预测label
:第n个样本的真实label
:学习器将第n个样本预测为y_i’的概率 -
Hinge Loss
- 指数损失(Adaboost):
3.度量指标
先说一下性能度量指标和损失函数的关系,度量指标通常是对模型的性能进行度量的,比较他与真实值的差距,不一定可导的,但是损失函数一般要求可导,所以一般的损失函数基本上都可以作为一个度量指标,比如mse,交叉熵什么的,但是还有一些独特的度量指标
分类问题:AUC,查准率(ACC),查全率(召回)
回归问题:还是mse比较多
推荐排序问题:GAUC,NDCG
AUC
排序模型的AUC和分类问题就有了点偏差,比如在ctr预估中,我们希望把用户更容易点击的排在前面,我们依据模型给出的ctr-score对样本从大到小排序,假设为m个样本,则rank分从高到低依次为m,m-1…1,然后把正样本取出,查看正样本的排序位置,依据以下公式计算:
举个例子:
当有不同的用户的时候,不同用户之间的点击率其实并不能够直接比较,这样就会造成全局AUC失真,进而提出groupauc(GAUC)可能auc这个指标失真了,因为用户广告之间的排序是个性化的,不同用户的排序结果不太好比较,这可能导致全局auc并不能反映真实情况。
GAUC
GAUC就是分别对每个用户计算其AUC,然后求加权平均,实际处理时权重一般可以设为每个用户view的次数,或click的次数,而且一般计算时,会过滤掉单个用户全是正样本或负样本的情况。
NDCGhttps://www.cnblogs.com/by-dream/p/9403984.html
先说DCG,我们把搜索结果按照模型分数从高到低排个序,给一个rank序列,第一名为1,第二名为2…以此类推,假设我们搜索结果是p,则
代表实际的优劣高低评分。
IDCG就是按照实际的优劣高低评分从高到低排列,计算所得的DCG,则nDCG=DCG/IDCG
举个例子:
假设搜索回来的6个结果,其相关性分数分别是 3、2、3、0、1、2
i | reli | log2(i+1) | reli /log2(i+1) |
---|---|---|---|
1 | 3 | 1 | 3 |
2 | 2 | 1.58 | 1.26 |
3 | 3 | 2 | 1.5 |
4 | 0 | 2.32 | 0 |
5 | 1 | 2.58 | 0.38 |
6 | 2 | 2.8 | 0.71 |
则DCG=3+1.26+1.5+0+0.38+0.71 = 6.86
我们对返回的结果重新排序,依据兴趣度(也就是实际的评分)进行排序,如下
i | reli | log2(i+1) | reli /log2(i+1) |
---|---|---|---|
1 | 3 | 1 | 3 |
2 | 3 | 1.58 | 1.89 |
3 | 3 | 2 | 1.5 |
4 | 2 | 2.32 | 0.86 |
5 | 2 | 2.58 | 0.77 |
6 | 1 | 2.8 | 0.35 |
则IDCG=3+1.89+1.5+0.86+0.77+0.35 = 8.37
所以[email protected]= 6.86/8.37 = 81.96%
3.P-R,ROC,AUC
预测结果(+) | 预测结果(-) | |
---|---|---|
真实情况(+) | TP | FN |
真实情况(-) | FP | TN |
-
准确率
受样本不均衡影响较大 -
精确率
-
召回率
-
P-R曲线
纵轴为精确率,横轴为召回率,当一个学习器A的P-R曲线被另一个B完全包住,则性能A优于B,当两个PR曲线有交叉时,看与y=x的相交点的横轴坐标,越大证明性能越好
P-R曲线上的点的含义:在某一阈值下,学习器将大于该阈值的输出为+,小于该阈值的输出为-,与此相对应的Precision和Recall
-
F1-score
两者的调和平均值,介于0-1之间 -
ROC曲线
AUC为ROC曲线下的面积,一般处于0.5-1之间,因为若AUC<0.5,把预测的正样本变成负样本,把负样本变成正样本,就可以得到一个更好的分类器
ROC曲线的绘制,变换学习器预测为正类的阈值,得到在不同阈值下,学习器对应的TPR以及FPR,连接即为ROC曲线
AUC的实际意义,任意取一个正样本和负样本,模型预测正样本的评分高于负样本的概率
4. 偏差与方差
偏差度量了学习算法的期望预测与真实结果的偏离程度,刻画了算法本身的拟合能力
方差度量了同样大小的训练集变动导致的学习性能的变化,刻画了数据扰动的影响
误差=偏差+方差
噪声表达了当前任务上任何学习算法所能达到的期望泛化误差的下界
随着训练程度的增加,偏差逐渐减小,方差逐渐增大,即欠拟合是偏差大,方差小,过拟合是方差大,偏差小
5. 过拟合和欠拟合
过拟合:偏差小,方差大
解决方案:
- 获取更多的训练数据
- 降低模型复杂度
- 正则化方法
- 集成学习bagging
欠拟合:偏差大,方差小
解决方案:
- 添加新特征(升维度)
- 增加模型复杂度
集变动导致的学习性能的变化,刻画了数据扰动的影响
误差=偏差+方差
噪声表达了当前任务上任何学习算法所能达到的期望泛化误差的下界
随着训练程度的增加,偏差逐渐减小,方差逐渐增大,即欠拟合是偏差大,方差小,过拟合是方差大,偏差小
5. 过拟合和欠拟合
过拟合:偏差小,方差大
解决方案:
- 获取更多的训练数据
- 降低模型复杂度
- 正则化方法
- 集成学习bagging
欠拟合:偏差大,方差小
解决方案:
- 添加新特征(升维度)
- 增加模型复杂度
- 减小正则化系数