机器学习性能评估指标(精确率、召回率、ROC、AUC)

转自:http://charlesx.top/2016/03/Model-Performance/

实际上非常简单,精确率是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是对的。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP)。

                      P = TP/(TP+FP)

召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。

                      R = TP/(TP+FN)            
T

机器学习性能评估指标(精确率、召回率、ROC、AUC)


在信息检索领域,精确率和召回率又被称为查准率查全率


ROC 曲线

我们先来看下*的定义,

 

比如在逻辑回归里面,我们会设一个阈值,大于这个值的为正类,小于这个值为负类。如果我们减小这个阀值,那么更多的样本会被识别为正类。这会提高正类的识别率,但同时也会使得更多的负类被错误识别为正类。为了形象化这一变化,在此引入 ROC ,ROC 曲线可以用于评价一个分类器好坏。

ROC 关注两个指标,

直观上,TPR 代表能将正例分对的概率,FPR 代表将负例错分为正例的概率。在 ROC 空间中,每个点的横坐标是 FPR,纵坐标是 TPR,这也就描绘了分类器在 TP(真正率)和 FP(假正率)间的 trade-off2

机器学习性能评估指标(精确率、召回率、ROC、AUC)


AUC

AUC(Area Under Curve)被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。

 

翻译过来就是,随机挑选一个正样本以及一个负样本,分类器判定正样本的值高于负样本的概率就是 AUC 值。

简单说:AUC值越大的分类器,正确率越高3

  • 完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器。
  • ,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  • ,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  • ,比随机猜测还差;但只要总是反预测而行,就优于随机猜测,因此不存在  的情况。

机器学习性能评估指标(精确率、召回率、ROC、AUC)

 


回归4

平均绝对误差

平均绝对误差MAE(Mean Absolute Error)又被称为  范数损失(l1-norm loss):


平均平方误差

平均平方误差 MSE(Mean Squared Error)又被称为  范数损失(l2-norm loss):