分类算法的评估指标

分类算法的评估指标

ACC、ROC、AUC是什么?

https://blog.csdn.net/kMD8d5R/article/details/98552574

https://www.jianshu.com/p/82903edb58dc

https://blog.csdn.net/resourse_sharing/article/details/51496494

T、F、P、N、R(前置概念)

  • T:True,真的
  • F:False,假的
  • P:Positive,阳性
  • N:Negative,阴性
  • R:Rate,比率,和上面四个没直接关系

比如说看病这个事情:

  • 一个人得病了,但医生检查结果说他没病,那么他是假没病,也叫假阴性(FN)
  • 一个人得病了,医生检查结果也说他有病,那么他是真有病,也叫真阳性(TP)
  • 一个人没得病,医生检查结果却说他有病,那么他是假有病,也叫假阳性(FP)
  • 一个人没得病,医生检查结果也说他没病,那么他是真没病,也叫真阴性(TN)

这四种结局可以画成2 × 2的混淆矩阵:
分类算法的评估指标

FN、TP、FP、TN可以这样理解:
T,F代表医生说的对不对,P,N代表这个人是不是被认为有病

TPR/FPR/ACC(ACC的解释)

(有病医生对的比例/有病医生错的比率/ACC)
R是Rate(比率),那么:

  • 查出率/召回率,TPR,真阳率等于真阳数量除以真阳加假阴,就是真的有病并且医生判断也有病的病人数量除以全部真有病的人
    (真有病医生也说有病的真阳+真有病医生却说没病的假阴):
    分类算法的评估指标

  • 查错率,FPR,假阳率等于假阳数量除以假阳加真阴,就是没病但医生说有病的病人数量除以全部实际没病的人(没病但医生说有病的+没病医生也说没病的):
    分类算法的评估指标
    所以说,TPR真阳率是对有病的人的查出率,有病的人里面查出来多少个;而FPR假阳率则是对没病人员的误检率,没病的人里面误检了多少个。

  • 精准度,ACC,Accuracy,精准度,有病被检查出来的TP是检测对了,没病也检测健康的TN也是检测对了,所有检测对的数量除以全部数量就是精准度:
    分类算法的评估指标

F1 Score

查准率和召回率的定义如下:
分类算法的评估指标

由于现在有两个指标一查准率和召回率,如果有一个算法的查准率是0.5 ,召回率是0.4
另外一个算法查准率是0.02 ,召回率是1.0 ; 那么两个算法到底哪个好呢?

为了解决这个问题,我们引入了F1Score 的概念:
分类算法的评估指标

其中P 是查准率, R 是召回率。这样就可以用一个数值直接判断哪个算法性能更好。
典型地,如果查准率或召回率有一个为0 ,那么F1Score 将会为0 。
而理想的情况下,查准率和召回率都为1 , 则算出来的F 1Score 为1

案例计算(能直接用ACC代表算法好坏吗?)

假如说我们编写了一个算法M,它能够根据一系列的属性(比如身高、爱好、衣着、饮食习惯等)来预测一个人的性别是男还是女。
然后我们有10个人属性组数据让算法M来预测,这10个人的真实性别和预测结果如下:
分类算法的评估指标
预测值中0代表女性,1代表男性,数字越大越接近男性特征,数字越小越接近女性特征。

如果我们设定区分男女的阈值是0.5,那么预测值大于0.5的都是P正向男性,小于0.5都是N负向女性。

那么,真实6个男人中有[1,3,5,8,9]这5个都查出来了,算法M的查出率TPR=5/6=0.833;真实4个女性中6号被查错,所以误检率FPR=1/4=0.25;精度是ACC=(5+3)/10=0.8。

但是注意,如果我们修改阈值等于0.4,那么就会变为6个男人全被检出TPR=1;而女性则被误检2个FPR=0.5;精度仍然是0.8。

得出结论:如果单纯使用ACC评价算法优劣,不靠谱!还应该结合其他的指标

随机算法

假设我们有一个庸医,根本不懂医术,当病人来检查是否有病的时候,他就随机乱写有病或者没病,结果呢,对于所有真实有病的,庸医也能正确检查出一半,就是TPR=0.5,同样对于没病的也是一半被误检,就是FPR=0.5。

这个庸医的“随机诊法”原理上总能得到相等的查出率和误检率,如果我们把FPR当做坐标横轴,TPR当做数轴,那么“随机诊法”对应了[0,0]到[1,1]的那条直线。
分类算法的评估指标

如图所示,越靠近左上角的情况查出率越高,查错率越低,[0,1]点是最完美的状态。而越靠近右下角,算法质量越低。
注意图中右下角C点,这里查错率高,查出率低,属于很糟糕的情况;但是如果我们把C点沿红色斜线对称上去成为C’点,那就很好了。——所以,如果你的算法预测结果总是差的要死,那么可以试试看把它颠倒一下,负负得正,也许就很好了。

ROC曲线

ROC(Receiver Operating Characteristic curve)接收者操作特征曲线。

上面我们都只是把从一组预测样本得到的[FPR,TPR]作为一个点描述,并且我们知道阈值的改变会严重影响FPR和TPR,那么,如果我们把所有可能的阈值都尝试一遍,再把样本集预测结果计算得到的所有[FPR,TPR]点都画在坐标上,就会得到一个曲线:
分类算法的评估指标
一般阈值范围是在0~1之间,1表示一个分类(男,或者有病),0表示另外一个分类(女,或者无病)。
在这个图中,注意:

横竖都不是阈值坐标轴,这里没有显示阈值。

蓝色线更加靠近左上角,比红色线更好。

ROC曲线上左侧的点好解释,误查率FPR越低,查出率TRP越高,自然是好的;但右上角的怎么解释?误查率和查出率都很高。——想象一下,有个庸医把阈值调的很高比如0.99,那么导致算法推测出来的都是男生,没有女生,这样的情况当然查出率很高(所有男生都查出来了),误查率也很高(所有女生都被当成男生了)。

AUC

ROC曲线的形状不太好量化比较,于是就有了AUC。
AUC,Area under the Curve of ROC (AUC ROC),就是ROC曲线下面的面积。
如上图,蓝色曲线下面的面积更大,也就是它的AUC更大。
分类算法的评估指标
如图,左侧的红色折线覆盖了下面整个方形面积,AUC=1;中间的曲线向左上方凸起,AUC=0.8;右边的是完全随机的结果,占一半面积,AUC=0.5。
AUC面积越大,算法越好。
当我们写好算法之后,可以用一个测试集来让这个算法进行分类预测,然后我们绘制ROC曲线,观察AUC面积,计算ACC精度,用这些来对算法的好坏进行简单评估。

最后的结论:

单纯使用ACC,Accuracy评价分类算法的好坏不靠谱
可以使用F1Score(综合考虑了查准率和召回率)
或者使用ROC(整合考虑了查出率和差错率),但是不好量化
所以使用AUC表示ROC曲线下的面积
所以开发中我们可以使用 F1Score + ROC + AUC