ROC Recall Precision Accuracy FPR TPR TAR FAR

 

ROC Recall Precision Accuracy FPR TPR TAR FAR

 

分类

混淆矩阵

ROC Recall Precision Accuracy FPR TPR TAR FAR
ROC Recall Precision Accuracy FPR TPR TAR FAR probablity distribution

  • True Positive(真正, TP):将正类预测为正类数.
  • True Negative(真负 , TN):将负类预测为负类数.
  • False Positive(假正, FP):将负类预测为正类数 →误报 (Type I error).
  • False Negative(假负 , FN):将正类预测为负类数 →漏报 (Type II error).

  • 召回率(Recall) TPR = TP/P = TP/(TP+FN) 召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了 (分母是原来样本中所有的正样本数)

  • FPR = FP/N = FP/(FP+TN)
  • 精确率(Precision) = TP/(TP+FP) 分母是预测为正的样本数 表示的是预测为正的样本中有多少是真正的正样本 (分母是预测为正的样本数)
  • 准确率(Accuracy) ACC = (TP + TN) / (P+N)
  • 此外,还有 F1 值,是精确率和召回率的调和均值, 
    2F1=1P+1R F1=2TP2TP+FP+FN(3)(3)2F1=1P+1R F1=2TP2TP+FP+FN

在信息检索领域,精确率和召回率又被称为查准率和查全率, 
查准率=检索出的相关信息量 / 检索出的信息总量 
查全率=检索出的相关信息量 / 系统中的相关信息总量

ROC

在一个二分类模型中,对于所得到的连续结果,假设已确定一个阀值,比如说 0.6,大于这个值的实例划归为正类,小于这个值则划到负类中。如果减小阀值,减到0.5,固然能识别出更多的正类,也就是提高了识别出的正例占所有正例 的比类,即TPR,但同时也将更多的负实例当作了正实例,即提高了FPR。为了形象化这一变化,在此引入ROC,ROC曲线可以用于评价一个分类器。

ROC Recall Precision Accuracy FPR TPR TAR FAR

ROC Recall Precision Accuracy FPR TPR TAR FAR probablity distribution

ROC Recall Precision Accuracy FPR TPR TAR FAR

ROC曲线上的每一个点对应于一个threshold,对于一个分类器,每个threshold下会有一个TPR和FPR。(大于threshold的实例划归为正类)

  • Threshold最小时,TN=FN=0 (threshold on the most left in probablity distribution),对应于ROC右上角的点(1,1)
  • 随着阈值threshold增加,TP和FP都减小,TPR和FPR也减小,ROC点向左下移动;
  • Threshold最大时,TP=FP=0 (threshold on the most right in probablity distribution),对应于ROC原点;

0.0001 FAR , TAR?

AUC

AUC(Area Under Curve)被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。

The AUC value is equivalent to the probability that a randomly chosen positive example is ranked higher than a randomly chosen negative example. 翻译过来就是,随机挑选一个正样本以及一个负样本,分类器判定正样本的值高于负样本的概率就是 AUC 值。

简单说:AUC值越大的分类器,正确率越高。

  • AUC=1,完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器
  • 0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  • AUC=0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  • AUC<0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测,因此不存在 AUC<0.5 的情况。 
    ROC Recall Precision Accuracy FPR TPR TAR FAR

既然已经这么多评价标准,为什么还要使用ROC和AUC呢?因为ROC曲线有个很好的特性:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反)

PR曲线

precision–recall

回归

平均绝对误差

平均绝对误差MAE(Mean Absolute Error)又被称为 l1 范数损失(l1-norm loss): 
MAE(y,y^)=1nsamples∑i=1nsamples|yi−y^i|MAE(y,y^)=1nsamples∑i=1nsamples|yi−y^i|

平均平方误差

平均平方误差 MSE(Mean Squared Error)又被称为 l2范数损失(l2-norm loss):

MSE(y,y^)=1nsamples∑i=1nsamples(yi−y^i)2MSE(y,y^)=1nsamples∑i=1nsamples(yi−y^i)2

Ref:

http://charleshm.github.io/2016/03/Model-Performance/ 
http://zhwhong.ml/2017/04/14/ROC-AUC-Precision-Recall-analysis/