ROC曲线

一、基本概念
ROC曲线(Receiver Operating Characteeristic Curve)

主要是根据混淆矩阵得出来的:
真正(True Positive , TP)被预测模型为正的正样本
假负(False Negative , FN)被模型预测为负的正样本
假正(False Positive , FP)被模型预测为正的负样本
真负(True Negative , TN)被模型预测为负的负样本

真正率True Positive Rate , TPR)或灵敏度sensitivity
TPR = TP /(TP + FN)
正样本预测结果数/正样本实际数

假负率False Negative Rate , FNR
FNR = FN /(TP + FN)
被预测为负的正样本结果数 / 正样本实际数

假正率()
FPR = FP /(FP + TN)
被预测为正的负样本结果数/负样本实际数

真负率True Negative Rate , TNR)或特指度specificity
TNR = TN /(TN + FP)
负样本预测结果数/负样本实际数

其中,目标属性的被选中的那个期望值称作”正“(positive

对于ROC曲线来说,有几个特殊点需要说明一下:
TPR=0,FPR=0)把每个实例都预测为负类的模型
TPR=1,FPR=1)把每个实例都预测为正类的模型
TPR=1,FPR=0)理想中的模型

一个好的分类模型应该尽可能靠近图形的左上角,而一个随机猜测模型应该位于连接点(TPR=0,FPR=0)和(TPR=1,FPR=1)的主对角线上。
ROC曲线下方的面积(AUC)提供了评价模型平均性能的另一种方法。如果模型是完美的,那么它的AUC=1,如果模型是个简单的随机猜测模型,那么它的AUC=0.5,如果一个模型好于另一个,则它的曲线下方面积相对较大。

二、如何画ROC曲线
假设采用逻辑回归分类器,其给出针对每个实例为正类的概率,那么通过设定一个阈值如0.6,概率大于等于0.6的为正类,概率小于0.6的为负类,对应的可以算出(FPR,TPR),在平面中得到对应坐标点。随着阈值的逐渐减小,越来越多的实例被划分为正类,但是这些正类中同样也掺杂着真正的负实例,即TPR和FPR会同时增大。阈值最大时,对应坐标点为(0,0),阈值最小时,对应坐标点(1,1)。

假设已经得出一系列样本被划分为正类的概率,然后按照大小排序,下图是一个示例,图*有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率。

ROC曲线
接下来,我们从高到低,依次将“Score”值作为阈值threshold,当测试样本属于正样本的概率大于或等于这个threshold时,我们认为它为正样本,否则为负样本。举例来说,对于图中的第4个样本,其“Score”值为0.6,那么样本1,2,3,4都被认为是正样本,因为它们的“Score”值都大于等于0.6,而其他样本则都认为是负样本。每次选取一个不同的threshold,我们就可以得到一组FPR和TPR,即ROC曲线上的一点。这样一来,我们一共得到了20组FPR和TPR的值,将它们画在ROC曲线的结果如下图:

ROC曲线AUC(Area under Curve):Roc曲线下的面积,介于0.1和1之间。Auc作为数值可以直观的评价分类器的好坏,值越大越好。
我们对M

首先AUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。
代码部分后续更新。。。。。