码字不易,喜欢请点赞!!!
【机器学习】中常见的模型评估指标
常见类别一:错误率/精度
在个样本中,有个样本分类错误。
1.错误率(error rate):
2.精度(accuracy):
常见类别二:查准率/查全率
对于预测问题,我们根据真实情况和预测结果组合有真正例(true positive)、假正例(false positive)、真反例(true negative)、假反例(false negative),分类结果得混淆矩阵(confusion matrix)如下图,则有:
样本总数
并有以下两个评估指标:
1.查准率(precision):体现查出来的正例中有多少是真正例,即
2.查全率(recall):体现有多少正例被查出来了,即
根据查准率和查全率的公式可知,查准率和查全率是一对矛盾的指标。一般,查准率越高,查全率就越低;反之,查全率越高,则查准率越低。
下图中,查全率为横轴,查准率为纵轴,称为查准率-查全率曲线,简称“P-R曲线”。
可以通过“P-R曲线”,来评价模型的好坏,具体方法有以下几种:
- B曲线包含C曲线,因此B优于C
- 查准率=查全率的点称为平衡点,平衡点的值越大,则越优
- “P-R曲线”下面积越大,则越优
- F1度量指标:
常见类别三:ROC/AUC
首先,两个指标,真正例率(True Positive Rate,TPR)和假正例率(False Positive Rate,FPR)的计算公式如下:
1.ROC曲线(Receiver Operating Characteristic),称为“受试者工作特征”,使用TPR作为纵轴,FPR作为横轴,如下图。对于ROC曲线的优劣比较可以参考P-R曲线。
2.AUC(Area Under ROC Curve),表示ROC曲线下面积,使用该面积的大小来判断ROC曲线的优劣,AUC越大越好。
注:AUC范围:[0.5,1.0]