【算法岗面试知识点】模型评估(混淆矩阵,准确率,精准率,召回率,ROC,AUC)
【【算法岗面试知识点】模型评估(混淆矩阵,准确率,精准率,召回率,ROC,AUC)】1. 混淆矩阵
真实类别1 | 真实类别0 | |
预测类别1 | TP(True Positive)真阳 |
FP(False Positive) 伪阳 |
预测类别0 | FN(False Negative)伪阴 | TN(True Negative)真阴 |
- 准确率:Accuracy = (TP+TN)/(TP+FP+FN+TN)
- 精准率:Precision = TP/(TP+FP)#预测为正样本,有多少是真实的正样本
- 召回率:Recall = TP/(TP+FN)#真实正样本中,有多少正样本预测对了
- 真阳率:TPRate = TP/(TP+FN)
- 伪阳率:FPRate = FP/(FP+TN)
横轴:FPR越大,预测正类中实际负类越多
纵轴:TPR越大,预测正类中国实际正类越多
- ROC的曲线意义:
(2)有助于选择最佳的阈值,ROC曲线越靠近左上角,模型的准确率就越高。最靠近左上角的ROC曲线上的点是分类错误最少的最好阈值,其中假正例和假负例总数最少。
(3)可以对不同学习器比较性能,将各个学习器的ROC曲线绘制到同一坐标中,直观地鉴别优势,靠近左上角的ROC曲线所代表的的学习器准确性最高。
- AUC面积的由来:
- AUC面积的意义:
- AUC是衡量二分类模型优劣的一种评价指标,表示预测的正例排在负例前面的概率。
- 具体来说,AUC就是从所有正样本中随机选择一个样本,从所有负样本中随机选择一个样本,然后根据你的学习器对两个随机样本进行预测,把正样本预测为正例的概率p1,把负样本预测为正例的概率p2,p1>p2的概率就等于AUC。所以AUC反映的是分类器对样本的排序能力。
- 为什么使用Roc和Auc评价分类器
- 为啥AUC对正负样本比例不敏感
推荐阅读
- 宽容谁
- 我要做大厨
- 增长黑客的海盗法则
- 画画吗()
- 2019-02-13——今天谈梦想()
- 远去的风筝
- 三十年后的广场舞大爷
- 叙述作文
- 20190302|20190302 复盘翻盘
- 学无止境,人生还很长