1,所有的预测包含:
实际为真---------真正例(TP),假负例(FN)
实际为假---------假正例(FP),真负例(TN)
2,准确率,accuracy
正确的预测,占所有预测的比例 \(\frac{TP+TN}{TP+TN+FP+FN}\)
3,精确率,precision
被识别为正确的例子中,确实为正确的比例 \(\frac{TP}{TP+FP}\)
4,召回率,recall
在实际的所有正确例子中,被识别为正确的比例 \(\frac{TP}{TP+FN}\)
PR曲线是以recall为横轴,precision为纵轴,调整阈值画的
5,补充
FPR(假正类率),TPR(真正类率)
TPR(True Positive Rate)= \(\frac{TP}{TP+FN}\),即正类数据被分为正类的比例,也就是上面正例的召回率
FPR(False Positive Rate)= \(\frac{FP}{FP+TN}\),即负类数据被分为正类的比例
ROC曲线就是以TPR为纵轴,FPR为横轴,调整阈值画的
AUC定义为ROC曲线下的面积
6,举例子
0 negative 负 = TN+FP
1 positive 正 = TP+FN
数据集中包含两个部分,一部分0,一部分1,都是真实标签值
用模型进行预测的话
0这部分数据:
如果模型预测为0,则是True Negative 真负例 TN
预测为1,则是False Positive 假正例 FP
0=TN+FP 所有真实值为0的数据
1这部分数据:
如果模型预测为1,则是True Positive 真正例 TP
预测为0,则是False Negative 假负例 FN
1=TP+FN 所有真实值为1的数据
TP+FP=模型预测的所有为1的值
TN+FN=模型预测的所有为0的值
精确率就是,针对模型预测结果的评价,对正例来说TP+FP就是模型预测的所有为1的,Precision = TP/(TP+FP),即模型预测的所有为1的数据,正确的有多少
召回率就是,针对真实标签的评价,对正例来说TP+FN就是真实值为1的所有数据,Recall = TP/(TP+FN),即所有真实为1的数据,模型识别出来多少
原文链接: https://www.cnblogs.com/lxzbky/p/13333956.html
欢迎关注
微信关注下方公众号,第一时间获取干货硬货;公众号内回复【pdf】免费获取数百本计算机经典书籍;
也有高质量的技术群,里面有嵌入式、搜广推等BAT大佬
原创文章受到原创版权保护。转载请注明出处:https://www.ccppcoding.com/archives/400002
非原创文章文中已经注明原地址,如有侵权,联系删除
关注公众号【高性能架构探索】,第一时间获取最新文章
转载文章受原作者版权保护。转载请注明原作者出处!