机器学习评估指标

引言

在机器学习中,我们需要评估模型的好坏,初学时,会认为有准确率就可以了,即模型作出正确的判断次数除以总的测试次数,公式化为:\(corret\_times/total\_times\)。但这种方式并不合理,试想有100个被试,其中1人感染疾病,其余99人正常,如果模型设置为不管任何输入,输出都正常,则这个模型的准确率就能达到99%了,按上面公式来看,这个无用的模型貌似ok。

实际上,机器学习有很多约定俗成的评估指标,最常用的就是精确率(precision),召回率(recall),F1值,以及ROC,AUC。其中AUC指标往往作为推荐系统排序的指标。

本文主要介绍混淆矩阵,以及上述指标的基本概念。这部分概念非常基础,资料很多,但往往又比较容易搞混,所以我尝试在合理的地方举一些例子说明,避免混淆概念。

继续阅读“机器学习评估指标”