1 min read

对Precision和Recall再理解

显然, Precision=TPTP+FPcareFPRecall=TPTP+FNcareFN。 举一个例子, Pred10Actual=21TPFN=980FPTN

假设真实样本中2个y=1,98个y=0。 那么Acc是有激励多预测y^=0。 导致TNFN上升,而TPFP下降的。 这反映为Recall=TPTP+FNRecall

如何理解,就是直觉?

这个公式是从文本检索出来的。 如, TP+FP换言之,都是y^=TRUE,因此是Retrived documents,检索出来的文档,也就是预测出来的。 TP+FN换言之,都是y=TRUE,因此是Relevant documents,也就是真实的文档。 TP换言之,都是y=y^=TRUE。 因此, Precision=RelevantRetrivedRetrivedRecall=RelevantRetrivedRelevant。 这个就更形象了。