1 min read

对Precision和Recall再理解

显然, \(Precision = \frac{TP}{TP+FP} \xrightarrow{care}FP\)\(Recall = \frac{TP}{TP+FN} \xrightarrow{care}FN\)。 举一个例子, \[\begin{matrix} &&&Pred \\ &&&1 & 0 \\ Actual & =2 & 1 &TP &FN \\ & =98& 0 &FP &TN \\ \end{matrix}\]

假设真实样本中2个\(y=1\),98个\(y=0\)。 那么\(Acc\)是有激励多预测\(\hat y=0\)。 导致\(TN\)\(FN\)上升,而\(TP\)\(FP\)下降的。 这反映为\(Recall = \frac{TP\downarrow}{TP\downarrow+FN\uparrow}\to Recall \downarrow\)

如何理解,就是直觉?

这个公式是从文本检索出来的。 如, \(TP+FP\)换言之,都是\(\hat y=TRUE\),因此是Retrived documents,检索出来的文档,也就是预测出来的。 \(TP+FN\)换言之,都是\(y=TRUE\),因此是Relevant documents,也就是真实的文档。 \(TP\)换言之,都是\(y=\hat y=TRUE\)。 因此, \(Precision = \frac{Relevant\cap Retrived}{Retrived}\)\(Recall = \frac{Relevant\cap Retrived}{Relevant}\)。 这个就更形象了。