1 min read

基础算法系列对Precision和Recall再理解

显然, $Precision = \frac{TP}{TP+FP} \xrightarrow{care}FP$$Recall = \frac{TP}{TP+FN} \xrightarrow{care}FN$。 举一个例子, $$\begin{matrix} &&&Pred \\ &&&1 & 0 \\ Actual & =2 & 1 &TP &FN \\ & =98& 0 &FP &TN \\ \end{matrix}$$

假设真实样本中2个y = 1,98个y = 0。 那么Acc是有激励多预测 = 0。 导致TNFN上升,而TPFP下降的。 这反映为$Recall = \frac{TP\downarrow}{TP\downarrow+FN\uparrow}\to Recall \downarrow$

如何理解,就是直觉?

这个公式是从文本检索出来的。 如, TP + FP换言之,都是 = TRUE,因此是Retrived documents,检索出来的文档,也就是预测出来的。 TP + FN换言之,都是y = TRUE,因此是Relevant documents,也就是真实的文档。 TP换言之,都是y =  = TRUE。 因此, $Precision = \frac{Relevant\cap Retrived}{Retrived}$$Recall = \frac{Relevant\cap Retrived}{Relevant}$。 这个就更形象了。