显然, $Precision = \frac{TP}{TP+FP} \xrightarrow{care}FP$和 $Recall = \frac{TP}{TP+FN} \xrightarrow{care}FN$。 举一个例子, $$\begin{matrix} &&&Pred \\ &&&1 & 0 \\ Actual & =2 & 1 &TP &FN \\ & =98& 0 &FP &TN \\ \end{matrix}$$
假设真实样本中2个y = 1,98个y = 0。 那么Acc是有激励多预测ŷ = 0。 导致TN和FN上升,而TP和FP下降的。 这反映为$Recall = \frac{TP\downarrow}{TP\downarrow+FN\uparrow}\to Recall \downarrow$。
如何理解,就是直觉?
这个公式是从文本检索出来的。 如, TP + FP换言之,都是ŷ = TRUE,因此是Retrived documents,检索出来的文档,也就是预测出来的。 TP + FN换言之,都是y = TRUE,因此是Relevant documents,也就是真实的文档。 TP换言之,都是y = ŷ = TRUE。 因此, $Precision = \frac{Relevant\cap Retrived}{Retrived}$, $Recall = \frac{Relevant\cap Retrived}{Relevant}$。 这个就更形象了。