显然, \(Precision = \frac{TP}{TP+FP} \xrightarrow{care}FP\)和 \(Recall = \frac{TP}{TP+FN} \xrightarrow{care}FN\)。 举一个例子, \[\begin{matrix} &&&Pred \\ &&&1 & 0 \\ Actual & =2 & 1 &TP &FN \\ & =98& 0 &FP &TN \\ \end{matrix}\]
假设真实样本中2个\(y=1\),98个\(y=0\)。 那么\(Acc\)是有激励多预测\(\hat y=0\)。 导致\(TN\)和\(FN\)上升,而\(TP\)和\(FP\)下降的。 这反映为\(Recall = \frac{TP\downarrow}{TP\downarrow+FN\uparrow}\to Recall \downarrow\)。
如何理解,就是直觉?
这个公式是从文本检索出来的。 如, \(TP+FP\)换言之,都是\(\hat y=TRUE\),因此是Retrived documents,检索出来的文档,也就是预测出来的。 \(TP+FN\)换言之,都是\(y=TRUE\),因此是Relevant documents,也就是真实的文档。 \(TP\)换言之,都是\(y=\hat y=TRUE\)。 因此, \(Precision = \frac{Relevant\cap Retrived}{Retrived}\), \(Recall = \frac{Relevant\cap Retrived}{Relevant}\)。 这个就更形象了。