2025年recall 和 precision

recall 和 precisionrecall 是召回率又叫检出率 precision 是准确率又叫检准率 对了今天还看到一个叫法 采样 搞了半天就是 池化 但是采样其实更好理解 pooling 要是从表面上看的话 说回 recall 和 precision 注意到这两个东西是在一篇论文里 检出率比检准率低 也就是 r lt

大家好,我是讯享网,很高兴认识大家。

recall 是召回率又叫检出率

precision 是准确率又叫检准率

对了今天还看到一个叫法“采样”,搞了半天就是“池化”,但是采样其实更好理解pooling,要是从表面上看的话。

说回recall 和 precision

注意到这两个东西是在一篇论文里,检出率比检准率低,也就是r<p,之前我不知道是他们俩,就疑惑检出怎么可能低于检准,遂查了一下,之前对这两个概念也是混了又混,这次认真的再看一遍,记录一下。

这两个东西在模式识别和信息检索里出现,起到度量的作用,让我想起了交叉熵这个东西,交叉熵是信息论里面的概念,原本是用来估算平均编码长度的。 这个是我看一本书看到的,名字是《TensorFlow实战Google深度学习框架》。

好了再说回来

写四个字母。

A B 

 C D

举个例子,看人群中谁吃没吃饭。

A就代表看出来的,吃饭了的,人的个数。

B代表看错了,其实没吃饭的,人的个数。

C代表没看出来,其实吃饭了的,人的个数


讯享网

D代表没看出来,也的确没吃饭的,人的个数(也不该用“看出来了”这个描述,它只是输出一个分类结果,这个位置就是个0)

那么召回率就是:A/(A+C)

      准确率就是:A/(A+B)

好了接下来看看检出是怎么高于检准的,也不难,就让C>B 就可以了,也就是看漏又不对的数量大于看错的数量。

具体化这个例子,邻居6个人,预测他们吃没吃饭,4个人吃了,2个人没吃。

邻居们/判断 A B C D E F
吃了 1 1       0
没吃     1 1 0  

数字1表示吃过饭的邻居,“吃了”和“没吃”表示预测,测对了3个,错了3个。

召回率R=2/(2+2)=1/2

准确率P=2/(2+1)=2/3

好了,R>P了,心满意足,撤了。

如果你恰巧看到这篇儿又没看明白,可以去看博主:燃烧的舞步  的文章。

言简意赅还有图,在这里对他表示感谢。

小讯
上一篇 2025-04-08 10:52
下一篇 2025-04-11 07:56

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/25962.html