博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
目标检测中mAP的定义
阅读量:4212 次
发布时间:2019-05-26

本文共 868 字,大约阅读时间需要 2 分钟。

作者:nowgood

链接:https://www.zhihu.com/question/53405779/answer/506000532
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
 

目标检测中衡量识别精度的指标是mAP(mean average precision)。多个类别物体检测中,每一个类别都可以根据recall和precision绘制一条曲线,AP就是该曲线下的面积,mAP是多个类别AP的平均值

然后重点计算某一个类别的 AP 了, 也就是如何画 P-R 曲线, 就目标检测而言, 可能大家困惑的点在于 TP, FP 如何计算, 下面以猫咪这一类为例说明

2. 基础概念

召回率(Recall)是从数据集的同一类的样本抽样, 而Precision是从已经预测为同一类别的样本抽样

Precision

查准率(Precision)是针对预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。

\begin{align}  Precision = \frac{TP}{TP+FP}  \tag{1}\\ \end{align}

TP+FP 所有预测为猫咪类的框

Recall

召回率(Recall, 又称为 TPR)是针对原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。

\begin{align} Recall = \frac{TP}{TP+FN}  \tag{2} \end{align}

TP+FN 样本中猫咪的所有真实框, 这个容易知道

3. 重点是 \bf TP和FP 如何定义呢?

在所有预测为猫咪类的框中, 具有怎么样的特征的框才是 TP 和 FP 呢?

计算流程

  1. 猫咪类别的Prediction下,对于某一确定 score threshold
  • 将 Prediction 按照 score 排序
  • score 大于 score threshold 的 Prediction 的定义为 Positive

2. 猫咪类别的Positive Prediction下,对于某一确定 IOU threshold,

  • 与猫咪类别的GT的 IOU 大于 threshold 的 Prediction 标记为 True Positive(TP)
  • 与猫咪类别的GT的 IOU 小于 threshold 的 Prediction 标记为 False Positive(FP)

 

你可能感兴趣的文章
MySQL必知必会 -- 排序检索数据 ORDER BY
查看>>
MySQL必知必会 -- 数据过滤
查看>>
MYSQL必知必会 -- 用通配符进行过滤
查看>>
MYSQL必知必会 -- 用正则表达式进行搜索
查看>>
POJ 3087 解题报告
查看>>
POJ 2536 解题报告
查看>>
POJ 1154 解题报告
查看>>
POJ 1661 解题报告
查看>>
POJ 1101 解题报告
查看>>
ACM POJ catalogues[转载]
查看>>
ACM经历总结[转载]
查看>>
C/C++文件操作[转载]
查看>>
专业计划
查看>>
小米笔试:最大子数组乘积
查看>>
常见的排序算法
查看>>
5.PyTorch实现逻辑回归(二分类)
查看>>
6.PyTorch实现逻辑回归(多分类)
查看>>
8.Pytorch实现5层全连接结构的MNIST(手写数字识别)
查看>>
9.PyTorch实现MNIST(手写数字识别)(2卷积1全连接)
查看>>
hdu 3460 Ancient Printer(trie tree)
查看>>