目标检测之IoU、precision、recall、AP、mAP详解

目录

1. 目标检测概述

2. IoU

3.precision(精度)和recall(召回率)

4. AP和mAP

5.实际计算方法


1. 目标检测概述

目标检测的任务是找出图像中所有感兴趣的目标(物体),确定它们的位置和大小,是计算机视觉领域的核心问题之一。以下图为例,图中需要识别3类物体:car(车)、bicycle(自行车)、dog(狗),通过特定的目标检测算法希望最终把每类物体检测出来,每类物体用一个矩形框框出来并且输出对应的类别。

因此,目标检测可以简单的理解为用个框把物体框出来并告诉我这个框里是什么。

在目标检测领域需要衡量每个检测算法的好坏,因此定义了很多指标,例如常见的IoU、precision、recall、AP、mAP等,

各个算法经过检测后得到每个物体的检测框和置信度,然后根据该值来计算上述指标值,从而方便大家一起来评估各个算法的优劣。

每个指标各不相同,下面详细阐述每个指标的概念和计算方法。

2. IoU

IoU全程为Intersection Over Union ,意思是“并集里面的交集”。它的计算可以简单的用下图表示:

一个物体它会有一个真值框,英文称为ground truth,也就是我们实际为它标注的真实矩形框(一般情况下该矩形框是物体的最小外接矩形框,手工标注)。在评价一个算法的时候首先用该算法对图片进行检测,得到该物体的预测框,这个预测框是算法生成的,我们接下来就需要计算这个预测框和真值框之间的IoU指标。计算原理就是首先计算两个框的并集区域面积,再计算两个框的交集区域面积,然后交集除以并集就是对应的IoU值。IoU值越大说明预测框和真值框越吻合,如果完全吻合,此时IoU值为1。

对应的数学化公式如下:

3.precision(精度)和recall(召回率)

在论文里面经常会遇到precision(精度)和recall(召回率)的概念,下面对其进行解释说明。

所谓精度,也就是我们得到的预测框到底有多少面积是在真值框里面的,这个重叠面积除以检测框面积就是精度。形象化理解可以理解成“命中率”,即我预测的有多少在真值框里面。

召回率从字面意思比较好理解,就是我发出去多少最终收回来多少,即预测框与真值框的重叠面积除以真值框面积。

从上述概念上可以看出,精度和召回率是一般是反的。精度高了,召回率一般会低;召回率高了,精度一般会低。想象一下,如果我们需要提出一种目标检测算法来检测图像中的狗,为了尽可能的提高召回率,我们可以检出处很多很多框以尽可能的来包含图片中可能出现狗的地方,甚至可以直接以整幅图像为预测框,这时候召回率是最高的接近于1,但是很明显,精度很低。

尽管理解了精度和召回率的概念,但是实际计算时还需要借助额外的几个指标参数,通过这几个额外的指标参数可以使得我们更容易计算精度和召回率。

几个指标参数为TP、FP、FN、TN,其中字母T和F分别表示检测对和检测错,P和N分别表示正样本和负样本。以图片中识别狗为例,如果检测框里面还有狗说明这个检测框是正样本,反之则为背景(负样本)。下面同样以识别狗为例,讲解详细含义和计算方式:

  • True Positive (TP)

含义:预测框中检测出狗,并且IoU值大于阈值(一般阈值取0.5),说明检测对了。

  • False Positive (FP)

含义:预测框中检测出狗,但是IoU值小于阈值,说明检测错了。

  • False Negative (FN)

含义:预测框中检测该框中只含背景,但是实际该框中含有狗,说明检测错了,漏检了。

  • True Negative (TN)

含义:预测框中检测该框只含背景,实际情况也是如此,说明检测对了,这个框中确实没有狗,检测正确。实际目标检测中我们不会去检测背景(因为我们不会去为背景画个框),因此一般不会去计算TN这个值。

有了上述TP、FP、FN、TN的概念,就可以方便的计算precision和recall了。

,            具体可以解释为:检测器检测出是狗并且确实是狗的部分占所有检测器认为是狗的比例

,               具体可以解释为:检测器检测出是狗并且确实是狗的部分占所有确实是狗的比例

4. AP和mAP

在讲解AP之前,首先我们继续深入探讨前面提到的precision和recall的概念。在计算precision和recall时一般先计算TP、FP和FN,但是计算这三个值时我们需要先计算每个检测框和真值框的IoU,再根据设定的阈值threshold来计算这三个值,这里很明显,阈值的选择会直接影响TP、FP和FN的结果,进而影响precision和recall的结果。也就是说precision和recall会随着阈值threshold的不同而不同。如果我们将阈值从0开始,逐步递增到1,很明显会产生一组precision和recall值,并且precision和recall这两组值是一一对应的,此时,我们以precision为纵坐标,以recall为横坐标进行画图,就会得到一个如下图所示的曲线,这个曲线就是精度/召回率曲线,简写为PR曲线:

既然precision和recall的值会随着阈值的不同而不同,那么怎么判断不同算法检测效果的优劣呢?有了上述PR曲线图就比较容易定性一个算法的好坏了。我们只要从我们的最终目的出发就可以得到答案,我们的最终检测目的是什么?我们本质上希望我们的算法不仅检测精度高,同时召回率也高,这在曲线上反映出来的效果就是这个曲线尽可能的往右上角拉伸,即固定recall值时,precision越大越好(对应往上拉伸);同理固定precision时,recall越大越好(对应往右拉伸)。因此我们希望我们的曲线尽可能的拉向右上角。那么怎么在数值上体现这种特性呢?原理很简单,只要曲线下方的面积越大越好。因此我们可以在同一张图中绘制两种算法的PR曲线,然后计算对应曲线下方的面积,面积越大说明该曲线对应的检测算法效果较好。

这里PR曲线下方的面积就是AP(Average Precision)。

上述我们整个讨论过程是以检测图片中的狗为例,注意到我们只检测了1类我们就得到了1根PR曲线,如果检测多类,那么每一类我们均可以得到一根PR曲线,也就是每类都会有1个AP值。

对所有类的AP值取平均就是mAP(mean Average Precision)。

5.实际计算方法

实际计算时我们还需要考虑一个叫做置信度的东西。即一般深度学习检测方法在得到每个检测框时还会附带该检测框属于某个类别的概率,这里同样以识别狗为例,如果在图像中某个区域检测出狗,一般会同步的给出该区域属于狗的概率。为什么要用这种不确定的概率形式呢?这是因为深度学习最后的分类器一般使用类似sofemax的方法进行类别判断,这种方法输出的就是0~1之间的概率,如果置信度是0.8,那么可以解释为预测到这个框中可能存在狗的概率为0.8。有了置信度概率,我们在实际计算mAP时一般采用下面的步骤(以单张图片、单个类别为例):

(1)过滤置信度低的预测框

首先遍历图片中每个真值框对象,然后读取我们通过算法检测器检测出的这种类别的检测框,接着过滤掉置信度分数低于置信度阈值的框(一般取0.5);

(2)计算IoU

将剩下的检测框按置信度分数从高到低排序,最先判断置信度分数最高的检测框与真值框的IoU是否大于IoU阈值,若IoU大于设定的IoU阈值即判断为TP,将此真值框标记为已检测(后续的同一个真值框的多余检测框都视为FP,这就是为什么先要按照置信度分数从高到低排序,置信度分数最高的检测框最先去与IoU阈值比较,若大于IoU阈值,视为TP,后续的同一个真值框对象的检测框都视为FP),IoU小于阈值的,直接判定为FP。

(3)计算AP

根据步骤(2)中的得到的TP,FP计算AP。

(0)

相关推荐

  • Label Assign:提升目标检测上限

    加入极市专业CV交流群,与 10000+来自港科大.北大.清华.中科院.CMU.腾讯.百度 等名校名企视觉开发者互动交流! 同时提供每月大咖直播分享.真实项目需求对接.干货资讯汇总,行业技术交流.关注 ...

  • 也谈谈机器学习中的Evaluation Metrics

    判断事物的好坏需要一定的评判标准,判断分类系统的优劣自然需要一定的评判方式.作为设计机器学习系统的一个很重要的环节--评价指标(Evaluation Metric)即是本文的主角.本文首先介绍Accu ...

  • CenterNet:目标即点(代码已开源)

    加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动! 同时提供每月大咖直播分享.真实项目需求对接.干货资讯汇总 ...

  • pytorch学习:运行Mask R

    目录 1 学习pytorch进行图像处理的四个必用链接: 2 运行Mask R-CNN例程时的问题点 2.1 在哪儿下载 engine.py  transforms.py  utils.py? Git ...

  • 目标检测 | 经典算法笔记—Cascade R-CNN再回首

    AI研习图书馆,发现不一样的精彩世界 论文 笔记 论文:https://arxiv.org/abs/1712.00726 代码:https://github.com/zhaoweicai/cascad ...

  • 收藏 | 目标检测的模型集成与实验

    仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:作者:Vikas S Shetty  |  编译:ronghuaiyang  | AI公园 AI博士笔记系列推荐 周志华<机器学习> ...

  • ECCV 2018 | ALFNet:向高效行人检测迈进(附代码)

    极市平台是专业的视觉算法开发和分发平台,加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动! 同时提供每月大咖 ...

  • IoU-aware的目标检测,显著提高定位精度

    今天新出的一篇论文IoU-aware Single-stage Object Detector for Accurate Localization,提出一种非常简单的目标检测定位改进方法,通过预测目标 ...

  • 【AI初识境】深度学习模型评估,从图像分类到生成模型

    这是<AI初识境>第10篇,这次我们说说深度学习模型常用的评价指标.所谓初识,就是对相关技术有基本了解,掌握了基本的使用方法. 凡事用数据说话,一个深度学习模型在各类任务中的表现都需要定量 ...

  • 多目标跟踪:SORT和Deep SORT

    加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动! 同时提供每月大咖直播分享.真实项目需求对接.干货资讯汇总 ...