点击我爱计算机视觉标星,更快获取CVML新技术


今天新出的一篇论文IoU-aware Single-stage Object Detector for Accurate Localization,提出一种非常简单的目标检测定位改进方法,通过预测目标候选包围框与真实目标标注的IoU(交并比),并基于此与分类分数的乘积作为检测置信度,用于NMS(非极大抑制)和COCO AP计算,显著提高了目标检测的定位精度。

该文作者信息:

IoU-aware的目标检测,显著提高定位精度

作者均来自华中科技大学。

在目标检测问题中,模型需要输出目标分类分数和与其对应的目标定位的包围框,在以往的模型中,经常使用分类分数作为目标定位准不准的置信度,并基于此对大量候选目标包围框NMS,现在越来越多的工作发现,分类分数高并不能保证定位精度高。

比如:

Softer-NMS:CMU&旷视最新论文提出定位更加精确的目标检测算法

作者认为IoU是直接反应定位准不准的直接指标,可以在目标检测模型的分类和定位任务的基础上添加IoU预测的任务,可以在一定程度上反应定位置信度。

作者是在著明的一阶段目标检测算法RetinaNet基础上做的改进,如下图:

IoU-aware的目标检测,显著提高定位精度

在包围框回归分支添加一个并行的预测IoU的任务。

相关的损失函数数学描述:

IoU-aware的目标检测,显著提高定位精度

作者将分类分数和预测得到的IoU相乘,这个指标既反应了是不是这个目标,又反应了该位置和真实目标的可能的交并比,认为它是更加精确的检测置信度:

IoU-aware的目标检测,显著提高定位精度

公式中参数 α 用于控制两者的贡献大小。

实验结果

作者在COCO test-dev上与其他State-of-the-art算法的结果比较:

IoU-aware的目标检测,显著提高定位精度

可见,相比于基线RetinaNet,取得了显著的AP提升,提升在1.0%∼1.6%之间。

在PASCAL VOC数据集上与RetinaNet的比较结果:

IoU-aware的目标检测,显著提高定位精度

同样取得了显著的AP提升,AP 提升在1.1%∼2.2%之间。

这篇文章尽管思路比较简单,但改进还是明显的,希望对其他目标检测算法也有效,期待有更多实验结果出来。

论文地址:

https://arxiv.org/pdf/1912.05992.pdf

作者称代码将开源,不过还没公布地址。

在我爱计算机视觉公众号后台回复“IoU检测”,即可收到论文下载地址。

推荐阅读:

RefineDetLite:腾讯提出轻量级高精度目标检测网络

EfficientDet:COCO 51.0 mAP!谷歌大脑提出目标检测新标杆


目标检测交流群

关注最新最前沿的2D、3D目标检测技术,扫码添加CV君拉你入群,(如已为CV君其他账号好友请直接私信)

请务必注明:目标检测

IoU-aware的目标检测,显著提高定位精度

喜欢在QQ交流的童鞋,可以加52CV官方QQ群805388940

(不会时时在线,如果没能及时通过验证还请见谅)


IoU-aware的目标检测,显著提高定位精度

长按关注我爱计算机视觉

相关文章:

  • 2021-08-08
  • 2021-11-19
  • 2022-01-15
  • 2021-10-16
  • 2021-05-08
  • 2022-01-12
  • 2021-05-06
  • 2021-05-24
猜你喜欢
  • 2021-11-03
  • 2021-07-29
  • 2022-12-23
  • 2021-11-15
  • 2022-12-23
  • 2021-07-27
  • 2021-12-12
相关资源
相似解决方案