ECCV 2020附代码论文合集(目标检测)

上次我们给大家带来了关于CNN与图像分割主题的论文,本次的主题是目标检测,包含2D、3D的目标检测,旋转目标检测,视频目标检测,同样每篇论文都附带论文代码,大家在阅读论文的同时也可亲自动手实践,快来看看吧!

目标检测

目标检测是与计算机视觉与图像处理的计算机技术,处理的是在数字图像和视频中检测出的特定类别的语义对象(如人类、建筑物或汽车)的实例。目标检测的研究领域包括人脸检测和行人检测。目标检测在计算机视觉的许多领域都有应用,包括图像检索和视频监控 。
2D目标检测

1 Dense RepPoints: Representing Visual Objects with Dense Point Sets
作者:Yang Ze,Xu Yinghao,Xue Han,Zhang Zheng,Urtasun Raquel,Wang Liwei,Lin Stephen,Hu Han
机构:北京大学,香港中文大学
简介:本文提出了一种对象表示法,称为dense Rep Points,用于灵活而详细地建模对象外观和几何体。与边界框的粗几何定位和特征提取不同,DenseRepPoints自适应地将一组密集的点分布到对象上具有重要几何意义的位置,为对象分析提供信息提示。技术的发展是为了解决与监督训练从图像片段和符号密集点集相关的挑战,并使这种广泛的表示在理论上是可行的。此外,该表示的多功能性被用于在多个粒度级别上建模对象结构。稠密的表示点显著提高了面向几何的可视化理解任务的性能,包括在具有挑战性的COCO基准测试中对象检测的1:6AP增益。

论文链接:https://www.aminer.cn/pub/5e0333623a55aca24ec3eeed/
代码地址:https://github.com/justimyhxu/Dense-RepPoints

2 Corner Proposal Network for Anchor-free, Two-stage Object Detection
作者:Kaiwen Duan,Lingxi Xie,Honggang Qi,Song Bai,Qingming Huang,Qi Tian
机构:中国科学院大学,华为
简介:目标检测的目标是确定目标在图像中的类别和位置。本文提出了一种新的无锚的两阶段框架,该框架首先通过寻找潜在的角点组合来提取多个目标方案,然后通过独立的分类阶段为每个方案分配一个类别标签。作者证明这两个阶段分别是提高查全率和查准率的有效解决方案,并且可以集成到一个端到端网络中。他们的方法被称为角点建议网络(Corner proposition Network,CPN),它具有检测不同尺度对象的能力,并且避免了被大量的误报建议所迷惑。在MS-COCO数据集上,CPN达到了49.2%的AP,这在现有的目标检测方法中具有竞争力。CPN同样适用于计算效率的场景,在26.2/43.3fps时,CPN的AP达到41.6%/39.7%,超过了大多数具有相同推理速度的竞争对手。

论文链接:https://www.aminer.cn/pub/5f213ebe91e011f62007af97/
代码地址:https://github.com/Duankaiwen/CPNDet
3 BorderDet: Border Feature for Dense Object Detection
作者:Han Qiu,Yuchen Ma,Zeming Li,Songtao Liu,Jian Sun
机构:旷视科技,西安交通大学
简介:密集型目标探测器依赖于滑动窗口模式,它可以在规则的图像网格上预测目标。同时,采用网格点上的特征映射生成边界盒预测。点特征使用方便,但可能缺少精确定位的明确边界信息。本文提出了一种简单高效的边界对齐算子,从边界的极值点提取“边界特征”,以增强点特征。在BorderAlign的基础上,作者设计了一种新的检测体系结构BorderDet,它明确地利用了边界信息来实现更强的分类和更精确的定位。使用ResNet-50主干,他们的方法将单级探测器FCOS提高了2.8 AP增益(38.6 v.s.41.4)。通过ResNeXt-101-DCN主干,他们的BorderDet获得了50.3 AP,优于现有的最新方法。

论文链接:https://www.aminer.cn/pub/5f19565a91e01182befeea14/
代码地址:https://github.com/Megvii-BaseDetection/BorderDet

4 Multi-Scale Positive Sample Refinement for Few-Shot Object Detection
作者:Jiaxi Wu,Songtao Liu,Di Huang,Yunhong Wang
机构:北京航空航天大学
简介:少镜头目标检测(FSOD)有助于检测器适应训练实例较少的看不见的类,在手动标注耗时或数据采集受限的情况下非常有用。与以往利用少量镜头分类技术来促进FSOD的尝试不同,本研究强调了处理尺度变化问题的必要性,该问题由于样本分布的独特性而具有挑战性。为此,作者提出了一种多尺度正样本优化(MPSR)方法来丰富FSOD中的目标尺度。它生成多尺度正样本作为目标金字塔,并在不同尺度上对预测进行细化。作者通过将其作为一个辅助分支集成到流行的快速R-CNN和FPN架构中,展示了它的优势,提供了一个强大的FSOD解决方案。在PASCAL-VOC和MS-COCO上进行了多个实验,结果表明,该方法取得了最新的结果,显著优于其他同类方法,显示了其有效性。

论文链接:https://www.aminer.cn/pub/5f16b7ca91e011b48ae9413e/
代码地址:https://github.com/jiaxi-wu/MPSR
5 PIoU Loss: Towards Accurate Oriented Object Detection in Complex Environments
作者:Zhiming Chen,Kean Chen,Weiyao Lin,John See,Hui Yu,Yan Ke,Cong Yang
机构:扩博智能,上海交通大学
简介:使用定向包围盒(OBB)进行目标检测,可以减少与背景区域的重叠,从而更好地定位旋转对象。现有的OBB方法大多建立在水平包围盒探测器上,通过引入一个额外的角度维度,通过距离损失来优化。然而,由于距离损失只会最小化OBB的角度误差,并且它与IoU松散相关,因此它对高宽高比的对象不敏感。因此,提出了一种新的损失,像素IoU(PIoU)损失,利用角度和IoU进行精确的OBB回归。PIoU损失由IoU度量导出,采用像素形式,简单易行,适用于水平和定向包围盒。为了证明其有效性,作者评估了基于锚定和无锚框架的PIoU损失。实验结果表明,PIoU损耗可以显著提高OBB探测器的性能,特别是对于高宽高比和复杂背景的目标。此外,以前的评估数据集不包括对象具有高宽高比的场景,因此引入了一个新的数据集Retail50K,以鼓励社区采用OBB检测器来适应更复杂的环境。
论文链接:https://www.aminer.cn/pub/5f16be7c91e011b48ae94206/
代码地址:https://github.com/clobotics/piou
6 Boosting Weakly Supervised Object Detection with Progressive Knowledge Transfer
论文链接:https://www.aminer.cn/pub/5f116cbb91e011264d4475a6/
代码地址:https://github.com/mikuhatsune/wsod_transfer
7 Probabilistic Anchor Assignment with IoU Prediction for Object Detection
论文链接:
https://www.aminer.cn/pub/5f11708491e011264d44761b/
代码地址:https://github.com/kkhoot/PAA
8 HoughNet: Integrating near and long-range evidence for bottom-up object detection
论文链接:https://www.aminer.cn/pub/5f044d8d91e0114d4aaa49dc/
代码地址:https://github.com/nerminsamet/houghnet
9 OS2D: One-Stage One-Shot Object Detection by Matching Anchor Features
论文链接:https://www.aminer.cn/pub/5e71f49891e0115656f5cfcb/
代码地址:https://github.com/aosokin/os2d
10 End-to-End Object Detection with Transformers
论文链接:https://www.aminer.cn/pub/5ece3bcb91e011dc23c22581/
代码地址:https://github.com/facebookresearch/detr
11 Dynamic R-CNN: Towards High Quality Object Detection via Dynamic Training
论文链接:https://www.aminer.cn/pub/5e96db3891e01129d1a04120/
代码地址:https://github.com/hkzhang95/DynamicRCNN

遥感旋转目标检测

1 Arbitrary-Oriented Object Detection with Circular Smooth Label
作者:
Yang Xue,Yan Junchi
机构:上海交通大学
简介:任意方向的目标检测由于在航空图像、场景文本、人脸等方面的重要性,近年来在视觉领域引起了越来越多的关注。本文研究了现有的基于回归的旋转检测器存在边界不连续的问题,这是由角周期性或角点排序直接引起的。通过仔细研究,作者发现其根本原因是理想的预测超出了规定的范围。作者设计了一个新的旋转检测基线,通过将角度预测从回归问题转化为一个精度损失很小的分类任务来解决边界问题,与以往使用粗粒度旋转检测的工作相比,设计了高精度的角度分类。他们还提出了一种圆形平滑标签(CSL)技术来处理角度的周期性,并增加了对相邻角的误差容限。进一步介绍了CSL中的四个窗口函数,并探讨了不同窗口半径对检测性能的影响。对DOTA、HRSC2016以及场景文本数据集ICDAR2015和MLT进行了大量的实验和可视化分析,证明了该方法的有效性。

论文链接:https://www.aminer.cn/pub/5e6cacc991e01145573c766b/
代码地址:https://github.com/Thinklab-SJTU/CSL_RetinaNet_Tensorflow
3D目标检测
1 Rethinking Pseudo-LiDAR Representation
作者:Xinzhu Ma,Shinan Liu,Zhiyi Xia,Hongwen Zhang,Xingyu Zeng,Wanli Ouyang
机构:悉尼大学,商汤科技
简介:最近提出的基于伪激光雷达的三维探测器大大提高了单目/立体三维探测任务的基准。然而,研究界对其潜在的机制仍不甚清楚。本文对伪激光雷达的数据表示进行了深入研究,发现伪激光雷达表示的有效性来自于坐标变换,而不是数据表示本身。在此基础上,作者设计了一种基于图像的CNN探测器Patch-Net,它是一种更通用的、可以实例化为基于伪激光雷达的3D探测器。此外,本文的PatchNet中的伪激光雷达数据被组织为图像表示,这意味着现有的2D CNN设计可以很容易地用于从输入数据中提取深层特征并提高3D检测性能。作者在具有挑战性的KITTI数据集上进行了大量的实验,其中提出的PatchNet优于所有现有的基于伪激光雷达的同类产品。

论文链接:https://www.aminer.cn/pub/5f33bd4591e011861cfa0fe6/
论文地址:https://github.com/xinzhuma/patchnet

2 Pillar-based Object Detection for Autonomous Driving
作者:Yue Wang,Alireza Fathi,Abhijit Kundu,David Ross,Caroline Pantofaru,Tom Funkhouser,Justin Solomon
机构:MIT,Google
简介:本文提出了一种简单灵活的自动驾驶目标检测框架。在观察到该应用中的点云非常稀疏的基础上,提出了一种实用的基于柱的方法来解决锚定引起的不平衡问题。特别地,本文的算法在多视点特征学习中加入了柱面投影,预测了每个柱而不是每个点或每个锚点的边界盒参数,并且包含了一个对齐的柱到点投影模块来提高最终预测。本文的无锚方法避免了与以往方法相关的超参数搜索,简化了三维目标检测,同时显著提高了最先进的水平。

论文链接:https://www.aminer.cn/pub/5f16d62b91e011b48ae944e9/
代码地址:https://github.com/WangYueFt/pillar-od
3 EPNet: Enhancing Point Features with Image Semantics for 3D Object Detection
作者:Tengteng Huang,Zhe Liu,Xiwu Chen,Xiang Bai
机构:华中科技大学
简介:本文针对三维检测任务中的两个关键问题,即多传感器(即LiDAR点云和相机图像)的开发以及定位和分类置信度之间的不一致性。为此,作者提出了一种新的融合模块,在不需要任何图像注释的情况下,对具有语义特征的点特征进行逐点增强。此外,使用一致性强制损失来明确鼓励本地化和分类可信度的一致性。作者设计了一个端到端的可学习框架EPNet来集成这两个组件。在KITTI和SUN-RGBD数据集上进行的大量实验证明了EPNet优于最先进的方法。
论文链接:https://www.aminer.cn/pub/5f156bfa91e011d7db223ac2/
代码地址:https://github.com/happinesslz/EPNet

视频目标检测

1 Learning Where to Focus for Efficient Video Object Detection
作者:Zhengkai Jiang,Y. Liu,Ceyuan Yang,Jihao Liu, Peng Gao,Qian Zhang,Shiming Xiang,C. Pan
机构:腾讯
简介:将现有的基于图像的检测器转移到视频中是非常重要的,因为部分遮挡、罕见姿势和运动模糊会导致帧质量下降。以前的方法利用光流翘曲在视频帧间传播和聚集特征。然而,直接将图像级光流应用于高层特征可能无法建立精确的空间对应关系。为此,提出了一种新的可学习时空采样(LSTS)模块来准确地学习相邻帧特征之间的语义级对应关系。首先对采样点进行随机初始化,然后迭代更新,在检测监督的指导下逐步寻找更好的空间对应关系。此外,还分别引入稀疏递归特征更新(SRFU)模块和密集特征聚合(DFA)模块来建模时间关系和增强每帧特征。该方法在imagenetvid数据集上实现了最先进的性能,计算复杂度和实时速度都很低。

论文链接:https://arxiv.org/pdf/1911.05253.pdf
代码地址:https://github.com/jiangzhengkai/LSTS
AMiner 会议智图开放平台 ECCV 2020 专题了解会议的精彩内容,其内容包括论文、作者、华人学者、一作华人学生、论文 PPT 和视频等多维分析服务,是参会学者的会议智能助理。
顶会专题链接:https://www.aminer.cn/conf/eccv2020
(0)

相关推荐

  • 轻量级RGB-D显著目标检测的中层融合

    重磅干货,第一时间送达 小黑导读 论文是学术研究的精华和未来发展的明灯.小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 基于三维卷积神经网络的RGB-D显著目标检测

    重磅干货,第一时间送达 小白导读 论文是学术研究的精华和未来发展的明灯.小白决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 基于Mask-GD分割的机器人抓取检测

    重磅干货,第一时间送达 小黑导读 论文是学术研究的精华和未来发展的明灯.小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 利用深度信息进行野生动物监测

    重磅干货,第一时间送达 小白导读 论文是学术研究的精华和未来发展的明灯.小白决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • H-Net:基于无监督注意的立体深度估计

    重磅干货,第一时间送达 小黑导读 论文是学术研究的精华和未来发展的明灯.小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 端到端多模态理解的MDETR调制检测

    重磅干货,第一时间送达 小黑导读 论文是学术研究的精华和未来发展的明灯.小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 目标检测的稀疏对抗攻击,代码已开源

    题目:Sparse Adversarial Attack to Object Detection 论文:https://arxiv.org/pdf/2012.13692v1.pdf 代码:https: ...

  • DeepfakeUCL:基于无监督对比学习的深度假检测

    重磅干货,第一时间送达 小黑导读 论文是学术研究的精华和未来发展的明灯.小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 基于分割的包围盒生成用于全方位行人检测

    重磅干货,第一时间送达 小黑导读 论文是学术研究的精华和未来发展的明灯.小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 漂亮!商汤EDVR算法获NTIRE 2019 视频恢复比赛全部四项冠军,代码将开源!

    在CVPR 2019 Workshop NTIRE 2019 视频恢复比赛中,来自商汤科技.港中文.南洋理工.深圳先进技术研究院的联合研究团队获得了全部四个赛道的所有冠军! 近日,作者们已经将所使用的 ...

  • ACDnet:一种基于流导向特征近似和内存聚合的实时边缘计算的动作检测网络

    重磅干货,第一时间送达 小白导读 论文是学术研究的精华和未来发展的明灯.小白决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • IBRNet:学习多视图图像渲染

    重磅干货,第一时间送达 小白导读 论文是学术研究的精华和未来发展的明灯.小白决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • 【VINS论文笔记】系列之状态估计器流程

    标题:VINS-Mono代码解读--状态估计器流程 estimator 写在初始化和非线性优化前 作者:Manii 来源:https://blog.csdn.net/qq_41839222/categ ...

  • Fashion.ai 人工智能时尚v2.0

    17年的时候,我开发过一个小程序,叫MIX灵感,专门用来收集"好玩"的产品.技术应用. 不过现在,这个小程序早就没有维护,我也把数据迁移到了知识星球.利用知识星球方便的标签功能,读 ...

  • RODNet:实时雷达目标检测网络

    重磅干货,第一时间送达 小白导读 论文是学术研究的精华和未来发展的明灯.小白决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...

  • OpenCV手部关键点检测(手势识别)代码示例

    在大部分情况下还是不错的,但也出现了少数帧关键点跳变的情况. 算法思想 该文中作者使用的算法模型是CMU Perceptual Computing Lab开源的集合人体.人脸.手部关键点检测的开源库O ...

  • (1条消息) 叶片轮廓提取代码

    (1条消息) 叶片轮廓提取代码