极市沙龙|下周六CVPR2021论文线下研讨会邀你参会!坐标深圳

随着三月的到来,春暖花开,时隔一年,极市CV开发者沙龙活动要回归啦!今年线下活动的第一站,将在深圳举行,其他城市的小伙伴不要着急,下一站说不定就在你的城市,可以在评论区留言噢。

本次极市CV开发者沙龙活动主题为CVPR2021论文研讨会。我们邀请了三位CVPR2021接收论文作者,来分享他们的CVPR2021论文工作成果和心得,以促进开发者之间的学术交流。

CVPR会议是CV领域国际三大顶会之一,一直以来都受到广大CV开发者的关注。今年2021 CVPR论文接受结果已经公布。今年的论文有效投稿多达7500篇,1663篇论文被接收,接收率为23.7%。

+ + + +

活动信息

主题:2021 极市CV开发者沙龙第三期

----CVPR2021论文研讨会

时间:2021年3月27日 14:00-17:40

名额:40人

地点:深圳市南山区深圳湾生态科技园

参与方式:免费报名,先到先得

时间

内容

14:00-14:20

主持人开场

14:20-14:50

分享嘉宾:李铎

分享主题:CVPR 2021|  Involution: Inverting the Inherence of Convolution for Visual Recognition

(通过反转卷积的内在性质进行视觉识别)

14:50-15:20

嘉宾现场答疑互动

15:20-15:50

分享嘉宾:顾津锦

分享主题:

CVPR 2021| Interpreting Super-Resolution Networks with Local Attribution Maps(使用局部归因图理解和可视化超分辨网络)

15:50-16:20

嘉宾现场答疑互动

16:20-16:50

分享嘉宾:戴志港

分享主题:CVPR 2021 oral| UP-DETR: Unsupervised Pre-training for Object Detection with Transformers

( UP-DETR:针对目标检测的无监督预训练transformer)

16:50-17:20

嘉宾现场答疑互动

17:20-17:40

抽奖、自由讨论

17:40

活动结束

嘉宾

李铎

香港科技大学

顾津锦

悉尼大学

戴志港

华南理工大学

报名方式:

添加极小北微信,备注:极市分享会,工作人员会拉您入群噢。

为了保证活动的高质量交流,需要各位感兴趣参与的开发者,提前阅读分享的论文,并针对以上任一分享,提出您想问的问题,我们将对报名者进行审核,审核通过后即可免费参与。

+ + + +

 报告概要:

1.分享嘉宾:李铎  香港科技大学

论文题目:Involution: Inverting the Inherence of Convolution for Visual Recognition

论文摘要:卷积作为现代神经网络中的核心构件,引发了深度学习技术在视觉领域的发展浪潮。在这篇工作中,我们重新思考了标准卷积核在空间维度和通道维度的固有特性,即空间不变性和通道特异性。与其相反地,我们通过反转以上的两个设计准则,提出了一种新颖的神经网络算子,称为“反转卷积”。另外我们解释了最近应用广泛的自注意力操作,并将其作为一种复杂的特例归入了“反转卷积”的范畴。我们提出的“反转卷积”算子可以作为基础模块替代普通卷积来搭建新一代的视觉神经网络,在不同的视觉任务中支持多种多样的深度学习模型,包括ImageNet图像分类,COCO目标检测和实例分割,Cityscapes语义分割。基于“反转卷积”的深度神经网络相较于ResNet-50对应的卷积神经网络模型,在上述任务中分别将识别准确率提升1.6%,边界框AP提升2.5%和2.4%,类别平均IoU提升4.7%,而将计算代价压缩到66%,65%,72%和57%。

相关视觉任务的源代码和预训练模型开放在:

https://github.com/d-li14/involution

论文地址:https://arxiv.org/abs/2103.06255

2.分享嘉宾:顾津锦 悉尼大学

论文题目:Interpreting Super-Resolution Networks with Local Attribution Maps.

论文摘要:得益于深度网络的发明,图像超分辨率(SR)技术得到了快速发展。但是公认的是,深度学习和深度神经网络很难解释。SR网络继承了这种神秘的本质,几乎没有作品试图去理解它们。在本文中,我们对SR网络进行了归因分析,目的是寻找对SR结果有重大影响的输入像素。我们提出了一种新颖的归因方法,称为局部归因图(LAM),该方法继承了积分梯度方法,但具有两个创新点。一种是将高斯模糊图像用作基线输入,另一种是采用渐进模糊函数作为路径函数。基于LAM,我们表明:(1)涉及的输入像素范围更广的SR网络可以实现更好的性能。(2)注意网络和非本地网络从更大范围的输入像素中提取特征。(3)与实际贡献的范围相比,对于大多数深度网络而言,感受野都足够大。(4)对于SR网络,具有规则条纹或网格的纹理更容易被注意到,而复杂的语义则难以利用。我们的工作为设计SR网络和解释底层视觉深度模型开辟了新的方向

论文地址:https://x-lowlevel-vision.github.io/lam.html

3.分享嘉宾:戴志港 华南理工大学

论文题目:UP-DETR: Unsupervised Pre-training for Object Detection with Transformers

论文摘要:利用transformer做目标检测,DETR通过直截了当的编解码器架构,取得了引人注目的性能。受自然语言处理中预训练transformer语言模型的影响,我们提出了一个适用于目标检测的无监督预训练任务。具体而言,给定图片,我们随机的从其中裁剪下多个小补丁块输入解码器,将原来输入编码器,预训练任务要求模型从原图中找到随机裁剪的补丁块。在这个过程中,我们发现并解决了两个关键的问题:多任务学习和多个补丁块的定位。1)为了权衡预训练过程中,检测器对于分类和定位特征的偏好,我们固定了预训练的CNN特征并添加了一个特征重构的分支。2)为了同时支持多补丁定位,我们提出了注意力掩码和洗牌的机制。实验中,无监督预训练可以显著提升DETR在下游VOC和COCO上目标检测的性能。

论文地址:https://arxiv.org/pdf/2011.09094

# CV技术社群邀请函 #

△长按添加极市小助手
(0)

相关推荐