Superevents:面向基于事件的摄像机的原生语义分割
重磅干货,第一时间送达
小黑导读
论文是学术研究的精华和未来发展的明灯。小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容。个人能力有限,理解难免出现偏差,建议对文章内容感兴趣的读者,一定要下载原文,了解具体内容。
摘要
大多数成功的计算机视觉模型将低级特征(如Gabor过滤响应)转化为下游视觉任务的中级或中级复杂性的更丰富的表示。这些中层表示还没有被用于事件摄像机,尽管它与事件流中的视觉稀疏和经常不相交的空间信息特别相关。通过使用局部一致的中间表示,称为超级事件,大量的视觉任务,从语义分割,视觉跟踪,深度估计将受益。本质上,超事件是感知一致的局部单位,描述了场景中物体的各个部分。受最近深度学习体系结构的启发,作者提出了一种新的方法,利用生命周期增强来获得事件流表示,并将其反馈到全卷积网络中以提取超级事件。作者对基准数据集的几个序列进行的定性和定量实验结果突出显示了基于事件的下游应用程序的巨大潜力。
本文的主要贡献是:
(1)基于事件的光流估计的场景自适应噪声抑制方法和精确的BEI估计的鲁棒增强方法。
(2)场景自适应BEI渲染时间间隔,近似归一化为具有视运动特征的预期视位移大小。
(3)利用上述贡献,利用全卷积网络为事件摄像机建立超级事件提取管道。
框架结构
用于二值事件图像估计的SOFEA管道(SOFEA- bei)
用于从SOFEA-BEI中提取超级事件的FCN的示意图表示
实验结果
比较了不同延长寿命增益和寿命重置配置下,SOFEA-BEI在动态6dof序列上的估计
在slider_far(第一列)、urban(第二列)和dynamic_rotation(第三列)序列上,SOFEA-BEI(第三行)和[23](第四行)的BEI场景表示精度比较。同时可视化了APS强度图像(第1行)和Canny边缘检测得到的边缘图(第2行)。
结论
本文提出了一种基于鲁棒二值事件图像生成方案和完全卷积网络的事件相机超事件提取方法。这在神经形态视觉领域开辟了广泛的可能性,将稀疏的、不相连的视觉信息聚集成更有意义的中间表征。作者评估了事件相机数据集上的超级事件,并突出了强度和事件模式之间边界分数的差距。未来的工作将探讨如何使用完全异步处理来解决这一差距。
论文链接:https://arxiv.org/pdf/2105.06091.pdf
每日坚持论文分享不易,如果喜欢我们的内容,希望可以推荐或者转发给周围的同学。