超越SiamRPN++,SiamMan达到目标跟踪新SOTA
今天arXiv上新出论文 SiamMan: Siamese Motion-aware Network for Visual Tracking,提出的目标跟踪算法 SiamMan 在几大数据集上精度超越了SiamRPN++,GPU上运行速度可达到45fps。
以下为作者信息:
SiamMan算法架构图如下:
使用孪生网络提取特征,后接分类、回归和定位三个分支。分类分支用于区分前景和背景,回归分支用于回归目标的边界框。比较特别的是,为了减少手动设计的锚框适应不同目标运动模式的影响,设计了定位分支,该分支旨在粗略地定位目标,以帮助回归分支生成准确的结果。
同时,SiamMan将全局上下文模块引入到定位分支中,以捕获视频远程依赖关系,从而在目标大位移时具有更高的鲁棒性。
此外,SiamMan设计了一个多尺度的可学习注意力模块,以指导这三个分支利用判别功能获得更好的性能。
实验结果
作者在几个跟踪数据集上与state-of-the-art算法的精度比较:
EAO综合了精度和鲁棒性,该文提出的算法超过了所有之前的算法。SianMask、SiamMask_E因为使用了分割结果拟合目标包围框,所有Accuracy略高,但整体上SiamMan效果更好。
SiamMan都取得了更好的结果。
论文地址:
https://arxiv.org/pdf/1912.05515v1.pdf
代码地址:
https://isrc.iscas.ac.cn/gitlab/research/siamman
(作者称论文被录用后,代码将开源)
目标跟踪交流群
赞 (0)