基于Mask-GD分割的机器人抓取检测
重磅干货,第一时间送达

小黑导读
论文是学术研究的精华和未来发展的明灯。小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容。个人能力有限,理解难免出现偏差,建议对文章内容感兴趣的读者,一定要下载原文,了解具体内容。


摘要
复杂场景下目标物体抓取检测的可靠性是一项具有挑战性的任务,是实际应用中迫切需要解决的关键问题。目前,抓点检测的定位主要来自于对整个图像的特征空间进行搜索。但是图像中混杂的背景信息降低了抓取检测的准确性。本文提出了一种机器人抓取检测算法MASK-GD,为这一问题提供了一种可行的解决方案。掩码是一种只包含目标对象像素的分割图像。抓取检测的MASK- GD只使用了MASK特征,而不是场景中整个图像的特征。它有两个阶段:第一个阶段是提供目标对象的掩码作为输入图像,第二个阶段是基于掩码特征的抓取检测器。实验结果表明,在Cornell数据集和Jacquard数据集上,MASK-GD的抓取检测性能与目前最先进的抓取检测算法相当。同时,MASK-GD在复杂场景中表现得更好。

本文提出了一种新的基于图像分割的抓取检测算法,该算法将面向场景的抓取检测优化为面向对象的抓取检测。
抓取检测是基于前景细节信息的特征,将其从整幅图像中分割出来。因此,作者的方法大大降低了抓取检测的范围。作者在Cornell数据集和Jacquard数据集上验证了作者的方法,它与最先进的抓握检测算法具有可比性。
提出了一种新的抓取检测网络MASK-GD,该网络能够在多目标场景下同时检测目标和抓取物。因此,在多对象场景下,网络可以抓取指定对象。

框架结构

作者的抓取检测模型的完整结构是基于目标分割的。模型的输入是一个RGB图像,模型分为两个阶段:目标分割阶段和抓取检测阶段。在第一阶段,只保留目标区域的像素。在第二阶段,检测只包含目标的图像。

作者的方法采用两阶段网络结构
第一阶段是实例分割阶段,对输入图像进行分割,以可靠地将目标对象与背景信息区分开来。第二阶段是抓取检测阶段,只包含目标图像进行抓取检测。
在第一阶段,受U-Net++[17]网络的启发,作者使用编码器、解码器和skip连接结构对输入图像进行分割。编码器采用VGG16[16]网络作为骨干,提取输入图像特征,进行四次下采样操作。下采样过程可以显著提高模型对输入图像的一些扰动的鲁棒性,增加模型的灵敏度域,降低计算成本和过拟合风险。解码器通过四个上采样操作将特征映射恢复到初始大小,并通过一个跳过连接将每个下采样生成的特征映射连接起来。利用上采样和跳层连接,减少了下采样导致的信息丢失,显著提高了模型对不同大小对象的分割性能。
最后将分割后的RGB图像输入到第二阶段抓取检测器中,抓取检测器对图像中的目标进行抓取检测。实验验证表明,该方法能有效提高抓取精度,抓取结果优于[3]提出的ROI-GD方法。该方法可以成功地应用于多目标场景,而在单目标场景中仍然可以获得最先进的结果。

实验结果

Cornell Grasp数据集的图像和(b)去除背景信息的Cornell Grasp数据集的图像。
对于用于测试模型的数据,作者不做任何数据增强。此外,测试图像是一个一个的输入模型,而不是分批处理。在Cornell Grasp数据集上的实验结果如表1所示。作者的模型在图像分割和目标分割方面分别达到96.4%和96.5%的精度。与基线相比,作者的方法在输入RGB图像时精度分别提高1.5%和0.6%,在输入RGD图像时精度分别提高0.4%和0.4%。作者的方法消除了明显影响抓取检测性能的图像背景元素,并增加了与输入图像的对比度。另一方面,用深度信息代替RGB图像中的蓝色通道像素值,由于物体与背景的深度值存在差异,也在一定程度上增加了对比度。因此,在精度提升方面,相对于基线,RGD格式的输入比RGB格式的输入要小。

结论
提出了一种新的机器人抓取检测方法Mask-GD。该方法通过目标分割消除了背景信息对抓取检测的干扰,实现了目标检测代替场景。作者分别在Cornell数据集和Jacquard数据集上验证了作者提出的方法,并使用标准性能度量和方法将它们与最先进的系统进行比较,以证明作者的方法的有效性。实验结果表明,该方法的性能优于现有系统。
论文链接:https://arxiv.org/pdf/2101.08183.pdf
每日坚持论文分享不易,如果喜欢我们的内容,希望可以推荐或者转发给周围的同学。
- END -

#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。深度学习爱好者 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
深度学习爱好者 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
· 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
· 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
· 深度学习爱好者 默认每篇文章都是首发,均会添加“原创”标志