《Nature》发布!MIT研发让机器人“盲眼识物”的触觉手套,仅需10美元!
导读
近日,MIT人工智能实验室(CSAIL)在《Nature》发表了一篇文章。他们研发出一款具有548传感器的触觉手套,利用深度学习,让智能手套学习人类方式通过触摸来识别物体。
编辑:小木
每次深夜醒来,即使漆黑中我们什么也看不见也能通过摸索准确的识别出手机或眼镜这些起床必备物件;资深牌友在打麻将时,激动时刻总不着急翻过来看牌面,而是通过指尖的触摸来判断手上那张麻将究竟是不是自己想要的,而且大多数情况下他们总能猜对。显然,这些时候人类视觉没有给我们太多帮助,而是手的触觉加上多年来的经验帮助我们做出准确的判断。
最近MIT人工智能实验室(CSAIL)便利用人类这种触觉与经验(大数据)的结合,开发了一款触觉首套,并将论文发表在了顶级期刊《Nature》上。
据介绍,MIT人工智能实验室的研究人员们在巴掌大的手套上,安装了多达548个传感器。
传感器套筒分两层排布了64条导电线,横向和纵向分别32条,在两层导电线之间有一张力敏膜(对垂直力敏感的薄膜)。这些线交叉的548个点,每一个都是压力传感器。当这些点被按压时,交叉点处薄膜的电阻会变小,电极阵列就能进行感知。
这个神奇手套名为“可伸缩触觉手套”(scalable tactile glove,STAG),使用柔性材料,可以随人手一样任意弯折而不至损伤传感器阵列。
实验人员为了验证戴上手套完全不影响人类手掌的灵活性,还用它折了一个纸飞机,并记录了触觉传感器阵列的压力变化。
虽然548个传感器相比于人类手上的触觉点来说简直微不足道。但就目前的条件来看,这些传感器作为触觉点不仅能识别所接触到物体的压力点,还能判断出物体的重量。而更为关键的,整个首套的成本造价,仅需要10美元。
MIT的研究人员将手套的输出处理成了32×32的灰度像素阵列,通过相应点位的颜色变化与和颜色深浅来判断压力的出现,与压力的大小。
这样,研究人员戴上这款手套,拿捏不同的物体,并以每秒七帧的速度将压力图记录下来,便形成了该手套触摸物体时强大的数据集。然后,神经网络将半随机帧与特定的夹点相匹配,直到建立了一个物体的完整图片。这与人们通过在手中滚动物体来识别物体的方式非常相似。通过使用伴随机图像,可以给网络提供相关的图像集群,因此不会在无关数据上浪费时间。
虽然对人来说识别一个物品很容易。但对于触觉手套来说,想让它成功记住并识别出一个眼镜,便需要非常庞大的数据。MIT公布的以下视频便记录了要想成功学习和记住一个眼镜需要的过程。
该团队从26个常见物体(如饮料罐、剪刀、网球、勺子、钢笔和马克杯)中收集了135,000个视频帧。
并且在此基础上,利用搜集来的数据集进行了反向验证。实验证明,仅仅使用该手套的触觉数据,与搜集来的数据集,AI系统识别物体的准确率高达76%。
此外,该团队还对该传感器手套的重量识别功能进行了验证。结果显示重量在60克以内的物体大部分都能准确估计出来。
虽然目前该款产品还处于实验室阶段,但可以想象,如果它真能走向商品化,对于机器人的灵巧手和机械假肢来说都具有深远意义。更具体来说,便是这些人造的智能工具会越来越像人。
END