机器人能战胜围棋世界冠军,却连棋子都拿不起来你敢信?
机器人大讲堂祝您 2017 丁酉鸡年快乐
中国机器人界十二位大咖齐贺新春
大家都知道,即便是心智不全的三岁小孩也可以轻松捡起地上的物品,如今,人工智能已经可以轻松处理复杂的认知工作如协助法律和医疗研究,但对机器人来说,捡起地上掉落的衣服依然是天方夜谭。诚然,机器进入我们生活已经几个世纪了,但它们能做的工作较为有限。它们都被安置在固定地点,重复的做着各种机械的任务。不过,一旦出了工厂,在一些非结构化的环境中,如乱糟糟的房间和繁忙的仓库,机器就会变得束手无策。
捡起一样东西其实并不像我们平时看到的那样的简单。至少对机器人来说,并不简单。机器人专家想要发明一个可以捡起任何东西的机器人,但是眼下几乎所有的机器人只会在它们费尽心力想要抓到东西的地方“盲目乱抓”。就算物体的形状、质地或是位置发生了变化,机器人也反应不过来,所以它们每次的尝试大多会失败。离机器人一次就完美地抓起东西,我们还有很长的路要走。为什么抓东西这个任务这么难做到,这其中究竟有什么技术难点不能突破呢?
抓取某个物体听起来简单,人类甚至不用思考就能轻松完成,但对于机器人来说这一动作却非常微妙且难以捉摸。但如果仔细推敲,这一过程其实要依靠我们大脑中非常复杂的网络来完成。就拿端起马克杯来说,人类大脑会自动计算出怎样握持杯子最稳,它连每个指头该放的地方都规定的清清楚楚。人类通过进化,大脑已经有了自己高度定制的处理惯例。虽然桌子上放的钢笔我从来没见过,但我知道自己能轻松把它拿起来。 在拿取钢笔的过程中,大脑重拾此前类似的体验,并将处理方法回传给双手。
目前,许多关于机器人抓物的研究都集中在建立围绕视觉反馈的智能上。数据库图像匹配是建立智能的方法之一,这也是布朗大学的Humans to Robots实验室在Million Objects Challenge中利用的方法。他们的想法是,让机器人利用照相机去发现目标物,并主导自己移动、抓物。在这个过程中,机器人将它们实时获取的信息和数据库里存储的3D影像作对比。一旦机器人发现了其中匹配项,那么它就可以找到可以应对当前情况的计算程序。虽然当布朗大学在为各种物体收集视觉数据,但是机器人专家们不见得会为每个机器人可能遇到的不同情况建立视觉数据库中的每个项目。另外,数据库匹配法中没有环境限制,所以它不会让机器人调节抓物策略以适应不同环境。
其他科学家为了提高机器人的抓物能力,也纷纷开始研究机器人学习技术。这些技术让机器人可以从它们的经验中实现自我学习,所以到了最后,机器人可以自己发现抓物的最佳方法。美国布朗大学的研究人员斯蒂芬妮正在致力解决这一难题。她在一个名为巴克斯特(Baxter)的机器人基础上进行实验,努力通过教会一个机器人如何捡起物品,并让其将此经验“传授”给其他机器人。
斯蒂芬妮的具体构思是,当机器人遇到需要捡起的物品时,它首先对该物品进行多方位的红外扫描判断物品形态。当这一步骤完成后,机器人对其可以捡起该物品的方式进行计算并选择最佳方案,该方法比以往机器人常规做法更为可靠。另外值得称赞的是,机器人之间的互联网络的运用。该网络的应用使同时工作的机器人可以互相交流数据,快速建立捡起物品这一技能的数据库,从而实现所有机器人掌握此技能。
其实在人类抓取东西的过程中视觉和触觉是紧密联系密不可分的,触觉在人类的抓物、控物动作中扮演了核心角色。对失去了手的截肢者来说,他们最大的困惑是,在用义肢的时候感觉不到自己在摸什么。没有了触觉,截肢者们在抓物和控物的时候,需要离目标物很近,而一个健全的人捡物的时候甚至不需要看着它。科学家们意识到,在抓物过程中触觉感应器的重要作用。在过去的三十年间,他们一直尝试用触觉感应器取代人体器官。然而,触觉感应器发送的信息非常复杂、高维,而且在机械手中加入感应器并不会直接提高它们的抓物能力。我们需要的是能够把未处理的低级数据转变成高级信息,从而提高抓物和控物能力的方法。触觉智能可以通过触摸、识别物体的滑动和定位物体让机器人预测抓物是否能成功。
如果某一天有人能取得成功,无疑将引发新一轮的机器人革命,这些灵巧的机器将进一步释放社会生产力,也许那时人类90%的工作都可以由机器人来代替,我们该欢喜还是忧愁呢?