人机生存大战会从科幻走向现实? | AI • 智能
面对拥有了决断力与判断力的机器,人们看待他们犹如看待突然长大的孩子,带着信心与怀疑打量着其拥有的能力,心情与刚完成雕像的皮格马利翁别无二致。
“现在每当我望着银河的时候,总是不由自主地猜测着,帮助地球发展文明的使者将从层层星云中哪一颗星飞来。倘若你能原谅我做出这么一个平淡无奇的比喻,那么咱们已经拉响了火警,现在无事可干,只有等待。”
阿瑟·克拉克在1948年小说《岗哨》的结尾,把高度发展的人工智能比作了某种不知从何而来的外太空智慧,并且申明了他的立场“我认为咱们不必等待。”这是因为,他预见到了人工智能突破发展技术瓶颈的速度。
而面对AI以及可能超越人类自身的科技,普罗大众对其在科幻影视作品中的艺术化探索也颇值得玩味。从《星球大战》中忠心耿耿的3PO、到《星际穿越》中诚实度/真实度为95%的TRAS,机器人被定义成为人类服务者,甚至像《终结者》那样,人类最终被钢铁躯体所取代,向机器人打响一场生存之战。
面对拥有了决断力与判断力的机器,人们看待他们犹如看待突然长大的孩子,带着信心与怀疑打量着其拥有的能力,心情与刚完成雕像的皮格马利翁别无二致,“他们是有意识,但现在他们却学会说谎了,真是栩栩如生。”
希望与恐惧
即使人类有意赋予机器人感情,但心理上仍然将其视为异类。面对另一股非人类力量的崛起,人类或盼据为己用,奴役其来造福自己;或屈于人工智能之强势,战战兢兢,心怀恐惧,甚至须与后者一决雌雄。
《人工智能》中机器人小孩大卫连“爱妈妈”的设定都与人类小孩无异,却在人类“兄弟”马丁的促狭中败下阵来,被“妈妈”抛弃,遭到机器屠宰场的残酷追杀。《黑镜》中失去丈夫的女主角,即使看到机器人与已逝丈夫的音容笑貌相差无几,仍忍不住去质疑、打击、甚至圈养他……
面对手无寸铁、无缚鸡之力的“接待员”,无论他们看起来多么像人,那些所谓来自上流社会的人士烧杀淫掠,大开杀戒,这些机器人们每天却像物品一样被堆积起来,清洗重置。在游戏的“西部世界”中,人类放纵自己的恶念,对机器人的屠戮不亚于当年西进运动时土著居民的毁灭性打击。
人类一方面从机器人“无条件”的服从与爱中获得慰藉与满足,一方面却对这种毫不反抗、且无自我意识的AI嗤之以鼻。但是对有主体意识、可判断决策的机器,人类的本能反应又充满恐惧。
早在1950年,伊萨克·阿西莫夫在《机械公敌》将这种忧虑诉诸笔端,并设定了大名鼎鼎的“机器人三原则”,来对人工智能进行警惕和预防,但人类与高级人工智能争斗的故事屡屡见诸科幻作品。
几乎在一念之间,看似被动弱势的AI就反败为胜,利用人类的弱点杀出一条出路。《机械姬》中美艳却被限制自由的机器人,在呆萌程序员泛滥的同情心和一丝爱恋面前,高仿真度的机器人利用人类的情感这一点来达到目的,几乎立时完成了力量的对比反转,实现了化身“人类”的自由。
在高度发达的AI面前,人类根本不是敌手。《黑客帝国》最后,浩浩荡荡的电子乌贼,沦陷的现实社会,沉浸入虚拟世界的人们,在掌控一切的计算机王者“矩阵大帝”面前进行人机谈判,以“病毒”史密斯和人类救世主Neo的同归于尽而告终。
人类与机器对立的残酷性也在《终结者》中充分体现。机器觉醒时代,施瓦辛格那孔武有力的钢铁之躯,越发衬托出仅存的反抗军的孱弱力量。当拥有强大能力的机器自我意识被唤醒,人类的脆弱暴露无疑。
机器有选择权吗?
人类对未来交通工具的想象和态度在科幻作品中也有所体现。无论是《海底两万里》中的潜艇,《三体》的宇宙飞船,《第五元素》中的飞行汽车,《回到未来》中供时空旅行的汽车,或者宫崎骏笔下的龙猫电车,这些想象中的未来交通工具一直是科幻、动画作品里的常客。
但是回到现实,反映到目前大热的智能驾驶汽车上,人类的态度却暧昧不明。人们真的会将自己的身家性命托付给无人驾驶车辆吗?远的不说,光是《速度与激情8》中,上千辆汽车在黑客的远程操控下在街头狂奔,如同丧尸一般。汽车不受驾驶员自己控制,只听命于黑客发来的一条条指令,这样的事情无疑让人感到恐怖。
还有,机器有选择的权利吗?人类会放任机器去做决定吗?《第五元素》中那些腾空而起的汽车虽然早已突破技术限制,自由而灵活地穿梭空中,但现实中在街道、测试场地中奔跑的谷歌们却不得不面对更加复杂的伦理问题,或者说是法律问题。
截至目前,谷歌的无人驾驶测试车已经发生了不下4起车祸事故,或因对方车辆闯红灯、为躲避障碍物等撞上其他障碍物,还因此而收到了相关罚单。未来智能驾驶、自动驾驶梦想都变为现实时,立法与伦理还将面临新一轮挑战。
针对阿西莫夫“机器人不得伤害人类”这一准则,阿西莫夫本人后来增加了更有优先性的“第零法则”——机器人必须保护人类的整体利益不受伤害。但是这个类似于杰里米·边沁功利主义的原则,在自动驾驶车辆真的来临时究竟能起到多大作用?机器能否会因为担心撞到数十个行人,而牺牲少数?
这与哲学家Philippa Foot提出的“电车”问题如出一辙,不过“电车问题”中的人变成了机器,涉及到自动驾驶,“决断者”则变成了车辆。在现行情况下人类会做逻辑判断,因而也不需要考虑伦理问题,无论出什么事情,都有人来负责。但是换成了自动驾驶车辆,究竟是要置多数人的利益,还是少数人的利益为首呢?
人们是否愿意开发能避免绝大多数事故,但又有可能犯下人类不会犯的致命错误的自动驾驶汽车呢?华盛顿大学机器人法学专家瑞恩·卡罗对理论伦理的讨论能否移植到实际关系中,持相当怀疑的态度。
“在这些问题真正的出现之前,我们最好能够主动地预测并且解决这些问题。这类问题如果处理不慎,引发的法律诉讼将有可能会摧毁整个公司,或者在整个工业界留下巨大的阴影。”【END】
本文节选自《汽车公社》杂志7月刊封面故事
速度 深度 态度