“AI战争”背后的冷思考
AI,即人工智能,是当前科技领域大热的一个概念。由于它是一门研究开发用于模拟、延伸和扩展人类智能的新兴技术,可以说,未来只要是需要人类智能参与的领域,都可能由AI替代完成。而战争自古以来就带着“残酷”标签,是人类顶尖技术、智力和体力的角斗场。由此看来,在战争中广泛发展和应用AI技术再合适不过了。
随着数据挖掘技术、大规模并行算法等不断发展完善,AI技术如虎添翼,越来越多地应用在军事领域。虽然现阶段AI技术还不能像人类一样进行初创,但它可以对人的意识、思维进行模拟,能按照人类的设定进行思考,在执行繁重任务时表现甚至要超过人类智能。尤其是在语言、图像的识别和处理方面,AI技术具有得天独厚的优势。因此,在情报、决策与作战一体化领域,AI技术应用广泛。
不过,人类并不满足于AI技术在战争中的“软应用”。战争中的流血牺牲已经对人类造成了很大的创伤,那么AI技术能否替代人类直接进行作战,从而将人类彻底从炮火硝烟中解救出来呢?于是,能够自主作战的军用机器人应运而生。
这类机器人属于致命性自主武器系统,目前各国发展的无人飞行器、无人战车、无人舰艇等能够自主遂行战斗任务的武器系统,基本都属于这一范畴。由于这类装备能够在无人控制的情况下,自主搜索并消灭目标,自身的机械机构又拥有远超人体的性能,因此特别适合在恶劣环境中执行攻坚任务,体现出较高的军事应用价值。这也是当前AI技术在军事领域最主要的“硬应用”。
然而,AI技术是一门极富挑战性的科学,它不仅涉及计算机技术、心理学,甚至还涉及哲学领域,受到法律和伦理道德的多重约束。毕竟,“由人类创造的机器人拥有自主消灭人类的能力”,这本身就是对伦理的拷问。2018年4月,联合国《特定常规武器公约》政府专家小组就曾专题研讨过“杀人机器人”可能带来的影响。
除了伦理层面,AI军用机器人自身软件和硬件的可靠性也不容忽视。早在2007年,美军第三机步师的一台“利剑”机器人由于软件故障,竟调转枪口对准美军操作员,而且无论操作员如何发出“取消”指令都无济于事。最后,还是靠着一枚火箭弹将机器人摧毁,才结束了这次闹剧。
由于AI技术涉及机器视觉、生物识别、自动规划、智能控制等方方面面,机器人很有可能在复杂环境或执行复杂指令时出现失控现象。特别是在AI技术尚在发展阶段的今天,这种隐患更难避免。
AI失控事件确实给人类敲响了警钟。人们担忧,如果把自主控制权完全交给AI,会不会出现影视作品中的“终结者”,严重威胁到人类自身的生存呢?2017年人工智能国际会议上,不少AI技术企业负责人纷纷呼吁,应该像禁止生化武器一样,禁止在战争中使用AI机器人消灭有生力量。
其实,AI技术在军事领域的运用到底利弊几何,答案还要看人类自己的选择。正如霍金所言:“AI技术是好是坏,我们依然不能确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。”
来源: 解放军报