老问题,新方法:在人工智能时代衡量军事效能
人工智能不仅仅是发展战争武器的工具,它还是了解武器影响的工具,不管是我们当前拥有的武器还是我们未来拥有的武器。
在越战之后流传着这样一段对话:一位美国上校告诉越南上校:“你知道,你从未在战场上击败过我们。”,越南上校回答说:“可能确实是这样,但这也无关紧要。”这段对话大概率是杜撰的,但它也引出了一个问题——不注重效能的战斗。
“会产生什么影响?”是国家安全中一个经常被忽视的基本问题:一个行动对对手产生了什么影响,它是否使我们更接近我们的目标?很多情形都适用这个问题,比如,为迎接当地领导而进行的徒步巡逻、落在叛乱阵地的炸弹、关闭电网的网络行动或面向敌人的精彩航母展示等会产生什么效果?这个问题不光适用于高级政策制定者,也适用于初级战术家。在任何层面上忽视它都会产生严重后果,尤其在有赢得一场战斗却输掉整场战争的倾向时。
纵然“会产生什么影响”是一个很重要的问题,但这个问题的答案却十分虚无缥缈——尽管我们尽了最大的努力,但还是无法给出完整答案。一个影响是对手尊重美国利益的意图发生了变化,但意图是存在于对手头脑中的。直接暴力可以使意图变得清晰,但除了主动作战,我们无法获悉别人打算做什么。即使我们能够看清对手的想法,效能在时间维度和空间维度的复杂性也使得我们难以完全感知。例如,对于一颗落入叛乱阵地的炸弹,不同的人会有不同的反应,比如炸弹落点附近的叛乱分子、从远处看到炸弹爆炸的人还有听到爆炸声的人。要回答“会产生什么影响?”这一问题,我们需要在炸弹爆炸时弄清楚这些瞬时反应,并在炸弹爆炸后几天和几周内了解这些反应是如何发展的。对任何人或任何团体来说,弄明白这些都无比艰难。
人工智能(AI),作为一种基于证据的测量军事影响的方法,可以让我们更接近问题的答案。它可以衡量情绪,而情绪是行为意图的指标,它可还以跨越时间和空间。我们既可以使用人工智能来开发用于发动战争的新工具,也可以使用它来更好地了解我们已有工具的效能。
决策者面临的挑战将是如何将人工智能作为衡量效能的方式。除了技术和组织方面的障碍外,我们还面临着一个心理障碍:我们与生俱来的认知感。人类可以看到对手在他们视野中如何反应,并且人类可以感受到他人的情绪。采用人工智能作为效能的衡量标准,意味着承认我们自己的感知可能是不完整的,机器能做得比我们更好,而承认这一点可能会让人觉得不舒服。采用人工智能作为衡量效能的第一步是了解人类的认知偏差如何使判断效能变得困难。本文描述了人类用直觉判断效能容易出错的具体例子,并解释了人工智能如何帮助回答这个基本问题:“会产生什么影响?”
心理学在过去半个世纪中最重要的发展之一是认识到,人类在面对极其复杂的问题时,会简化这些问题以得出结论。用诺贝尔奖得主心理学家丹尼尔·卡尼曼的话来说就是,我们提出了难以解决的问题,却用简单易懂的问题代替它们。
相比于“会产生什么影响?”这个难题,我们更倾向于问(至少)三个简单的问题:我想要的效果是什么?对敌人的刻板印象会产生什么影响?此时此刻的影响是什么?我们转向这些更简单的问题——用判断和决策研究人员的话说就是启发式问题——因为这些问题的答案更直观。回答这些问题要比回答多维对手将如何在不同的时间和空间上做出反应容易得多。回答这些简单的问题会导致对所讨论的“效能”产生系统偏见估计。人工智能在测量效能方面最重要的贡献是为我们消除这种偏见。当然,是否是最重要的贡献要取决于我们对人工智能的问题指引。
当面对复杂性问题时,我们倾向于用期待代替现实,用“我想要什么样的影响?”来代替“会产生什么效果?”或者,考虑到组织的激励措施,用“我的老板希望影响是什么?”来代替。“我想要”这个问题是很容易回答的,我们希望影响能够满足我们的目标。
这个简单的问题由于混淆了理想目标(我们想要看到实现的某些影响)与准确目标(我们想知道实现的实际影响)。这种情况很常见,任何人都曾经计划在一天内完成比实际可行的更多的任务,并且将这两个目标等同起来。这是心理学家所说的“计划谬论”。
人工智能,至少是狭义上的人工智能,已经可以经过训练解决一系列特定问题,并且能不像人类那样容易受到目标混淆的影响。例如,一个接受过适当训练来衡量对手声音中恐惧的程序,就不会为了在战前增强其自信心或者在战后上传好消息,去下意识地去改变它的算法。这个算法只会测量恐惧。(该衡量标准是否以无偏见的方式使用,将取决于人类决策者。)
第二种替换是将对手的全部复杂性替换为对他或她简单的刻板印象。“会产生什么影响?”需要衡量一个行动对所有相关战斗人员的影响,而一个任务往往随着每个额外战斗人员的增加变得更加复杂。一个更简单、更直观的任务是对所有战斗人员创建一个单一的刻板印象,并衡量对该单一刻板印象的影响。有研究认为,人们倾向于认为对手不如他们。即使是不倾向于贬低敌人的决策者,也必须依赖某种程度的简化。原因很简单,因为他们的认知能力有限,无法理解对手的全部复杂性。
原因可能追溯到我们进化的过去,人类倾向于高估敌人的恐惧程度,而低估他们自己将经历的愤怒程度。恐惧和愤怒会导致不同的行为,可以将影响从好的变成坏的。恐惧会让人感受到世界上更多的风险,并削弱对局势的控制,如果目标是说服敌人停止战斗,那么这两者都是好事。但愤怒会产生相反的效果——它导致对手感受到更少的风险和更强的控制,并寻求报应性正义。如果目标是停止战斗,所有这些都是不好的。
使用已有的技术,可以训练算法衡量来自文本、人脸图像和语音音调的不同情绪。测量工具可以理想地与现有的情报收集功能相结合,捕捉语音通信或面部图像的平台可以为算法提供必要的基本数据,以评估对手对某一行动的情感反应。开发这样的工具需要使商业技术适用军事环境,例如,商业公司已经将情绪衡量作为衡量营销活动有效性的手段。
使用敌人先前是否有恐惧或愤怒反应的历史数据,算法可以预测影响何时会导致一种情绪。实际上,愤怒和恐惧只是开始。人工智能可以接受训练,以衡量与有效性相关的其他因素:例如,民众对政府的信任程度,或战斗部队的团队精神。
最后,人类倾向于简化难以解决的影响问题,因为它涵盖了太多的空间和时间。回到先前提到的落入叛乱阵地的炸弹这个例子,任何看到炸弹的人、炸弹附近的人、甚至是只听到爆炸声的人都可能会改变他们尊重美国利益的想法。要想完整回答“会产生什么影响?”这一问题,必须考虑到任何直接或间接接触炸弹的人。
影响也会随着时间的推移而变化。炸弹爆炸后立即产生的影响可能与它一周后产生的影响有所不同,最初的震惊可能已经变成了恐惧或愤怒。在整个空间和时间维度,即使是衡量一个动作的效果,对人类来说也是不切实际的。更别说衡量长期行动及其对整个地区的影响。
人工智能可以帮助解决这个问题,通过使用算法,在更广泛的意义上评估影响。如果利用正确的数据进行适当的训练,算法就能衡量行动周边区域以及有关行动的新闻所能传播到的区域人们的情绪反应,并且衡量炸弹爆炸瞬间、几天和几周内人们的情绪。人工智能可以使决策者面临的复杂问题变得迎刃而解。
当然,算法的有效性取决于训练数据的有效性以及人类收集信息的数量。专家们必须避免将人类的局限性编码到人工智能算法中——例如,如果算法只使用对美国而言积极的结果数据集进行训练,那么人工智能就很容易得出有偏差的答案。
为了让人工智能成为一种衡量军事影响的方法,国防部必须克服许多障碍。首先,它必须说服技术专家为军事应用开发人工智能。谷歌员工最近在抗议他们公司使用开源人工智能解决方案,来帮助国防部处理来自无人机系统的数据。这段插曲表明,将人工智能应用于军事环境并不像与公司签订一份合同那么简单。如果五角大楼要使用人工智能衡量军事影响,就需要让纠结的开发者相信军事应用在道义上是合理的。
针对那些具有相关人工智能专业知识的人的说服策略应该强调,从长远来看,更好的影响衡量标准可以减少暴力冲突。更精确地衡量影响会减少客观上无效的暴力(即使直觉上似乎有效)。在需要暴力的情况下,更好的效力措施将有助于确保它只针对那些意图无法通过除暴力外的其他手段改变的人。
组织上的障碍部分源于国防部的规模和过去的成功。采用新技术所需的灵活性往往随着官僚规模的扩大而减少,而美国军方过去的成功却带来了一个阻止任何形式改变的问题:既然过去的方法是成功的,那为什么还采用新方法呢?国防部的创新委员会建议五角大楼充分利用人工智能,包括建立一个致力于研究、实验和技术运营的全系统中心。然而,正如创新委员会成员和前谷歌CEO埃里克·施密特所言,阻碍进步的是“创新采纳问题”。据他说,国防部并不缺乏新的想法,而是缺乏超越现状的能力。
然而,在技术和组织动力的背后,是一个更为基本的心理障碍。我们可以用自己的眼睛看到影响,并且不费吹灰之力就能看穿他们。采用人工智能来衡量有效性,就是怀疑我们的直觉。自我怀疑并非易事,特别是对于经验丰富的决策者而言,他们对于组织的价值部分决定于他们了解情况的能力。
人工智能不仅仅是发展战争武器的工具,它还是了解武器影响的工具,不管是我们当前拥有的武器还是我们未来拥有的武器。它不是第一种能同时发动战争和理解战争效力的手段。运输弹药的飞机也可以作为战损评估的平台,卫星可以在用于侦察的同时被武器化。但是,人工智能的不同之处在于,它不仅仅是一种收集更多有关军事效力信息的方式,它还是一种理解所有信息的手段。
人工智能是解决信息丰富而认知能力有限这一历史悠久问题的一种手段。也就是说,如果我们愿意让它发挥作用,它就可以做到这一点。如果是这样的话,人工智能可以使我们更接近于解决另一个悠久的问题:它可以帮助我们观察敌人的思想,影响一直存在敌人的大脑中,但我们还从未见过。
作者丨Brad Dewees
编译丨IITE
选自丨War On The Rocks