人工智能在战争中增强集体情商(EI)!
往期回顾
本文为文森特·杜纳斯少校的在疯狂科学家博客上撰写的文章,探讨AI如何减轻人类指挥官的认知偏见并增强领导者的决策能力,使他们自由地做自己的事情,以便能够在未来的战场上指挥得更好,从而赢得胜利!
人类容易受到认知偏见的影响,这些偏见有时会导致灾难性的后果,尤其是在战时决策压力很大的环境中。人工智能(AI)通过增强指挥官及其参谋人员的集体情商(EI),减轻了指挥官决策过程中负面结果的敏感性。人工智能技术的运用将继续在战斗中变得越来越普遍,因此,应该以提高我们指挥官的EI能力的方式进行整合。交互式AI就像是正在与员工沟通一样,它具有与人兼容的原则,可以在信息不明确或不完整的高风险下,时间紧迫的情况下支持决策。
陆军中的任务指挥部是指挥官通过执行任务命令来行使权限和指挥的机构,可以在指挥官的意图范围内进行有纪律的主动性指挥活动。指挥官及其下属之间需要一个相互信任和共享理解的环境,以便在整个决策行动过程中理解,形象化,描述和指导,并充分发挥战斗力的作用。
任务指挥理念需要改进EI。EI被定义为感知、控制和表达自己的情绪,并以更快的速度明智,善解人意地处理人际关系的能力,以便掌握战争中的主动权。我们的指挥官的EI越有效,其使用可用工具领导,战斗和获胜的能力就越好。
人工智能参谋长
为了概念化AI如何增强未来战场上的决策能力,我们必须了解,当今的AI在狭窄的问题解决领域中比在需要广泛理解的领域中进步更快。这意味着,到目前为止,人类继续在广泛的信息吸收中保持优势。
迄今为止,可以应用于自动致命武器系统的机器学习算法的出现,导致人们普遍倾向于确保人们在战争的各个方面都处于决策循环中。AI在近期内将继续在狭窄的领域中迅速发展,并成为一个更有用的交互式助手,不仅可以分析其管理的系统,而且可以分析用户本身。AI可以用于在需要人在环的关键决策点为指挥官提供详细的分析和汇总评估。
营是可视化框架的一个很好的示例组织。可以将一个机器学习软件系统连接到不同的人员系统中,以分析执行其战斗功能时所产生的数据。该机器学习软件系统还将根据统计结果评估人在环决策,并汇总重要数据以支持指挥官的评估。随着时间的流逝,这种基于EI的机器学习软件系统可以对参谋人员的判断质量进行排名。然后,指挥官可以根据参谋人员的可靠性记录和参谋部系统提供的原始数据来考察参谋人员评估的价值。布里奇沃特金融公司采用这种非常人性化的决策评估算法,以便在做出高风险,有时是时间紧迫的国际金融决策之前评估员工的判断的“可信度”。包括在应用于营的这种多层机器学习系统中,还将对指挥官自身的可靠性进行评估,以最大程度地提高客观性。
AI在仿真和实际操作过程中观察到人类行为模式的多次迭代将提高其准确性,并增强此类AI系统与其用户之间的信任。指挥官的EI技能将被置于检查的重点和中心,并且由于在任何给定的时间有意识地以可量化的证据了解员工的认知偏见缺陷的责任重担,可以大幅度提高指挥官的EI技能。因此,该辅助决策AI框架还将提高指挥官的直觉和决策能力,因为它提高了决策的客观性。
人体相容性
在可预见的将来,广泛了解信息和进行无监督学习的能力仍然是人类的优点。将AI集成到战场中应有助于提高指挥官的EI,因为它支持任务指挥并补充了决策中的人文优势。使AI具有参谋长官的感觉,这还意味着向AI提供一个框架,使其可以开始了解其所接收的信息以及指挥官的决定。
斯图尔特·拉塞尔(Stuart Russell)提供了一种限制的构造,应该将这些限制编码到AI中,以使其对人类最有用,并防止得出导致AI开启人类性的结论。这三个概念是:1)利他主义对人类(而非自身)的原理,2)通过使其仅遵循人类目标而不是解释人类目标最大化不确定性,以及3)通过将其暴露于一切而学习和所有类型的人类。
罗素(Russell)的原理为AI提供了与人兼容的指南,可在人的决策过程中使用,从而保护人免受AI自己做出决策的意外后果的影响。这些原则在战场AI系统中的集成将提供最大的机会,以确保AI充当指挥官的助手,增强其EI以做出更好的决策。
使AI工作
对于在决策中使用AI而言,潜在的机会和陷阱是丰富的。除了这种类型的系统被黑客入侵的明显危险之外,AI机器学习算法中包含与使用它的单元的值不一致的偏差编码的可能性是真实的。
指挥官的主要目标是完成任务。未来包括AI,指挥官将需要信任AI评估并将其集成到其自然决策过程中,并将其纳入其直观演算的一部分。这样,他们将可以轻松地对其单位的潜在偏见进行客观分析,增强自己的EI,并有能力克服他们的任务。
作者
文森特·杜纳斯少校
是陆军驻外地区军官,曾任为骑兵和通讯官。他关于国家安全,决策和国际事务的著作在《不同选择》,《小战争杂志》和《战略桥梁》中都有发表。文森特·杜纳斯也是军事作家协会的成员,并且是对外关系委员会的定期成员。
点