从人类
于栖洋 译随着用于汽车、航空、网络、机器人和其他应用的自主和半自主系统的开发,人类操作员有效监督并在需要时与它们互动的能力构成了一个重大挑战。存在一个自动化难题,即随着系统的自主性增加,可靠性和鲁棒性增加,人类操作员的情况意识则会降低,他们在需要时接管手动控制的可能性也会降低。人-自治系统监督模型集成了几十年来有关操作者状态感知、外部性能问题、监控和信任的相关自治研究,这些都是自动化难题背后的主要挑战。在与自主系统的交互中改善人类表现的关键设计干预措施被集成在模型中,其中包括自动化级别、自适应自动化和控制方法粒度的自动化界面特征和中央自动化交互范式。提出了人机界面设计的建议,并讨论了未来的研究方向。关键词:自主性,人机交互,自动化程度,自适应自动化,信任,态势感知,警觉性,监控引言为了减少劳动力,增强人类能力,使人类更加安全,自主能力正在广泛应用于各种系统。在航空领域,无人驾驶飞行器正在开发中,用于交付货物、远程监视、在检测到即将发生碰撞时从飞行员手中接管控制权,并与有人驾驶的飞机合作。自动驾驶功能被添加到汽车上,可以自动停车,在车道内保持跟踪,并根据交通状况控制速度。能够在几毫秒内采取行动的自主系统正在成熟起来,能够应对网络攻击。自动机器人车辆正在开发,用于向偏远地区运送物资,修复跑道,以及从战场上找回阵亡士兵。目前正在开发更高级别的自治,以集成跨不同数据存储库的信息,创建实时健康监视,以及用于各种其他应用程序。尽管自治系统将能够单独执行操作,但无论多么有能力,大多数自治系统仍然必须与充当监督控制者的人进行交互,这些人负责指导和监督它们的表现,或者需要时,作为与它们合作的队友。因此,创建有效的自治系统依赖于开发成功的人-自治团队。在过去的40年里,很多与自主相关的研究都是在人机交互领域进行的。与自动化一样,系统自治的目标是在很少或不需要人工干预的情况下完成任务。认识到以前的自动化在实现这一目标方面的能力是有限的,自治这个术语最近变得更加流行。自治的设计目的是独立实现功能,在有限或不存在通信的情况下,在长时间的重大不确定性下表现良好,并具有补偿系统故障的能力,所有这些都无需外部干预(Krogmann, 1999年)。前几代自动化通常采用基于逻辑的编程,而今天的自治系统致力于利用计算智能和学习算法来更好地适应未预料到的和不断变化的情况(Krogmann, 1999年)。从这个意义上说,成功的自动驾驶可以被认为是精心的设计和高度的自动化——能够更好地适应更广泛的条件(美国空军,2015年)。这一概念与Hancock(2016年)的观点一致,他将自治描述为自动化的后期发展,后者在能力和范围上更加有限。尽管为了理解人们如何与这样的系统交互,本文将把这两个术语视为同义词,但在底层软件中,这两个术语之间存在某些技术差异,这些差异对人类使用的影响将在本文的最后进行讨论。实际上,实现完全系统自治的目标是相当困难的,而且大多数系统将在相当长的一段时间内以某种程度的半自治存在,这将在后面的自动化级别方面进行更详细的讨论。因此,人与系统的自主性将继续需要互动,而能够支持这种团队合作的自主系统的开发应该基于人与自动化交互的详细研究基础。在本文中,我将首先讨论系统自治给监督和指导自治的人类监督控制者带来的挑战。提出了一个人自治系统监督模型,该模型描述了系统自治特征与人类认知功能和表现之间的关系,以实现成功的监督和干预。然后更详细地讨论了模型的关键特性,包括人机界面和自动化范式的主要方面,包括自动化级别(LOA)、自适应自动化(AA)和控制粒度(GOC)。最后,提出了自主和半自主系统的设计指导方针,以及为支持更大的系统自治所需要的研究。最大的挑战是:失去态势感知引入自主软件后,人工操作员的一个重要作用就是对软件无法处理的情况进行监控和干预。不幸的是,迄今为止,大多数自动化系统都很脆弱,在其设计的范围内运行良好,但需要人工干预来处理其编程没有涵盖的情况(Woods & Cook, 2006年),这种情况在未来至少会在某种程度上继续存在,直到开发出完全可靠和鲁棒的自治系统。这种自动化的脆弱性给人类操作员带来了挑战,他们可能没有意识到自动化的行为是错误的,或者不理解为什么。此外,当自动化突然将控制传递给可能没有准备好接管的人工操作员时,将发生意外的自动化转换。例如,一架飞机从纽约拉瓜迪亚机场起飞后坠入河中,因为飞行员和副驾驶都没有意识到自动油门意外解除,导致起飞速度不足(国家运输安全委员会,1990年)。在另一个例子中,电网运营商未能意识到系统自动化已经停止工作,导致美国东北部发生大规模停电(美国加拿大电力系统停电工作组,2004年)。自动化操作人员也发现,一旦他们意识到存在问题,系统很难理解。一架空客A330客机在巴西海岸附近海域坠毁,此前由于传感器堵塞导致驾驶舱自动化系统出现故障。困惑的飞行员从未正确诊断出潜在的问题,也没有意识到自己陷入了失速,导致机上所有人丧生(BEA, 2012年)。这些例子表明,尽管自动化可以在很多时候正常工作,但当它失败时,恢复手动控制的能力是至关重要的,而且可能只有几分之一秒可用。这种外部循环(OOTL)性能问题给自治带来了重大挑战。人们在发现问题并进行有效干预时都很慢(Wickens&Kessel,1979年;Young,1969年)。Endsley和Kiris(1995年)论证了外部循环问题是由于在监督自动化时基本丧失了态势感知(SA),这一发现已被许多研究证实(Kaber, Onal, & Endsley, 2000年;Li, Wickens, Sarter, & Sebok, 2014年;Manzey, Reichenbach, & Onnasch, 2012年;Sethumadhavan, 2009年)。当监督自动化发生时,低态势感知是由于三个主要机制:(a)自动化带来的信息表示的变化;(b)经营者的监视、警戒和信任;(c)经营者接触(Endsley & Kiris, 1995年),接下来将对每一个进行更详细的描述。自动化信息表示许多自动化接口并不向操作员提供自动化状态所需的信息,而且通常很少对其控制的系统状态提供反馈。这些与接口相关的失败包括有意的设计决策删除需要的信息以及无意的删除。例如,随着F-16军用飞机的线控飞行控制的出现,触觉线索被意外地删除了(Kuipers,Kappers, van Holten, van Bergen, & Oosterveld, 1990年),来自振动和气味的信息在过程控制操作的自动化中丢失了(Moray, 1986年),auto-feathering自动化系统在商用飞机未能告诉飞行员关闭引擎(比林斯,1991年),在一架波音747飞机上,飞行管理系统为补偿引擎丢失而采取的行动,无意中掩盖了即将对飞行员失去控制的事实(国家运输安全委员会,1986年)。手动系统操作所需的关键信息以及评估自动化状态及其执行任务的能力所需的信息可能丢失或降级。许多自动化系统的透明度也很低,即其操作的可理解性和可预测性。警惕、监控和信任自动化通常需要大量的人工监控,而人们并不擅长这种技能,因为即使在很短的时间内,人们也会降低警惕性,自满或对自动化的过度依赖可能会加剧这个问题(Parasuraman & Riley, 1997年)。虽然自动化常常被引入以降低人类的工作负载,但Grubb、Miller、Nelson、Warm和Dember(1994年)表明,被动监控自动化的行为实际上可能是一种高工作负载的行为。(参见Hancock, 2013年,关于警惕性及其影响因素的更详细讨论。)随着人们对自动化的信任度的提高,人们对自动化的监控程度也随之降低(Hergeth, Lorenz, Vilimek, & Krems, 2016年;Muir & Moray, 1996年)。信任可以被定义为“代理人在不确定和脆弱的情况下帮助实现个人目标的态度”(Lee & See,2004,第54页)。对自动化的信任是基于(a)系统因素,包括系统有效性和可靠性、鲁棒性、对系统可靠性的主观评估、系统故障的近期性、系统可理解性和可预测性、及时性和完整性;(b)个人因素,包括执行任务的知觉能力、信任意愿和其他个人特征(如年龄、性别、文化和个性);(c)情境因素,包括时间限制、工作量、需要付出的努力和参加其他竞争任务的需要。(更详细的审查,参见Hoff & Bashir, 2015年,和Schaefer, Chen,Szalma, & Hancock, 2016年。)尽管这些因素可能都有一定作用,但元分析显示,系统因素(最显著的是系统可靠性和性能)对信任的总体影响最大,而个人和情境因素的影响要低得多(Hancock 等人,2011年)。尽管有人担心运营商可能会过度信任自动化(Lee & See, 2004年),但Moray和Inagaki(2000年)提出了一个令人信服的案例,即运营商采用了最优的注意力分配策略,在这种策略中,高度可靠的自动化不需要经常进行监控。由于操作员的注意力有限,这是应对超额需求的有效策略。然而,结果可能是缺乏对自动化系统的状态和它所管理的系统参数的情况感知。与这一发现一致,Wickens、Sebok、Li、Sarter和Gacy(2015年)开发并测试了一个自动化自满模型,该模型表明作业人员的监控绩效是基于信息的显著性,信息源的期望(随着变更率的降低和自动化的可靠性和性能的提高而降低)、监视信息源所需的工作以及任务对信息源的感知价值。在一项分析研究中,竞争性任务的存在也被发现增加了对自动化的信任(Wickens & Dixon, 2007年),从而将操作者的注意力从自动化上转移,减少了自动化功能的SA (Carsten, Lai, Barnard, Jamson, &Merat, 2012年;Kaber & Endsley, 2004年;Ma, SheikNainar, & Kaber, 2005年;Sethumadhavan, 2009年)。有趣的是,人类对自动化的信任的准确校准本身并不总是那么重要(Merritt, Lee, Unnerstall, & Huber, 2015年)。霍夫和巴希尔(2015)国家信任的程度影响运营商的实际依赖自动化程度的减轻操作员能够独立评估系统的性能,自动化的复杂性,新奇的情况下,操作员手动执行任务的能力,和操作者的决策自由。参与:被动认知的挑战与主动处理信息、手动执行相同任务相比,由于认知投入水平较低,操作员在充当自动化的被动监控器时很难完全理解发生了什么。积极地认知地参与一项任务可以提高一个人对该任务的理解和对关键信息的记忆。这一结果与生成效应(Slamecka & Graf, 1978年)和测试效应(Roediger & Karpicke, 2006年)相似,前者显示人们对积极从事的任务具有更好的记忆力,后者显示对被测试材料具有更好的记忆力。因为它要求人们以一种超越被动阅读或倾听的方式积极地使用信息。Endsley和Kiris(1995年)能够排除自动化和非自动化条件下信息呈现的差异,发现被动处理导致SA较低。在有经验的空中交通管制员身上也发现了类似的结果(Endsley,Mogford, allendofer, Snyder, & Stein, 1997年;Endsley & Rodgers, 1998年;Metzger &Parasuraman, 2001)和其他自动化任务(Manzey等人, 2012年)。由于被动加工而导致的低SA的挑战为有效的人类自主交互造成了显著的障碍。自动化的难题这些综合挑战构成了一个基本的自动化难题:系统的自动化程度越高,自动化越可靠、越健壮,监督自动化的人工操作员就越不可能意识到关键信息,并在需要时接管人工控制。更多的自动化指的是对更多功能、更长的持续时间、更高级别的自动化以及包含更长的任务序列的自动化的自动化使用。自动化难题可能会给驾驶和航空等关键安全系统的自动驾驶带来根本障碍。随着单个功能的自动化,以及这种自主性的可靠性的提高,对这些功能的关注将会减少,人工操作人员的SA将会降低,在意外自动化转换的情况下OOTL错误的可能性将会增加人类自主系统监督模型在人自主系统监督(HASO)模型中描述了造成自动化难题的因素之间的关系(图1)。总的来说,操作员在监督和干预自动化任务时的表现取决于他们的SA和工作量水平。作业者必须有足够的SA来认识到目前的情况超出了自动化能力的范围,或者目前的情况下自动化操作不正确,以便决定需要进行修井。此外,作业者必须有足够的时间和资源进行修井作业。提高自动化的可靠性(准确操作的能力)和鲁棒性(在各种可能条件下操作的能力)将减少对自动化性能(及其相关数据,如输入参数)的关注,这是由操作员的信任调节的。伴随着竞争任务和需求的存在。
图1.人自主系统监督(HASO)模型。该模型描述了影响人类认知过程的关键系统设计特征,这些认知过程涉及成功的监督、干预和与自动化系统的交互。该模型表明,自动化性能的提高,包括可靠性和鲁棒性,将增加个人对自动化的信任程度,因此,他或她将不注意自动化表现如何的展示和环境信息,例如,外部可用的系统性能指标,如飞机是否与跑道对齐或其他车辆是否在碰撞航线上。竞争任务的存在,包括与工作相关的任务和无关的任务(如观光、发短信、做白日梦或交谈),以及高水平的任务要求(如:以时间和精力需求为特征的高工作量)将增加对自动化本身的信任,并将注意力从与自动化功能相关的显示和信息上转移开。如何在可用信息源之间分配注意力也是动态控制的,基于操作者当前的SA。也就是说,当前的情境模型驱动了对新信息的搜索(Endsley, 1995a,2015年)。操作人员基于其对竞争信息的持续关注而得出的SA水平将受到自动化接口的几个关键特征的显著影响。此外,所采用的基本自动化交互模式建立了操作人员和自动化交互的方式,将对操作人员的SA和绩效产生重大影响,并在必要时进行自动化监督和干预。HASO模型中显示的每一个关键系统设计特性将在下面的部分中进行更详细的讨论。顺便说一下,这个模型描述了主要的系统设计特征和认知过程,这涉及到决定人的自治监督和干预绩效。还有许多个体差异也会影响认知结构,比如信任(Hancock 等人,2011年;Hoff& Bashir, 2015年), SA(Endsley, 1995a, 2006年;Endsley & Bolstad, 1994年)和工作量(Hancock & Meshkati, 1988年),这反过来会造成OOTL和干预绩效的个体差异。这些在模型中被认为是隐式的,这里不再详细说明,但在特定情况下可能是相关的。例如,个人的专门知识水平可以显著影响信任、SA和工作负载感知,从而影响个人提供有效系统监督的能力。自动化接口对自动化(和相关信息)关注的减少对SA的影响将通过系统接口的质量得到很大程度的改善,包括(a)它有效地呈现决策所需信息的程度;(b)与自动化状态相关的线索的显著性,包括模式和系统边界条件;(c)支持模式转换,包括采用自动化和检测和响应对手动控制的意外自动化转换所需的模式转换;(d)提供其行动的可理解性和未来行动的可预测性的自动化的透明度(Endsley, Bolte,& Jones, 2003年)。一个有效的自动化接口设计可以显著地帮助直接提高自动化和系统的SA,以及提高自动化的信任水平和适当的信任校准(Endsley, Sollenberger,& Stein, 1999年;Furukawa & Parasuraman, 2003年;Hoff& Bashir, 2015年;Miller, Pelican,& Goldman, 1999年;Sklar & Sarter,1999年)。所采用的自动化交互范式也是高度相关的。交互模式:自治的,但不是单独的除了提供给操作员的物理显示(视觉、听觉或触觉)外,系统的几个基本方面决定了人类和自动化将如何交互,角色和职责将如何在他们之间分配,以及这些分配将如何变化,我将其称为图1中的自动化范例。通常系统开发人员很少关注这些设计决策;然而,自动化交互模式对系统的复杂性、作业人员的参与度和工作量有显著影响,所有这些都会显著影响系统的监督和干预。复杂性、参与度和工作量。首先,自动化可以通过添加许多特性或模式来增加系统复杂性,从而对SA产生负面影响,这会在系统组件之间产生更多的交互,并随着系统越来越多地考虑多种因素或组件状态而相应地降低系统可预测性(Endsley等人,2003年)。系统逻辑中的许多分支,以及不常见的情况和事件的组合,可以创建各种罕见的系统状态,并增加了完全理解系统的挑战。在许多飞机上使用的飞行管理系统就是这样的一个例子,即使是训练有素的飞行员也会对系统行为表示惊讶(mcclupha & James, 1994年;《维也纳与咖喱》,1980年)。系统的复杂性使得操作员更难创建正确解释信息和系统状态投影所需的系统的准确心理模型,包括需要手动控制的情况。系统的表面复杂性(由自动化界面创建的系统的认知复杂性、显示复杂性和任务复杂性的功能)最适合形成良好的心智模型,而不是实际的软件复杂性(Endsley等人,2003年)。从用户的角度来看,认知复杂性是系统界面与用户的目标、任务和心智模型的兼容性的功能。用户需要能够清楚地在界面中显示的系统功能和他们的目标之间进行映射。例如,如果一辆半自动汽车的行为由于不同功能(如自动转向和自适应巡航控制)之间的相互作用而发生变化,那么该系统的认知复杂性要比行为一致时更大。用户需要能够理解如何简单和直接地命令车辆的行为,以映射到他们的期望。信息显示复杂度(由显示的密度、分组和布局驱动)和任务复杂度(由操作员要求的步骤相关)由路径的数量表征,可能需要的终端状态的数量、相互冲突的相互依赖以及连接中的不确定性,都会影响良好心理模型的开发,而心理模型是操作人员开发与自动化相关的准确理解和预测能力的基础(Endsley, 1995b)。系统的透明度极大地影响了开发理解自动化正在做什么以及如何影响其行为的能力。此外,自动化范式中至少有三个方面,即LOA、AA和GOC,将直接影响操作人员的工作量和参与度,从而影响他们的SA,如图1所示。参与已经被证明会直接影响SA。此外,工作负载可以在几个方面直接影响SA (Endsley, 1993): (a)如果工作量太低,SA可以低由于低唤醒和警惕的精神性,和(b)如果负载过高,超过运营商能力,运营商将有足够的时间来收集和处理所需信息,和SA会受影响。一般来说,作业人员有一个最优的工作负载范围,在这个范围内,作业人员有足够的激励和投入,以使SA表现良好,这就是逆du曲线的特征。尽管许多自动化项目都是为了减少作业人员的工作量,但这些努力往往忽视了保持高水平作业人员参与和SA的需要(Endsley, 1995b)。在HASO模型中,LOA、AA和GOC对敬业度和工作量的影响,进而对SA和自治监督和干预的影响,将分别进行更详细的讨论。LOA。不同的LOAs已经被描述,与不同类型的系统相关(Endsley & Kaber,1997年;Endsley & Kiris, 1995年;Parasuraman, Sheridan, & Wickens, 2000年;谢里丹和V·普朗克,1978年)。Endsley和Kiris(1995年)证明,通过使用中间LOAs(半自治),可以减少与全自动化相关的SA损失,使作业者更投入。Kaber和Endsley(1997年, 2004年)提出了基于四个主要任务阶段的LOA量表:(a)信息监测或信息获取;(b)产生选择-为实现目标产生选择或战略;(c)行动选择-选择或决定采用哪种选择;(d)实施-实施或实施行动。他们以不同的组合进一步应用这四个阶段,以形成可实现的LOA,每个级别涉及不同数量的自动化,以及在每个阶段中组合人工和自动化输入的方法,如图2所示。自动化等级描述角色监控和信息展示选择决策/行动方案的选择行动的实施手动控制人类完成所有任务收集信息(人)全部为人全部为人全部为人信息选择计算机辅助在屏幕上突出显示关键信息或清除无关信息收集信息和强调(人和机器)全部为人全部为人全部为人态势感知支持系统收集关键信息并集成2级和3级SA收集信息和集成(人和机器)全部为人全部为人全部为人行动支持/远程操作电脑帮助你按指示做每一个动作收集信息(人和机器)全部为人全部为人单个任务(人和机器)成批处理计算机完全执行由人指挥的单个或一组任务收集信息(人和机器)全部为人全部为人任务设置(机器)共享控制计算机和人生成决策选项,人在支持下决策和执行收集信息(人和机器)可选择(人和机器)人决策单个任务(人和机器)决策支持计算机生成推荐选项,人类决定(或输入自己的选择),系统执行收集信息(人和机器)可选择(人和机器)人决策全部为机器混合决策(授权管理)计算机生成推荐选项并选择最佳选项,人类必须同意(或否决)并由系统执行收集信息(人和机器)可选择(人和机器)人和机器共同决策、授权全部为机器刚性系统计算机生成建议的选项,人类可以从中选择(不能覆盖)并由系统执行收集信息(人和机器)可选择(机器)人决策全部为机器自动化决策计算机与人一起生成推荐方案,系统选择最佳方案,系统执行收集信息(人和机器)可选择(人和机器)机器决策全部为机器监督控制(例外管理)计算机生成推荐方案,选择最佳方案,系统执行。如果需要,人类可以干预监督并且可能干预(人和机器)全部为机器全部为机器全部为机器全自动化计算机在没有人为干预的情况下完成任务的各个方面收集信息(机器)全部为机器全部为机器全部为机器图2.四个任务阶段的人机性能结合形成的自动化水平。《为情境意识而设计:以人为本的设计方法》(第2版,185页),M. R. Endsley和D. J. Jones著,2012,Boca Raton, FL: CRC出版社。版权所有2012 Taylor and Francis Group。允许转载。Parasuraman等人.(2000年)提出了一个类似的自动化分类阶段,将信息监测因素分为信息过滤和信息集成或推断两个层次,在它们的行动选择类别中结合了选项生成和行动选择。行动执行构成了他们的第四个层次,相当于Endsley和Kaber(1997年)模型中的执行。这两种分类如表1所示,将它们统一起来并总结了大量的研究,这些研究评估了在任务的每个阶段改变LOA如何影响人类的表现和认知。广泛的研究表明,自动化对SA、工作量、正常和OOTL性能的影响,根据应用于任务的哪个阶段而有很大的不同(Endsley & Kaber, 1999;Kaber等,2000年)。Onnasch, Wickens, Li, and Manzey(2014年)对18项LOA研究进行了meta分析,揭示了他们所称的“伐木工人效应”;自动化对手动性能的帮助越大,从自动化故障(即OOTL)中恢复的性能就越差。LOA研究的回顾表明,自动化的实际效果不仅高度依赖于所涉及的任务的阶段,而且还依赖于其他几个相关的任务特征,如表1所示。本文详细讨论了三个主要任务阶段中的每个阶段:执行与任务相关的操作、决定应该做什么或如何最好地完成任务,以及开发SA以支持决策制定。I. 行动. 在许多情况下,自动化应用于执行或执行物理任务,如洗盘子,按照预定的路线,或控制汽车速度。一般来说,通过减少人力劳动来实现重复的、例行的任务的自动化,尤其是在这种自动化高度可靠的情况下,可以显著提高系统的整体性能(Billings, 1997;《维也纳与咖喱》,1980年)。它还可以改善许多有风险、困难和时间密集型任务的表现。尽管在许多情况下它可以减少人工工作量,但如果与系统的交互需要过多的任务(Bainbridge, 1983),特别是如果系统有高失败率(Manzey etal., 2012),人们发现在许多工作高峰时期,认知工作量甚至更高。Bainbridge(1983)称其为“自动化的讽刺”:当工作负载最高时,它通常提供的帮助最少。表1:T问绩效阶段的自主性对人的监督和干预绩效、工作量和情景意识的影响:研究结果总结自主性对任务执行阶段的影响分类环境意识决策行动Kaber &Endsley(1997)监控信息选择 选择代 行动实现Parasuraman,Sheridan, &Wickens(2000)信息 信息过滤 集成选择动作行动实施一般的发现提供所需信息的系统对SA、工作负载和性能的显著好处(第1级SA)系统正确时的显著好处如果可靠,对日常重复性体力劳动的性能有显著的好处从集成理解(第2级SA)和投影(第3级SA)所需信息的系统中对SA、工作负载和性能的显著好处当系统由于决策偏差而不正确时,会降低性能总的来说,手工工作负载可能较低由于需要将建议与系统信息和其他选项进行比较,因此性能较慢高峰时段认知负荷增加与决策自动化相比,SA更好,OOTL问题少降低SA,增加OOTL性能问题高误报率和低可靠性系统的工作量增加特定任务的结果信息提示系统在正确时产生良好的表现,但在不正确时产生糟糕的表现,类似于决策偏差效应与产生影响参与度的选项的自动化相比,选择选项的自动化对性能的影响更小采用高级任务队列的自动化降低SA和显著的OOTL问题信息过滤系统可以限制Level 3 SA(投影),从而对性能产生负面影响基于评论系统或假设推理和应急计划的决策支持不会因为更高的参与度而产生决策偏差问题对连续控制任务的自动化降低SA和显著的OOTL问题注:SA =态势感知;OOTL =退出循环然而,OOTL问题随着自动化而显著增大,自动化允许为未来的实现对许多任务进行排序(例如,高级队列的任务),例如,导航路线的提前布局或批处理的许多步骤过程提前测序(Endsley &出租车,1999)。尽管连续控制任务的自动化(例如驾驶汽车、飞机或机器人手臂)在良好的自动化性能下可能会减少注意力需求,并将注意力释放到其他任务上,但也会存在重大的OOTL问题(Kaber 等人,2000年;Wickens&Kessel,1979年;Young,1969年)。例如,精神运动任务可以巧妙地传递对SA重要的信息……这可能会受到减少这类投入的自动化计划的危害”(Endsley & Kiris, 1995年,第392页)。自动化将一项精神运动任务转变为一系列离散的认知任务,与持续的手动控制相比,后者通常在一段较长的时间内需要更低的注意力,这需要更多的有意识注意。对离散的干预保持警惕是相当具有挑战性的,因为注意力经常被转移到竞争的任务上。研究表明,不仅是第1级SA(数据感知)的缺失,还有第3级SA(未来状态预测)的缺失,这可能是由于在不直接控制任务时,参与度较低,失去了微妙线索(Kaber等人, 2000年)。II. 决策. 由于决策偏倚效应(Crocoll & Coury, 1990年;Endsley等人,2003年;Lorenz,Di Nocera, Rottger, & Parasuraman, 2002年;莱辛巴赫,Onnasch, &Manzey, 2011年;Sarter & Schroeder, 2001年)。一般来说,当自动化是正确的,人们更有可能做出正确的决定;然而,当决策不正确时,他们的表现会比根本没有得到决策建议时更差(Layton, Smith, & McCoy, 1994年;Olson & Sarter, 1999年),更可靠的自动化使情况变得更糟(Metzger & Parasuraman, 2005年;Rovira,McGarry, & Parasuraman, 2007年)。人们也可能因为决策建议的提供而放慢速度,因为他们需要采取行动将系统的建议与其他信息进行比较,以决定是否同意它(Endsley & Kiris, 1994年;Madhavan &Wiegmann, 2005年;Pritchett & Hansman, 1997年)。该研究指出了一种人自主交互的系列模型,在这个模型中,人们会听取决策支持系统的建议以及其他竞争信息,并进行比较,以便做出决策(Endsley等人, 2003年),如图3所示。尽管系统设计者通常假设并行性能(即,人们将能够作为独立的代理来支持自动化),这将比单独操作的任何一个代理产生更好的结果,但事实并非如此。图3显示,两个串行系统的可靠性与两个并行系统相比降低了,这解释了决策自动化经常缺乏总体性能改进的原因。尽管许多因素会影响自动化的表现是否比人类更好,或者反之,包括个人的能力和经验,以及自动化的能力,但这些系统不是真正独立的,这一事实必须被视为联合性能的限制因素。以及其他界面和系统设计功能。与手动性能相比,决策自动化的SA和OOTL问题也更糟糕(Endsley& Kaber, 1999年;Endsley & Kiris, 1995年;Kaber等人,2000年;Kaber& Endsley, 2004;Li等人,2014年;Onnasch等人,2014年),并将其与集成信息以提供更好的SA的自动化进行比较(Endsley & Selcon, 1997年;Onnasch等人,2014年;Sethumadhavan,2009年)。Manzey 等人.(2012年)发现,接受错误的系统建议的人,约有一半没有验证推荐,另一半明显检查了所有相关信息,但仍然遵循错误的建议,表现出与被动加工相关的SA水平较低。无论是系统只提出建议,由人做出最终决定(同意管理),还是系统做出选择并实施,除非人的否决(例外管理)对OOTL恢复时间影响不大(Endsley & Kaber, 1999年)。以其他方式帮助决策制定的系统,如评论系统(Guerlain等人,1999年),或支持假设推理和应急计划的系统(Endsley 等人., 2003年),不会受到这些不良影响,可能是因为人工任务的参与程度仍然很高,并且避免了决策偏差问题。评价系统鼓励决策者在做出最初的决定后考虑其他信息和可能性,这避免了图3中的串行过程。假设和应急计划系统鼓励决策者考虑多种可能性并提前做好准备,实际上增强了开发情景应用程序的过程,并避免了基于一小部分相关信息作出决策的缺点。III. SA. 收集和呈现所需信息的自动化(第1级SA)以及更好地集成信息以支持理解和投影需求的自动化(第2级和第3级SA)都有显著的好处。这种类型的自动化极大地减少了工作负载,并可以增强SA和性能,而几乎没有负面影响(Endsley等人,2003;Endsley & Selcon,1997;Onnasch等人,2014;Sarter & Schroeder, 2001)。帮助SA的形成可以使人类在决策、参与水平和OOTL问题最小化方面更加活跃。并行系统
并行系统的可靠性=1-(1-人类可靠性)(1-自动化可靠性)串行系统
串行系统的可靠性=(人类可靠性)(自动化可靠性)图3.解释决策偏差效应。决策自动化建议创建了一个由人类决策者组成的串行系统,这可能会降低总体决策的可靠性。改编自《为情境意识设计:以人为本的设计方法》(第2版,第180页),M. R. Endsley和D. J. Jones, 2012, Boca Raton, FL: CRC出版社。版权所有2012 Taylor and Francis Group。然而,自动提示人们系统认为重要的信息子集,也会像决策支持系统一样受到决策偏差效应的影响。例如,这种类型的自动化将包括在可视场景或可视显示的某些部分突出显示一个项目的系统。当他们是正确的,人们的表现会提高,但是当系统没有标记关键信息时,表现会变差(Yeh, Wickens, & Seagull, 1999年)。
图4.自动化水平对操作员敬业度和工作量的影响。在自动化控制和闭环外恢复期间,低参与度和高工作量将对自动系统的监督产生负面影响。类似地,过滤信息的自动化可能会有问题。自动信息过滤过滤掉所有与当前特定任务无关的信息,从而大大限制了任何时间点的信息。然而,由于人们需要在目标和任务之间快速切换,他们还需要跨目标的全局信息来确定任务的优先级,并且他们需要预测未来的潜在问题,以支持积极的决策制定和应急计划。因此,自动信息过滤系统会显著降低SA和性能(Endsley, 1990;Endsley等人,2003年)。IV. LOA研究综述及HASO模型中自主性的意义.图4总结了对LOAs的研究,表明人类的整体参与度将(a)随着支持态势感知的自动化程度的提高而提高,(b)随着推荐或选择行动路线的自动化程度的降低,(c)介于两者之间的自动化,执行与大多数任务相关的动作,但如果涉及未来任务的高级排队或连续控制任务,则自动化程度较低。相反,支持SA或执行任务的自动化通常会降低工作负载,但尝试做出决策的自动化会显著增加工作负载。此外,在OOTL恢复期间以及试图控制或调整自动化本身时,工作负载通常会高得多,这表明工作负载的影响通常依赖于时间。未来的自动系统通常将自动化应用于一项任务中涉及的两个或所有三个处理阶段。这种设计可以采用完全自主的形式,在这种情况下不可能进行人工干预,也可以采用监督控制的形式,在这种情况下,作业人员需要进行干预(也称为人-在-环)。由于这些高水平的自治将涉及决策自动化和持续控制任务或任务的高级排队,人类的参与可能会较低,SA减少,OOTL问题会更高。较低的敬业水平、较低的SA和OOTL性能挑战将显著调节在监督控制下的手工工作量和正常任务性能的预期改进。自动化难题的核心是,随着系统可靠性和鲁棒性水平的提高,这些挑战将继续成为一个问题,除非通过在人机界面方面的重大改进来克服。虽然不受低参与度的类似负面影响,但完全自主只有在非常高的可靠性和鲁棒性水平下才有可能,因为没有人的干预是可能的。图4详细说明了作为HASO模型一部分的这些效果。AA.HASO模型中显示的第二个自动化范例是通过AA有意地增加手动控制的周期来增加操作员的参与度(Rouse, 1988)。手动控制的AA周期可以根据设定的时间周期、关键事件的发生、人类表现的下降、生理测量或人类模型来激活(Scerbo, 1996),并且已经发现可以改善人类系统的表现(Parasuraman,Molloy, & Singh, 1993)。AA主要通过减少工作量来帮助人类表现(Hilburn, Jorna, Bryne, & Parasuraman,1997;Kaber & Endsley, 2004;Kaber & Riley, 1999)。通过脑电图测量,操作员敬业度的改善也得到了证实(Bailey, Scerbo, Freeman, Mikulka, &Scott, 2003;Prinzel, Freeman, Scerbo, Mikulka, &Pope, 2003)和AA已经被证明可以在高工作负载时期提高性能(Wilson & Russell, 2007)。因此,作为提高人类对自治监督的部分手段,通过提高参与度,AA的周期可以积极影响工作量和SA。GOC. GOC是HASO模型中显示的第三个主要自动化范例,它是在自动化设计者的控制下。GOC可以(从高到低)从(a)手动控制到(b)可编程控制,需要对每个任务参数和规格进行编程;(c)剧本控制,从预设行为的剧本中选择(Miller, 2000);(d)基于目标的控制,只需要向系统提供一个高层目标(美国空军,2015年)。一般来说,只要控制动作提供了与用户目标和心理模型的清晰映射,并且系统提供了从正常状态到非正常状态的轻松过渡,工作负载就应该随着控制粒度的减少而减少。然而,由于任务队列的增加也会减少SA,因此更低的控制粒度可能会降低SA,并将产生对操作员界面的需求,这些界面特别关注让操作员了解自动化状态,并能够预测未来的行动。指导有效的自主-人的互动总之,HASO模型描述了在自主和半自主系统中影响人类性能的关键系统设计特征,包括系统可靠性和鲁棒性、操作界面,以及系统设计中固有的至少三种自动化范例。建立可信任且有效的系统自治的愿望,最终依赖于创建可信赖的自治——在各种条件下高度可靠——能够支持人类的决策和干预,而这些决策和干预是不可信赖的。自治设计的指导方针是基于现有的自动化接口特性和HASO模型中的自动化范例的研究而开发的,它为支持操作员SA和自治监督提供了有用的指导,这将极大地支持这一目标,如表2所示。指导方针解决了成功的自治接口和管理复杂性的关键方面,以提高操作员对系统的理解。此外,在改进SA的自主性被发现是非常有益的,包括了一些支持SA的指导方针。Endsley等人(2003年)对这些指导方针进行了更详细的解释,并给出了满足每个指导方针的设计方法。随着系统提供的自主性数量的增加,通过应用诸如此类的指导方针,再加上仔细的测试,以表明人类操作员完全理解自主性正在做什么,注意人-自主性界面的设计将变得越来越重要。它在不久的将来要做什么,以及它成功表现的界限。总结一些关键的表2中列出的建议,这一目标可以通过接口,完成高水平的系统透明度,提供系统的可理解性和可预测性,连同适当的使用特征支持运营商的理解关键州和模式转换。对于理解系统可靠性(例如,它的功能如何,它在融合信息中的置信度,或系统评估)以及它的稳健性(意味着它处理当前和未来情况的能力)至关重要的信息,需要随时向操作员透明。不仅操作者SA所需要的环境、系统和自治的关键信息必须被识别并包含在接口中,而且这些信息必须被有效地呈现,以便操作者保持在循环中并能够监督自治。而这种设计必须在易于管理的复杂程度下完成,使操作者能够开发精确的心理模型,并容易地实施适当的控制行动,使系统与操作者的目标保持一致。表2:设计人类自主系统的指导方针支持人类对自主系统的理解1.只有在必要时才自动化——尽可能避免外部循环问题由于自治会导致缺乏理解、系统复杂性、决策偏置和外部性能问题等方面的重大困难,除非在真正需要它的帮助的情况下,否则应该避免它。2.使用自动辅助来完成日常任务,而不是高级认知功能执行日常任务的动作部分的可靠自主对于减少人工工作量和错误非常有益。应该避免执行任务的决策部分的自治,除非由于决策偏差问题和OOTL而具有很高的可靠性。3.提供SA支持而不是决策通过改进对运营商的信息表示、集成和预测,可以发现显著的性能改进和更健壮的决策制定系统。4.保持操作者在控制和循环中减少外部影响,增加操作员的参与和控制,提高任务绩效的参与。确保操作者保持对自动化的控制,并设计将人类决策者作为一个积极的持续参与者的策略,例如较低水平的自动化和通过自适应自动化进行的手动控制。5. 避免自动模式的扩散自主模式增加了系统的复杂性和操作员开发一个良好的系统如何工作的心理模型的能力。它们还使我们更难跟上当前自动化所处的模式,增加了SA错误和培训需求。6.突出模式和制度状态当模式出现时,当前模式对操作人员来说应该非常突出(包括模式转换回手动操作)。系统自治的当前状态应该是突出的,以便任何违反操作人员的期望将很容易明显。7.执行自动化的一致性应该强制实现模式之间的术语、信息放置和系统功能的一致性,以减少使用系统自治时的错误。8.避免任务的高级队列如果系统允许作业公司提前设置一些不同的任务,以便自主执行,那么作业公司很可能会意识到存在需要干预的问题。应该考虑使操作者参与与任务执行相关的决策的方法。9.避免使用信息提示除非有非常高的可靠性,信息提示(信息的自动高亮)应该避免采用让人们更有效地使用自己的感官的方法。例如,系统地清理不需要的信息或提高图像清晰度的系统是可取的。10.使用决策支持的方法,创建人/系统共生,如应急计划和批评系统决策支持系统,避免决定偏压包括“假设”分析,鼓励人们考虑多种可能性和执行应急计划,可以帮助人们制定三级SA,以及系统帮助人们考虑的不同解释数据,有助于避免在SA中表征性错误。11.提供自动化的透明度系统行为和功能的高度透明性和可观察性是必要的,不仅要清楚地显示系统当前在做什么,还要清楚地显示它为什么要这样做,以及它接下来会做什么。最小化自治系统的复杂性12.确保不同特性和模式之间的逻辑一致性系统逻辑功能的不一致性极大地增加了复杂性。操作逻辑上的差异、信息的显示和不同的输入序列,这些不是该模式或特征的操作所直接必需的,应该减少或消除。13.减少逻辑分支通过减少自治中包含的链接和条件操作来最小化复杂性,尽可能避免具有多分支逻辑的模式。14.映射系统功能到用户的目标和心理模型用户目标和系统功能之间应该有一个清晰的映射,尽量减少操作人员为了操作或监督自治而需要了解底层软件或硬件连接的程度。15.最小化任务复杂性要求复杂度(执行期望任务所需的行动数量和这些行动的复杂性)应最小化,减少序列错误和与自主性互动的认知负荷。支持态势感知16.集成信息以支持对信息的理解(二级 SA)由于注意力和工作记忆是有限的,显示信息的自主性将是有益的,这些信息被处理和整合,以支持操作员理解与关键目标相关的数据。17.协助预测SA(三级SA)对系统未来可能发生的事件和状态进行预测的自主性支持将直接使SA受益,特别是对经验较少的操作人员。18.小心使用信息过滤虽然不应该向操作员显示外部信息,自治应该避免过滤跨操作员目标的优先级或形成可能即将发生的事件或问题的预测所需的信息。19.支持对综合数据的信心评估当融合数据形成更高级别的SA或决策以包括底层数据和融合算法的影响时,自治应该明确地表示其置信度。20.支持系统可靠性评估在信任和有效的判断何时干预系统自治的表现依赖于对其执行手头任务的可靠性的准确评估,接口应该明确自治目前执行的如何,以及它处理即将到来或预期任务的能力。注:OOTL =退出循环;SA =态势感知这些指导方针是在半自治系统的背景下制定的——在这些系统中,预期人工操作员将负责指导系统,监督其性能,并在需要时进行干预。然而,在完全自治的情况下,不可能进行干预。在这种情况下,人类可能会选择是否接受使用自主性,例如,进入一辆自动驾驶汽车或出于某些既定目的激活自主性。在这种情况下,它仍将是必要的,人类有一个准确的心智模型系统的能力为了发展足够的信任系统中选择使用它(美国空军,2015)和合作行为的自治符合预期(邱&李,2016年)。此外,在联合活动中,人们可能仍然需要与完全自主的系统进行协调,比如在军事航空中拟议的载人无人驾驶车辆团队。因此,尽管不是表2中的所有指导方针都适用于完全自治的所有情况,但大多数指导方针将继续与创建对自治系统运行的理解高度相关,以支持信任和联合操作。HASO模型概述自动化难题给自动系统的发展造成了一个重大障碍。HASO模型显示了造成这一难题的相互作用的核心因素,以及可以用来帮助缓解(尽管可能不能完全克服)这一难题的设计特征。HASO模型为实现这一目标的自动化接口和人机集成方法的开发提供了指导。HASO模型的主要优点如下:·该模型将自动化对信任和自满的影响与对SA和OOTL绩效的影响结合起来,结合了大约20年的研究,提供了一个更全面的模型,用于研究在各种形式的自治工作中影响人类监督和干预的因素。·该模型组织了关于LOA的广泛研究文献,包括两个独立的LOA分类,为自动化如何应用于三个任务阶段的每个阶段影响人类绩效提供了指导,以及一些相关的任务相关因素。·该模型将AA、LOA和GOC研究联系在一起,作为关键的自治范式,并展示了它们如何影响SA、工作量和复杂性,因为它们与监督和干预有关。·该模型详细说明了影响自治监督和干预绩效的主要途径,将监测和信任因素从参与的影响中分离出来,因为每个因素都会影响SA。·该模型与现有的自满模型(Wickens 等人, 2015年)和信任模型(Hancock 等人, 2011年; Hoff& Bashir, 2015年),但在此基础上进一步扩展,将这些构式置于影响自主性、监督和干预的更广泛的认知构式和设计特征的背景下。·该模型描述了在与自主互动中影响人类认知的关键系统设计特征,并指出了改进联合人类自主性能的设计指导方法。·虽然主要是描述性的,基于广泛的研究结果,该模型也应该是预测性的,在结构之间的关系和影响的方向,可以预期的各种操作在系统设计。完全自主系统:研究需求在未来的30年里,许多系统将通过系统控制的逐步演变,发展成包含某种程度的半自治能力,随着时间的推移,自治能力变得更有能力,可以处理更大范围的功能,中间自治水平将被应用于各种功能,并能处理环境中更大范围的变化。相比之下,一种更革命性的方法促进了向完全自治的完全转变。例如,谷歌正在推动完全无人驾驶汽车的发展。尽管这种革命性的方法可能会减少一些涉及人类自主监督和干预的挑战,但它也将很难达到可接受使用所需的可靠性和鲁棒性水平(Woods, 2016年)。随着自主能力的提高,人为干预的频率可能会下降;然而,预计在可预见的未来将继续需要某种程度的人机交互。因此,自主的进化方法最有可能成为许多领域技术发展的特征,而这些半自主系统的成功将高度依赖于克服当前挑战的有效的人类自主界面。因此,HASO模型直接支持此类半自治系统的开发。此外,在开发被设想为完全自主的系统上也投入了大量的精力,这些系统很大程度上利用了学习算法的能力。从程序化自动化到基于机器学习的系统自主带来了许多新的挑战和研究需求(美国空军,2015年)。自主软件验证由于传统方法无法解决学习系统的复杂性,因此迫切需要一种验证通过学习算法创建的软件的方法。彻底测试规则和潜在的系统状态将是不可能的,并且理解边界条件将是困难的。在这种情况下,系统优雅地降级并支持人类自主交互的能力需要作为验证测试的一部分明确地纳入,并且需要建立支持这种工作的方法。学习系统的一致性如果个体与处于不同学习水平的多个自主系统交互,即表现出非标准化的表现,那么可能会出现困惑。如果一个系统的不同模型学到的经验不同,例如,由于不同的自动驾驶汽车的独特体验,如果不同的自治系统的行为不同,判断这些经验教训是准确的还是可推广到其他系统的方法会产生新的软件管理挑战,并潜在地增加人类操作员的复杂性。如果这些系统的运行方式和所能处理的情况在细节上有所不同,那么操作员应该如何维护这些系统的准确心智模型呢?此外,随着自主性学习新的行为,开发将这些变化传达给人类操作者的方法将是至关重要的,这样他们将保持一个准确的自主性心智模型。学习系统的透明度在创建可理解性和可预测性方面,将出现独特的挑战,这对人工操作者的SA至关重要。神经网络和深度学习软件“学到”的实际逻辑和经验教训,不仅对人类操作员来说是不透明的,对软件开发人员来说也是不透明的,因为他们可能无法完全理解系统在所有情况下将如何运作。尽管有一些技术可以从这样的软件中派生规则(Huang & Endsley, 1997年),但这些表示可能是不完整的,可能不能完全表示系统行为的整个复杂性。开发透明界面的方法,将所需系统的可理解性和可预见性传达给运营商是非常必要的。人的自治团队:不同的操作概念(coos)自主系统设计中固有的COO构成了第四个相关的自动化范式,需要更多的研究。首席运营官包括诸如谁负责和如何相互关联的任务的人和自治。潜在的不同的操作概念包括:·人类作为自动化的管理者,充当助手或助手,·人类和自主性作为合作的队友,·监督并限制人类表现的自动化。许多自动化研究都是基于首席运营官进行的,在首席运营官中,人工操作员是负责监督系统性能并最终对其负责的主管。随着被设想为更有能力和真正自主的系统的发展,许多研究人员描述了一种交互的替代模型,在这种模型中,人类和自主系统是合作伙伴或队友,他们在执行任务时进行合作(Taylor & Reising, 1994年)。例如,一个完全自主的飞行器可以在许多方面独立执行任务,但仍然需要与载人飞行器中的飞行员协调以完成联合行动的任务。自动驾驶汽车的乘客可能还需要成功地与自动驾驶汽车进行交互,以建立一个共享的目标(目的地),并在旅途中管理不断变化的需求。Cuevas、Fiore、Caldwell和Strater (2007年, p.B64)将人类自动化团队定义为“一个或多个人类操作员和一个或多个自动化系统之间的动态、相互依赖的耦合,需要协作和协调才能成功完成任务。”在这种背景下,而不是假设单向信息流从系统人类的主管领导,强调一个双向的信息流动和更广泛的团队行为,如合作、协调,并支持联合计划和重新规划; 目标的重新安排;以及任务的重新分配。Klein,Woods, Bradshaw, Hoffman和Feltovich(2004年)确定了在团队中工作的智能系统的需求,以(a)进入一个共同目标和理解的角色的基本契约,并在其他团队成员无法执行分配的任务时向他们发出信号;(b)彼此拥有足够的心智模式;(c)彼此可预测;(d)是直接;(e)分享其地位和意图;(f)能够理解其他团队成员的地位和意图;(g)能够就目标进行谈判,特别是在情况变化和需要适应时;(h)根据需要进行协作,包括解决问题、重新规划和重新安排工作;(i)将队友的注意力转移到重要的信号、活动和变化上,而不是压倒对方;(j)管理协调费用,以维持可接受的工作量水平。虽然HASO模型的讨论主要集中在人力监督的首席运营官,但它也可以扩展到人力自治的团队首席运营官。除了自动化监督和干预,更广泛的联合行为(如协作、协调、联合规划和重新规划、目标的重新优先级,以及任务的重新分配)在模型中启用了交互,因为它们也显著依赖于关于系统状态和自治的个人SA。此外,自主表现社会间行为的能力,如合作、协调和协作,将是必要的。一个人自主的团队运营官很可能需要非常高的LOA水平,而AA和goc水平很低——因此人在自主任务中的直接参与将很低。这种COO创造了一种情况,在这种情况下,创建支持人类和自治之间共享SA需求的高级接口至关重要。共享SA是支持跨参与实现相同目标和具有相互关联功能(例如将发生在人自治团队中的功能)的多方协调行动的基础。人类和自主团队成员都需要高水平的共享SA来支持一些基本操作(美国空军,2015年):(a)随着优先级的变化目标一致;(b)根据人的相对能力和地位以及履行各种职能的自主权以及了解谁在做什么,对职能进行分配和重新分配;(c)沟通决策,包括战略、计划和行动,因为人和自治机构就如何执行其各种职能作出决定,使有关职能的行动得到协调;(d)任务协调,要持续了解对方采取了哪些行动,以及这些行动在实现共同目标方面的成功程度。共享情境感知是“团队成员对共享情境感知需求拥有相同情境感知的程度”(Endsley &Jones, 2001年,第47页),情境感知是两个团队成员都需要的情境的共同方面。这些方面包括与双方的目标和决定相关的情况的基本数据,双方如何解释情况,以及与对方相关的预测。例如,如果有人驾驶车辆和自动驾驶车辆的驾驶员需要协调来探测一个目标,关于位置、轨道、速度的特定信息,彼此的能力也需要共享,以及每个合作伙伴所拥有的关于目标及其环境、他或她的优先事项、评估和计划行动的相关信息。这种共享的SA使它们在同一个页面上,而不会用无关的细节互相干扰。因为有一个重要的潜力,自治和人类有非常不同的评估世界驾驶他们的决定由于不同的传感器和不同的心理或计算模型,必须制订方法,不仅要分享每个国家所依据的低水平数据,而且要分享如何解释这些信息以及每个国家所作的有关未来预测。在人类队友之间开发共享情景应用程序的工作可以用来提供一个模型来支持人类自治团队中的共享情景应用程序(Endsley & Jones, 2001年)。队友之间的共享SA要求如下:1. 感知:共同感知联合任务所需的数据、数据有效性、自我和他人的任务状态和行动、任务分配以及每个人当前的目标和优先级。2. 理解:共同理解与相关任务相关的数据的重要性和意义;个人任务对目标、系统、环境和其他方面的影响;他人任务对目标、系统、环境和自身任务的影响;以及自我和他人执行指定和预期任务的能力。3.计划:计划的行动、策略和计划。尽管已经有相当多的研究用于实现共享SA的人类团队的机制、设备和过程(Bolstad & Endsley,2000;Cooke等人,2003年;Endsley& Jones, 2001;Endsley & Robertson, 2000年;Prince& Salas, 2000年;Salas, Prince, Baker, & Shrestha, 1995年),关于如何在人类自动化团队中创建有效的共享SA,我们知之甚少。未来的研究需要建立有效的方法来实现人自治团队中所需要的共享SA水平,从而实现有效的团队绩效。结论HASO模型为目前处于>开发中的许多半自治和完全自治系统提供了支持设计决策所需的指导。随着自治系统的系统可靠性和鲁棒性的不断提高,自治系统能够执行更长的时间,并且随着LOA的增加,人工操作人员维护SA的能力将受到挑战。自治接口和自治范例的设计可以显著改善,尽管可能不能完全克服,这个问题。只要自动化系统需要人工监督和干预才能实现成功的联合性能,自动化难题就会破坏许多应用程序的性能和安全性。当完全自治系统成为现实时,很可能将继续需要SA和共享SA来支持许多任务的协作和团队。需要更多的研究才能成功开发出支持人工操作的自动系统界面。要点·存在一个自动化难题,即随着系统的自主性增加,可靠性和鲁棒性增加,人工操作人员的情况意识就会降低,他们在需要时接管手动控制的可能性也会降低。·人-自主系统监督模型显示了影响人操作者干预自主系统行为能力的关键因素。·介绍了自主界面和自主交互模式设计的关键特征。·自动系统的发展将推动额外研究的需求,以(a)支持其验证,特别是在优雅退化方面;(b)在使用培养不一致行为的学习系统时,支持操作员心理模型的发展;(c)基于机器学习的自主系统创建所需的系统透明度;(d)设计支持人自治团队中共享态势感知的方法。参考文献(略)