Lisanne Bainbridge · 1983-01-01

自动化的讽刺

摘要

本文探讨了工业过程自动化中一系列讽刺性悖论——自动化程度越高,对操作人员的依赖反而越关键。自动化削弱了操作人员的手动技能和认知能力,却在异常情况下要求他们具备更高水平的判断与干预能力。文章分析了监控失效、技能退化、工作记忆不足等问题,并讨论了人机协作的可能解决途径。

核心概念及解读

自动化讽刺——自动化旨在取代人类,却使人类的贡献在关键时刻变得更加不可或缺

技能退化——操作人员长期监控自动系统而不亲自操作,手动控制能力和认知判断力会逐渐衰退

警戒问题——人类无法长时间有效监控低概率异常事件,这使得纯监控角色本身就存在根本缺陷

工作存储——操作人员对过程当前状态的心理模型需要时间积累,紧急接管时往往缺乏充分的情境认知

人机协作——在自动化系统中保持操作人员的在线参与和技能水平,需要重新设计任务分配与支持机制

2021年6月8日 本文讨论了工业过程自动化可能扩大而非消除操作人员问题的几种方式。

这在我发表的论文中是不寻常的。大多数“重要”论文都需要数月的全神贯注才能完成(美好的漫长假期)——首先提出相关要点,然后反复思考这些问题,并帮助它们形成一个连贯的框架,然后将框架转化为可以用句子表达的线性形式。

撰写关于这个主题的文章是不寻常的,因为我对这些问题感受如此强烈,以至于论文几乎完全成型。

这些想法最初是在一次会议上提出的,我记得最后我要求控制工程师听众设计糟糕的控制系统,以便操作员可以多多练习接管操作 😀

我已经退休很久了,没有跟进这篇论文的参考文献,所以我不知道当前的问题或当前建议的解决方案。 这篇文章是在我拥有个人电脑之前写的,更不用说互联网或手机了。 当然,在过去的 40 年里,为操作员和作者提供支持的技术取得了很大进展,但显然问题仍然存在。 看到这些想法扩展到关于人机协作新领域的深刻问题,这很有趣。

主题

自动化的讽刺
├── 1. 引言
│   ├── 1.1. 自动化后的任务:
│   │   ├── 手动控制技能;
│   │   ├── 认知技能——长期知识、
│   │   ├── 工作存储;
│   │   └── 监控。
│   └── 1.2. 操作员的态度。
├── 2. 解决方案的途径:
│   ├── 监控、
│   ├── 工作存储、
│   └── 长期知识。
├── 3. 人机协作:
│   ├── 指令和建议;
│   ├── 减轻人为错误;
│   ├── 软件生成的显示;
│   └── 减轻人类工作负荷。
└── 4. 结论。

自动化的讽刺

莉桑·贝恩布里奇 (Lisanne Bainbridge)

伦敦大学学院心理学系

Automatica,1983,19,775-779。(会议论文集)

讽刺:环境的组合,其结果与可能预期的结果截然相反。 悖论:表面上荒谬但或许有充分根据的陈述。

自动化的经典目标是用自动装置和计算机取代人类的手动控制、计划和问题解决。 然而,正如 Bibby 及其同事(1975 年)指出的那样:“即使是像电力网络这样高度自动化的系统,也需要人类进行监督、调整、维护、扩展和改进。 因此,我们可以得出悖论式的结论,即自动化系统仍然是人机系统,技术因素和人为因素都非常重要。” 本文认为,工程师对人为因素日益增长的兴趣反映了一个讽刺现象,即控制系统越先进,操作人员的贡献可能就越关键。

本文特别关注过程工业中的控制,尽管也将从飞行甲板自动化中汲取例子。 在过程工厂中,不同的操作模式可能被自动化到不同的程度,例如正常操作和停机可能是自动的,而启动和异常情况是手动的。 无论操作模式如何,自动或手动控制的使用问题都是过程行为可预测性的函数。 本文的前两节讨论了在线自动控制,在这种控制中,操作人员应在异常情况下接管,最后一节介绍了一些在线控制中人机协作的方面。

1. 引言

经典自动化方法的重要讽刺之处在于系统设计者的期望,以及留给操作人员执行的任务性质。

设计者对操作人员的看法可能是操作人员不可靠且效率低下,因此应从系统中消除。 这种态度有两个讽刺之处。 其一是设计者的错误可能是操作问题的主要来源。 不幸的是,收集到这方面数据的人不愿意公布这些数据,因为实际数字很难解释。(某些类型的错误可能比其他类型的错误更容易报告,并且对其来源可能存在分歧。) 第二个讽刺之处在于,试图消除操作人员的设计者仍然让操作人员去做设计者想不到如何自动化的任务。 正是这种方法导致了本文讨论的问题,因为这意味着操作人员可能被留下任意的任务集合,并且可能很少考虑为他们提供支持。

1.1. 自动化后的任务。

在自动化系统中,操作人员有两种一般类型的任务。 他们可能需要监控自动化系统是否正常运行,如果不是,他们可能需要呼叫更有经验的操作人员或自己接管。 我们将首先讨论手动接管的讽刺之处,因为提出的观点也对监控具有意义。 接管并稳定过程需要手动控制技能,诊断故障以作为停机或恢复的基础需要认知技能。

1.1.1. 手动控制技能。

几项研究(Edwards 和 Lees,1974)表明,经验丰富的过程操作人员和经验不足的过程操作人员在进行阶跃变化时存在差异。 经验丰富的操作人员执行最少数量的动作,并且过程输出平稳快速地移动到新的水平,而经验不足的操作人员则围绕目标值振荡。 不幸的是,身体技能在不使用时会退化,尤其是增益和定时的精细调整。 这意味着,曾经经验丰富但一直在监控自动化过程的操作人员现在可能是一个经验不足的操作人员。 如果他们接管,他们可能会使过程陷入振荡。 他们可能需要等待反馈,而不是通过开环控制,并且他们很难解释反馈是表明系统存在问题,还是仅仅表明他们误判了他们的控制动作。 他们需要采取行动来抵消他们无效的控制,这将增加他们的工作量。 当需要手动接管时,过程很可能出现问题,因此需要采取非常规的措施来控制它,并且可以认为,操作人员需要比平时更有技能,而不是更少技能,并且工作负荷[任务工作和脑力工作]更轻,而不是更重。

1.1.2. 认知技能。

长期知识。 一个自己摸索出如何控制工厂的操作人员,在没有明确培训的情况下,会使用一套关于可能的工艺行为的主张,从中生成尝试的策略(例如,Bainbridge. 1981)。 同样,操作人员只有充分了解工艺流程,才能为异常情况制定成功的新策略。 对于机器看管的操作人员来说,这有两个问题。 其一是,从长期记忆中有效检索知识取决于使用频率(想想你在学校通过考试但之后就再也没有想过的任何科目)。 另一个是,这种类型的知识只有通过使用和反馈其有效性才能发展起来。 接受过课堂理论教学而没有适当实践练习的人,可能不会理解很多知识,因为它不会在一个使其有意义的框架内,并且他们不会记住很多知识,因为它不会与检索策略相关联,而检索策略是与任务的其余部分集成的。 有人担心,目前的自动化系统由以前的手动操作人员监控,是依赖于他们的技能,而以后的几代操作人员不能指望拥有这些技能。

工作存储。 在线决策中认知技能的另一个重要方面是,决策是在操作人员对过程当前状态的知识的背景下做出的。 这是一种比用于电话号码等项目的有限容量短期存储更复杂的运行记忆形式。 操作人员的头脑中(Bainbridge,1975)不是关于过程状态的原始数据,而是对过程进行预测和决策的结果,这些结果在未来的情况中将是有用的,包括他们未来的行动。 这种信息需要时间才能建立起来。 手动操作人员可能会在他们应该接管控制权前半小时到半小时进入控制室,以便他们能够了解过程的运行情况。 这对于从自动控制工厂手动接管的意义是,必须快速采取行动的操作人员只能在最少信息的基础上这样做。 在他们有时间检查和思考之前,他们将无法根据对工厂状态的广泛了解做出决策。

1.1.3. 监控。

似乎期望操作人员仅仅监控自动化设备是否正常运行,并在出现问题时呼叫主管,这是一项相对简单的任务,不会引起上述复杂性。 当然,它确实引发了一个复杂性,即如果主管没有回顾他们的相关知识或练习关键的手动技能,他们也无法接管。 当人们问一个没有技能的操作人员是否可以完成监控时,就会出现另一个问题。

我们从许多“警戒”研究(Mackworth. 1950)中知道,即使是一个积极性很高的人,也不可能对一个极少发生信息来源保持有效的视觉注意力超过大约半小时。 这意味着,人类不可能执行监控不太可能发生的异常情况的基本功能,因此必须由连接到声音信号的自动报警系统来完成。 (手动操作人员会注意到他们作为控制任务一部分所关注的变量的异常行为,但可能同样不擅长注意到其他变量的变化。) 这就提出了谁来注意报警系统何时工作不正常的问题。 同样,如果自动化设备已经运行良好很长时间,操作人员将不会有效地监控自动化设备。 强制操作人员关注稳态系统的一种经典方法是要求他做日志。 不幸的是,人们可以写下数字而没有注意到它们是什么。

更严重的讽刺之处在于,自动控制系统之所以被引入,是因为它可以比操作人员更好地完成工作,但却要求操作人员监控它是否有效运行。 这有两种类型的问题。 在复杂的操作模式中,监控人员需要知道过程的正确行为应该是什么,例如在批处理过程中,变量必须随时间遵循特定的轨迹。 这种知识需要特殊的培训或特殊的显示。

第二个问题是,如果决策可以完全指定,那么计算机可以更快地做出决策,考虑到更多的维度,并使用比操作人员更精确指定的标准。 因此,操作人员无法实时检查计算机是否正确地遵循其规则。 因此,人们只能期望操作人员在某种元级别监控计算机的决策,以决定计算机的决策是否“可接受”。 如果使用计算机来做出决策是因为在这种情况下人类的判断和直觉推理是不够的,那么应该接受哪些决策呢? 人类监控人员被赋予了一项不可能完成的任务。

1.2. 操作员的态度。

我知道一家自动化工厂,管理层必须在夜班期间在场,否则操作人员会将过程切换到“手动”。 这引发了关于技能对个人的重要性的普遍问题。 技能的一个结果是操作人员知道他们可以在需要时充分接管。 否则,这份工作是最糟糕的类型之一,它非常枯燥但责任重大,但没有机会获得或保持处理责任所需的素质。 工人拥有的技能水平也是他们在工作社区内外地位的一个重要方面。 如果工作通过简化为监控而“技能降低”,那么对于相关个人来说,很难接受这一点。 这也导致了不协调的工资差异的讽刺现象,当技能降低的工人坚持高工资水平,作为不再由工作内容证明的剩余地位象征时。

Ekkers 及其同事(1971 年)发表了一项关于控制系统特性与操作人员主观健康和成就感之间相关性的初步研究。 为了大大简化:过程信息的高连贯性、过程的高复杂性和过程的高可控性(无论是手动的还是通过充分的自动化)都与低水平的压力和工作负荷以及良好的健康状况相关,而快速的过程动态和高频率的不能直接在界面上执行的动作与高压力、高工作负荷和差的健康状况相关。 高过程可控性、良好的人机工程学界面和丰富的活动模式都与高成就感相关。 许多研究表明,高水平的压力会导致错误,而不良的健康状况和低工作满意度会导致旷工等高间接成本(例如,Mobley 及其同事,1979 年)。

2. 解决方案的途径

人们可能会将这些问题表述为一个悖论,即通过自动化过程,操作人员被赋予了一项只有在线控制人员才能完成的任务。 本节将讨论一些可能的解决方案,以解决在期望操作人员监控和接管控制的情况下,如何保持操作人员的效率和技能:下一节将介绍最近关于在计算机支持下保持操作人员在线的建议。

解决这些问题涉及非常多维度的决策:这里将提出一些讨论建议。 在任何特定情况下提出的建议将取决于诸如过程规模和复杂性、过程变化率、过程或自动控制故障的速度和频率、产品的可变性和环境、停机的简单性和成本以及操作人员的素质等因素。

2.1. 监控。

在任何低概率事件必须被快速注意到的情况下,都必须为操作人员提供人为的辅助,如有必要,甚至在警报上设置警报。 在具有大量回路的过程工厂中,如果没有警报,并且最好还有某种形式的警报分析,操作人员就无法快速到达工厂的正确部分。 不幸的是,大量闪烁的红灯会让人困惑而不是提供帮助。 在为操作人员设计大型报警系统方面存在重大问题和讽刺之处(Rasmussen 和 Rouse,1981 年)。

显示器可以通过显示目标值来帮助操作人员监控自动控制性能。 这对于单容差带来说很简单,但如果容差在批处理过程中发生变化,则会变得更加复杂。 一种可能的解决方案是通过软件生成在 VDU 上显示当前适当的容差。 这实际上并没有解决问题,而只是以不同的形式提出了相同的问题。 如果计算机控制发生故障的概率非常低,操作人员将不会观看 VDU。 如果计算机可以生成所需的值,那么它也应该能够进行监控和报警。 操作人员如何监控计算机是否正常工作,或者在计算机显然不正常工作时接管? 如果操作人员非常熟练地使用计算机生成的显示器,但这些显示器在紧急情况下不再可用,则可能会给操作人员带来重大问题。 一种讽刺但明智的建议是,主过程信息应使用直接有线显示器,而定量细节应使用软件显示器(Jervis 和 Pope,1977 年)。

“灾难性”的故障相对容易识别。 不幸的是,自动控制可以通过控制变量变化来“伪装”系统故障,从而使趋势在超出控制范围之前不会变得明显。 这意味着自动化设备也应监控异常的变量移动。 “性能的优雅降级”在人机质量的“Fitts 列表”中被引用为人类优于机器的优势。 这不是计算机中要追求的人类性能方面,因为它可能会给故障监控带来问题(例如,Wiener 和 Curry. 1980 年):自动系统应该明显地发生故障。

如果操作人员必须监控计算机决策的细节,那么具有讽刺意味的是,计算机有必要使用操作人员可以理解的方法和标准,并以操作人员可以跟上的速度做出这些决策,即使这在技术上可能不是最有效的方法。 如果不这样做,那么当操作人员不相信或不同意计算机时,他们将无法追溯系统的决策序列,以查看他们在多大程度上同意。

克服警戒问题的一种经常被建议的方法是人为地提高信号速率。 然而,人为地提高计算机故障率将是一个错误,因为操作人员将不再信任该系统。 Ephrath(1980 年)报告了一项研究,其中系统性能在计算机辅助下变得更差,因为操作人员无论如何都要做出决策,而检查计算机增加了他的工作量。

2.2. 工作存储。

如果操作人员不参与在线控制,他们将不了解系统的当前状态的详细知识。 人们可能会问,这在多大程度上限制了有效手动接管的可能性,无论是为了稳定还是关闭过程,还是为了故障诊断。

当停机简单且成本低廉时,直接的解决方案是自动停机。 问题出现在由于复杂性、成本或其他因素(例如,空中的飞机)而必须稳定而不是停机的过程中。 这应该手动完成还是自动完成? 如果过程动态可以保留几分钟,以便操作人员弄清楚发生了什么,则可以使用手动停机。 对于非常快速的故障,在几秒钟内(例如,压水反应堆而不是飞机),当没有来自先前变化的警告时,在线工作存储也将是无用的,那么可靠的自动响应是必要的,无论需要多少投资,如果不可能做到这一点,那么如果故障成本不可接受,则不应建造该过程。

对于速度较慢的故障,可以使用过度学习的手动响应来“争取时间”。 这需要在高保真模拟器上进行频繁的练习,并且对系统故障有充分的理解,以确保涵盖所有类型的故障。 如果对故障的响应需要比可用时间内可以执行的动作数量更多,那么必须自动执行一些动作,其余的由高度熟练的操作人员执行。

2.3. 长期知识。

上一节中的要点清楚地表明,保持手动技能可能很重要。 一种可能性是允许操作人员在每个班次中使用手动控制一小段时间。 如果这个建议令人发笑,那么必须提供模拟器练习。 足以教授过程基本行为的模拟器可能非常原始。 只有在高保真模拟器上才能学习准确的快速反应,因此如果需要这种反应,那么这就是必要的成本。

关于调度和诊断的认知技能,也可以提出类似的观点。 简单的图形表示足以训练某些类型的故障检测(Duncan 和 Shepherd,1975 年),但前提是故障可以从控制面板的稳态外观中识别出来,并且等待稳态是可以接受的。 如果故障检测涉及识别随时间的变化,则需要动态模拟器进行培训(Marshall 和 Shepherd,1981 年)。 简单的识别训练也不足以培养处理未知故障或选择纠正措施的技能(Duncan,1981 年)。

使用任何模拟器来训练极端情况都存在问题。 未知故障无法模拟,并且对于可以预测但尚未经历过的故障,系统行为可能是未知的。 这意味着培训必须关注一般策略而不是特定响应; 例如,模拟可以用来提供低概率事件的经验,这些事件可能是培训师知道的,但受训者不知道。 没有人可以被教导关于系统的未知属性,但他们可以被教导在已知信息范围内练习解决问题。 期望操作人员仅通过查阅操作程序来应对不熟悉的事件是不够的。 这些程序不可能涵盖所有可能性,因此期望操作人员监控它们并填补空白。 然而,讽刺的是,培训操作人员遵循指令,然后将他们放入系统中以提供智能。

当然,如果一天中频繁发生警报,那么操作人员将有大量控制和思考过程的经验,作为他们正常工作的一部分。 也许最终的讽刺之处在于,最成功的自动化系统,很少需要人工干预,可能需要对操作人员进行最大的培训投资。

3. 人机协作

通过取消操作人员任务中容易的部分,自动化可能会使操作人员任务中困难的部分更加困难。 几位作者(Wiener 和 Curry,1980 年;Rouse. 1981 年)指出,自动化的“Fitts 列表”方法,即为人和机器分配他们最擅长的任务,已不再足够。 它没有考虑人和计算机的集成,也没有考虑如何通过支持操作人员的技能和积极性来保持操作人员的有效性。 自动化系统中始终会有人类的大量参与,因为除了效率之外,还涉及其他标准,例如,当某些操作模式的自动化成本不被产品价值证明是合理的时候,或者因为公众不会接受没有人类组件的高风险系统。 这表明,需要更充分地发展人机协作方法。 Dellner(1981 年)列出了人类干预自动化决策的可能级别。 本文将讨论计算机干预人类决策的可能性。 这些包括指示或建议操作人员、减轻他们的错误、提供复杂的显示以及在任务负荷高时协助他们。 Rouse(1981 年)称这些为“隐蔽的”人机交互。

3.1. 指令和建议。

如果操作人员仅仅充当传感器,那么使用计算机给出指令是不合适的,因为计算机同样可以激活一个更可靠的传感器。 Thompson(1981 年)列出了四种类型的建议,关于:根本原因、相对重要性、可用的替代行动以及如何实施行动。 当遵循建议时,操作人员的反应将比他们自己生成活动序列时更慢,并且更不集成,并且他们没有在“智能”方面获得任何练习。 程序信息的有效显示也存在问题。

3.2. 减轻人为错误。

机器抵消人为错误的可能性范围从简单的硬件互锁到复杂的在线计算。 除非必须遵循特定的操作顺序,否则更适合对动作的效果进行此类“检查”,因为这不会对用于达到此效果的策略做出假设。 在手动控制下,操作人员通常会在几秒钟内获得关于其动作结果的足够反馈,以纠正他们自己的错误(Ruffell-Smith. 1979 年),但 Wiener 和 Curry(1980 年)给出了人类在设置和监控自动化设备时犯相同类型错误的例子,当他们没有获得足够的反馈时。 这或许应该在设计中考虑进去。 Kreifeldt 和 McCarthy(1981 年)给出了关于显示器的建议,以帮助在序列中被打断的操作人员。 Rouse(1981 年)建议计算机监控人的眼球运动,以检查仪器扫描是否合适,例如防止隧道视觉。

3.3. 软件生成的显示。

VDU 上软显示器的日益普及为设计与任务中使用的特定知识和认知过程兼容的显示器提供了令人着迷的可能性。 这导致了如此丰富的创造性推测,以至于指出实践中存在困难似乎有点吝啬。

一种可能性是仅显示与特定操作模式相关的数据,例如启动例行操作或维护。 然而,需要注意的是,对于正常条件来说是理想的界面可能会掩盖异常条件的发展(Edwards. 1981 年)。

Goodstein(1981 年)讨论了与不同类型操作人员技能兼容的过程显示器,使用 Rasmussen(1979 年)提出的三种行为水平的分类,即技能型、规则型和知识型。 不同类型技能的使用部分是操作人员经验的函数,尽管这些类型可能不会落在简单的连续统一体上。 Chafin(198l 年)讨论了界面设计建议如何取决于操作人员是幼稚的、新手/有能力的还是专家的。 然而,他关注的是在没有时间压力的情况下,人类如何访问计算机数据库。 在时间压力下的人机交互会引发特殊的问题。 基于知识的思维和反射反应之间的变化不仅是练习的函数,而且还取决于环境的不确定性,因此相同的任务元素可能会在不同的时间使用不同类型的技能来完成。 因此,给操作人员一个仅作为他们总体技能水平函数的显示器可能会让人困惑而不是提供帮助。 如果非时间紧张的操作人员发现他们拥有错误的显示类型,他们可能会自己请求不同级别的信息。 这将增加受动态系统节奏支配的决策者的工作量。 因此,Rouse(1981 年)建议计算机可以识别操作人员正在使用的技能类型,并更改显示器(他没有说这可能如何完成)。 我们不知道操作人员会被不受他们自己控制的显示器变化搞糊涂到什么程度。 Ephraph 和 Young(1981 年)评论说,即使在人员控制下,操作人员也需要时间在活动模式之间切换,例如从监控到控制,并且人们假设显示模式变化也会出现相同的问题。 当然,需要非常小心地确保不同的显示器是兼容的。 Rasmussen 和 Lind 最近的论文(1981 年)是关于操作人员可能正在思考过程的不同抽象级别,这将定义要显示的知识库。 同样,尽管操作人员显然会在不同的时间以不同的复杂性和抽象级别进行思考,但尚不清楚他们在时间压力下是否能够使用或选择许多不同的显示器。

上面已经提出了一些关于已经学会使用计算机生成的显示器的操作人员的问题,当这些显示器在异常情况下不再可用时。 最近关于人类记忆的研究(Craik,1979 年)表明,某些数据接收到的意义处理越多,记忆效果就越好。 这让人怀疑,如果关于过程的信息呈现得如此成功,以至于操作人员不必思考就能理解,那么操作人员将对过程的结构了解多少。 如果我们发现最兼容的显示器毕竟不是给操作人员的最佳显示器,那肯定会很讽刺!(与往常一样,显示器选择决策将取决于要完成的任务。 高度兼容的显示器始终支持快速反应。 这些观点推测它们是否也支持在异常条件下所需的知识和思维技能的获取。)

可以提出一些实用的观点。 对于每种不能简单地映射到其他类型的信息,应该至少有一个永久可用的信息来源,例如,关于工厂在空间中的布局,而不是其功能拓扑结构。 操作人员不应在显示器之间翻页以获取有关过程中除他们当前正在思考的部分之外的异常状态的信息,也不应在提供在一个决策过程中所需信息的显示器之间翻页。 关于复杂显示器的研究应侧重于确保它们之间兼容性的问题,而不是找到哪种独立显示器最适合某个特定功能,而不考虑其与其他功能信息的关系。 为了以更乐观的音符结束,软件显示器为丰富操作人员的任务提供了一些有趣的可能性,允许他们设计自己的界面。

3.4. 减轻人类工作负荷。

计算机可以用来减轻人类工作负荷,方法是简化操作人员的决策(如上所述)或接管部分决策。 关于这方面的研究表明,这是一个复杂的问题。 Ephrath 和 Young(1981 年)发现,在单回路的手动控制下,总体控制性能更好,但在驾驶舱模拟器的复杂环境中,使用自动驾驶仪时,总体控制性能也更好。 这表明,辅助最好在高工作负荷下使用。 然而,辅助类型的效果取决于工作负荷的类型。 Johannsen 和 Rouse(1981 年)发现,飞行员报告在异常环境条件下,在自动驾驶仪下计划深度较浅,这可能是因为自动驾驶仪正在处理这些条件,但在紧急飞机条件下,计划深度较深,他们认为自动驾驶仪将飞行员从在线控制中解放出来,以便他可以思考其他事情。 Chu 和 Rouse(19791 年)研究了一种既有计算机辅助又有自动驾驶仪的情况。 他们安排计算机在飞行员有一个待处理任务项队列并且飞行员手动控制时,或者在自动驾驶仪控制的情况下,在三个项目队列之后接管决策。 Enstrom 和 Rouse(1977 年)的研究清楚地表明了为什么 Rouse(l98l 年)评论说,只有当工作负荷计算可以实时完成时,才有可能实现更复杂的在线方法来使计算机辅助适应人类工作负荷。 如果将“辅助人类有限能力的目标已将计算推向其能力的极限”称为讽刺,那将是轻率的,因为技术有赶上这种言论的方式。

Enstrom 和 Rouse 也提出了一个重要的观点,即人类必须知道计算机正在处理哪些任务以及如何处理。 否则,就会出现与人类团队中责任分配不明确相同的问题。 Sinaiko(1972 年)提出了一个评论,强调了操作人员对计算机能力的感知的重要性:“当负荷较轻时,人似乎愿意让计算机承担大部分分配责任:当负荷较重时,人更频繁地介入并否决计算机”。 显然,除了技术考虑之外,计算机辅助的设计也是一个多维度的问题。

4. 结论

上一节回顾的巧妙建议表明,在没有时间压力的情况下工作的人类可以是令人印象深刻的问题解决者。 困难仍然在于,当他们在时间压力下时,他们的效率较低。 我希望本文已经清楚地表明,讽刺的是,自动化并不一定能消除困难,并且解决这些困难可能需要比经典自动化更高的技术独创性。