从最近的阿拉斯加航空公司航班中收集到的人工智能伦理和自治系统教训,飞行员和副驾驶在起飞前不同意并突然选择滑回航站楼并分道扬镳

航空公司最近在新闻中颇有报道。

我们正处于夏季航班的紧缩期。 疲惫和沮丧的乘客发现自己面临着各种航班中断和航空公司调度扭曲。 航班意外取消。 航班延误。 乘客冒烟。 不幸的是,有很多乘客让这些烦恼爆发,我们已经看到太多病毒式的面对面对抗和有时拳打脚踢的视频。

我们很少了解在驾驶舱内可能发生的飞行员和副驾驶之间的争执。

这真是一个惊喜。

事实上,当我们想到飞行员和副驾驶在飞行的任何阶段都会出现严重的分歧时,我们自然会感到惊讶。 如果分歧与哪种咖啡品牌最好有关,我们的假设是这不会影响驾驶飞机的工作量。 在一个看似与飞行无关的话题上,两人只是不屑一顾。 他们的专业风范和长期的飞行员培训将开始发挥作用,他们会将注意力重新集中在飞行细节上。

考虑虽然当一个 职业分歧 介入。

我将与您简要分享一个广泛发布的新闻项目,该新闻项目是关于最近在美国飞行期间发生的与驾驶舱内声称的专业分歧有关的事情。

这主要是在这里引用,以便我们可以探索一个对人工智能 (AI) 的出现非常重要的相关主题。 你看,我们可以说职业分歧不仅仅是人与人之间的分歧,但我们也可以在采用人工智能的过程中发生类似的事情,从而导致人与人工智能的专业分歧. 各种各样的人工智能伦理考虑出现了。 有关我对 AI Ethics 和 Ethical AI 问题的广泛且持续的报道,请参阅 这里的链接这里的链接, 仅举几例。

准备好迎接一个迷人的故事。

正如最近新闻报道的那样,在阿拉斯加航空公司从华盛顿飞往旧金山的航班期间,显然出现了“专业分歧”的案例。 据新闻报道,这架飞机已经离开登机口,正在停机坪上等待滑行和起飞的许可。 一场风暴正在进行中,导致航班延误了一个多小时。 事实证明,飞机最终掉头返回登机口,一些乘客通常认为这只是与风暴相关的安全预防措施。

根据各种推文,似乎飞行员和副驾驶在驾驶舱期间发生了某种看不见的争执,并以某种方式得出结论,最谨慎的方法是擦洗航班并返回航站楼. 推文表明,船长和副驾驶显然无法相处。 该航空公司后来发表声明称情况很不幸(情况本身没有明确说明或解释),两名飞行人员经过管理层评估并被认为适合飞行,机组人员被调换,最终飞行确实发生了后来到达旧金山。

从某种意义上说,如果飞行员和副驾驶确实在专业上存在分歧,比如飞机是否准备好起飞,或者飞过风暴的风险是否在合适的安全范围内,那么这些乘客应该得到缓解,并且谢天谢地,飞机回到了登机口。 安全总比后悔好。 额外的延误非常值得假定降低与考虑的崎岖或不利的飞行旅程相关的风险。

有些人可能会惊讶于会出现这样的专业分歧。

我们可能有一个错误的印象,即驾驶舱中发生的一切都是完全精确且精心编写的。 所有形式的人类自由裁量权似乎都已被排除在这个过程之外。 根据严格和彻底计算的图表,航班要么可以继续,要么不能。 当整个套件和一堆堆被认为是基于无可辩驳的事实和数据计算时,就不会有任何分歧。

这不是事情的全部真相。 当然,有大量的协议和各种制衡,但这并不能排除所有人类判断。 飞行员和副驾驶仍在行使人类判断力。 幸运的是,这种人类判断是经过多年飞行磨练出来的。 很有可能一架商用客机的飞行员和副驾驶拥有丰富的飞行经验,并且很容易利用他们多年来与飞行控制相关的深入推理和判断。

鉴于人类判断的显着作用,我们可能会合乎逻辑地预期飞行员和副驾驶有时会产生专业分歧。 大多数时候,这样的分歧可能很少。 每天飞行的飞行员和副驾驶很可能会很好地调整时间的优势。 只有当飞行场景可能超出常规范围时,我们才会预期会出现更紧张的摩擦。

如果两者之间存在很大的意见分歧,我敢说我们希望他们解决这个问题。

想象一下这样一种情况,飞行员强烈地想要继续前进,但副驾驶认为风险太高了。 仅仅让副驾驶向飞行员磕头似乎是不可取的。 副驾驶是对飞行员可能正在考虑做的事情的制衡。 对于那些希望副驾驶闭嘴并完全按照飞行员的命令盲目行事的人来说,这并不能让人放心。 副驾驶不仅仅是一个备用的“飞行员”,只有在飞行员完全丧失能力时才会出现。 这是对驾驶舱内有一名飞行员和副驾驶的价值的错误理解。

这还有另一个角度。

考虑一个飞行员不相信飞行应该继续的情况,同时副驾驶正忙着要在空中起床。 然后怎样呢? 按照预期的等级制度,飞行员通常应该优先于副驾驶。 作为主要负责人的指定角色使飞行员在其他方面变得更大。 通常,飞行员比副驾驶有更多的飞行时间调整,因此副驾驶在等级上应该遵从飞行员的意愿(在合理的情况下)。

无论如何,我认为我们都同意,选择不飞行肯定比决定飞行风险更小。 一旦飞机升空,与在任何普通稳定地面上相比,风险水平就会变得巨大。 一个习惯性的商业航班,在没有进入空中的情况下简单地滑回航站楼,这将是一个非常友好的解决方案,可以解决任何关于飞行的激烈激烈辩论。

让我们换个方向,将这个充满活力的新闻项目用于完全不同但相关的目的。

我们正在逐渐普及基于人工智能的自治系统。 有时,人工智能会主持节目。 AI 可以做从 A 到 Z 的所有事情,我们可以将其解释为完全自主或几乎完全自主的 AI。 在其他情况下,我们可以让 AI 与之交互,并在某种程度上被编程为依赖于人在循环中。

我想专注于一个基于人工智能的自主或半自主系统,从一开始就有一个人参与其中。 人工智能和人类被有意地推到一起,并且应该彼此协同工作。 他们是执行手头特定任务的群体。 AI 不应该单独执行任务。 AI 必须与指定的人在环交互。

我提出这一特征是为了与将人在回路中被视为可选方面的情况区分开来。 从本质上讲,人工智能是自由发挥的。 如果人工智能选择利用人类,那就这样做吧。 没有要求人工智能必须与指定的人接触或携手工作。 我将要涉及的分析肯定与那种 可选 交互安排,但这不是我在这个特定讨论中特别强调的。

好的,所以我们有某种任务,人类和人工智能将一起工作,彼此密不可分。 在抽象意义上,我们有一个人坐在一个座位上,而一个人工智能系统坐在另一个随行座位上。 我这么厚颜无耻地说,因为我们并没有将这个讨论限制在一个机器人上,例如实际上可能坐在座位上的机器人。 我隐喻地暗示了人工智能在某处参与任务的概念,人类也是如此。 从物理上讲,他们的下落对讨论并不是特别重要。

您可能不确定何时会出现这种情况。

十分简单。

稍后,我将讨论自动驾驶汽车和自动驾驶汽车的出现。 在一定程度的自主性下,人工智能和人类应该一起工作。 人工智能可能正在驾驶汽车并要求人类接管驾驶控制。 人类可能正在驾驶汽车并激活人工智能来接管控制。 他们轮流控制驾驶。

此外,一些设计让 AI 在本质上始终处于活动状态(或者,除非被关闭),这样 AI 始终处于准备状态。 此外,人工智能可能会直接干预,即使没有人类询问,这取决于正在发生的情况。 例如,假设人类似乎在方向盘上睡着了。 由于人类似乎无法激活人工智能(因为人正在睡觉),人工智能可能被编程为接管人类的控制。

一些设计将人工智能和人类带入了双重驾驶方法。 人工智能在驾驶,人类在驾驶。 或者,如果您愿意,人类正在驾驶,而人工智能也在驾驶。 他们每个人都在驾驶车辆。 我把它比作那些你可能在接受驾驶培训时使用的特别装配的汽车,车辆中有两套驾驶控制装置,一套用于学生驾驶员,一套用于驾驶教练。

这只是人工智能和人类可能共同完成一项任务的一个例子。 各种可能性都存在。 其他类型的自动驾驶汽车也可能被类似地设计出来,例如飞机、无人机、潜水器、水面舰艇、火车等。 我们不必只考虑车辆和交通环境。 设想由医生和人工智能系统共同执行的医疗领域和手术。 名单是无穷无尽的。

我几乎想提到一个关于人类和人工智能一起走进酒吧的经典笑话。 对于那些进入人工智能的人来说,这真是一个笑话。

说真的,让我们回到人类和人工智能系统共同完成给定任务的焦点。 首先,我想避免将 AI 拟人化,这是我将自始至终强调的一点。 AI没有感知力。 请记住这一点。

这里有一些事情需要考虑: 指定的人在循环中是否总是与合作的 AI 完全一致?

对于任何复杂的任务,人类和人工智能似乎不太可能完全且始终完全同步。 在某些情况下,人类可能会不同意人工智能。 我们可以一直把这个假设带到银行。

我希望您也考虑一下这种可能令人惊讶的可能性: 人工智能是否总是与指定的人在循环中完全一致?

同样,对于任何复杂的任务,人工智能在某些情况下不会与人类达成一致似乎是完全可以想象的。 如果你已经倾向于认为人工智能必须永远是错误的,而人类必须永远是正确的,那么重新考虑这个仓促的结论是明智的。 设想一辆有人和人工智能共同驾驶半自动驾驶汽车的汽车。 人类转向一堵砖墙。 为什么? 我们不知道,也许人类喝醉了或者睡着了,但我们知道撞到砖墙不是一个好主意,其他条件相同。 人工智能可能会检测到即将到来的灾难并试图避开即将到来的障碍。

总而言之,我们将有人工智能和人类相互分歧的明显可能性。 另一种说法是人类和人工智能 彼此不同意。 请注意,我不希望 AI 和人类与人类和 AI 的顺序对分歧的方向或合理性提出任何建议。

这两名工人,一名是人类,一名是人工智能,彼此意见相左。

我们可以提前声明,每当给定的人工智能和给定的人类之间发生分歧时,我们预先宣布人类胜过人工智能。 话虽如此,我关于汽车驶入砖墙的说明性示例似乎使我们无法相信人类总是正确的。

相比之下,我们可以选择提前声明,每当出现分歧时,我们将事先确定人工智能是对的,而人类是错的。 这也不是一个可合理推广的规定。 想象一辆汽车,其中人工智能有一些嵌入式软件错误或错误,人工智能正试图将车辆驶离道路并进入沟渠。 假设其他条件相同,人类应该能够克服这种人工智能驾驶行为并防止车辆降落在沟壑中。

让我们快速总结一下:

  • 人在循环中是否总是与人工智能完全一致? 答: 没有
  • 人工智能会永远与人类在循环中完全一致吗? 答: 没有.
  • 与 AI 相比,人机交互总是正确的吗? 答: 不必要。
  • 与人类在环相比,人工智能总是正确的吗? 答:不一定.

您当然可以将 AI 设置为默认被视为“错误”或较弱的一方,因此在出现分歧时始终服从人类。 同样,您可以将 AI 设置为假设当人类与 AI 存在分歧时,该 AI 被认为是“正确的”。 我想澄清一下,如果我们愿意,我们可以通过编程方式做到这一点。 我声称,一般来说,情况并非总是如此。 在某些情况下,我们事先并不知道在与给定任务相关的分歧上选择一个或另一个方面是人工智能是“正确的”还是人类是“正确的”。

我把你带到了一个非常重要和高度复杂的问题上。

当人类在环和人工智能之间发生专业分歧时我们应该怎么做(或者,等效地,我们可以将其表述为人工智能和人类在环之间)?

不要试图回避这个问题。

有些人可能会争辩说这永远不会发生,但正如我在关于汽车的例子中所阐述的那样,它肯定会发生。 有些人可能会争辩说,人类显然是优越的,并且必须是任何分歧的赢家。 我的汽车和砖墙的例子把那个撞倒了。 有些 AI 支持者可能会坚持认为 AI 必须是赢家,因为表面上克服了人类情感和那些随意的模糊思维人类的肆意思考。 再一次,我的另一个例子使汽车驶入沟渠,削弱了这一断言。

在现实世界中,人工智能和人类会产生分歧,即使故意将两者带入合作环境以执行共同承担的任务。 它会发生。 我们不能把头埋在沙子里,假装它不会发生。

我们看到驾驶飞机的人类显然陷入了分歧。 值得庆幸的是,他们同意不同意,所以看起来。 他们把飞机带回了航站楼。 他们找到了解决分歧的方法。 他们的分歧解决得很好,相比之下,如果他们可能在驾驶舱内斗殴,或者可能飞到空中并继续互相争斗。 这是一个站不住脚的悲惨情景,我们可以庆幸没有发生。

请允许我提供我的列表,其中列出了可以解决 AI 和人类在环(或人类在环和 AI)分歧的各种方法:

  • 人工智能和合作的人类解决问题(友好或不友好​​)
  • 默认情况下,人类胜过人工智能
  • 默认情况下,人工智能胜过人类
  • 默认情况下,以其他一些预定的固定分辨率为准
  • 第三方人员被圈入,他们的指示胜过各方
  • 第三方AI环入,其指示凌驾于各方之上
  • 第三方人取代现有人,事情重新开始
  • 第三方AI取代现有AI,事情重新开始
  • 第三方人类取代了现有的人工智能,事情重新开始(现在人与人之间)
  • 第三方 AI 取代现有人类,事情重新开始(现在 AI-to-AI)
  • 其他名称

这些都非常值得拆开包装。

在深入探讨如何处理 AI 和人类分歧背后的狂野和毛茸茸的考虑之前,让我们就非常重要的主题列出一些额外的基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到我们对人工智能和人类之间分歧的关注。

我之前已经指出这些是一些解决分歧的策略:

  • 人工智能和合作的人类解决问题(友好或不友好​​)
  • 默认情况下,人类胜过人工智能
  • 默认情况下,人工智能胜过人类
  • 默认情况下,以其他一些预定的固定分辨率为准
  • 第三方人员被圈入,他们的指示胜过各方
  • 第三方AI环入,其指示凌驾于各方之上
  • 第三方人取代现有人,事情重新开始
  • 第三方AI取代现有AI,事情重新开始
  • 第三方人类取代了现有的人工智能,事情重新开始(现在人与人之间)
  • 第三方 AI 取代现有人类,事情重新开始(现在 AI-to-AI)
  • 其他名称

是时候打开这些包装了。

首先,考虑到这一切 所以专业 分歧。

专业分歧被松散地定义为与工作相关任务相关的分歧。

例如,飞行员和副驾驶之间出现的关于是否继续面临风暴的飞行的分歧可以合理地被标记为专业分歧。 相比之下,在飞行员提倡的咖啡品牌与副驾驶喜欢的品牌之间的激烈分歧很容易被归类为在这种特定情况下的非专业分歧。

当然,如果非专业分歧逐渐演变为专业分歧,我们最终可能会对非专业分歧作为推定的来源或专业分歧的火花感兴趣。 想象一下,飞行员和副驾驶激烈争论哪种咖啡品牌最好,然后令人遗憾地蔓延到飞行特定的问题(双关语!),例如是否起飞。

其次,我们需要牢记专业分歧的严重程度。

也许飞行员和副驾驶或在继续飞行方面存在轻微分歧。 他们并没有发生争执,只是在考虑是否起飞的利弊。 这不是我们通常在此考虑的专业分歧的口径或程度。 问题是,专业分歧可能是暂时的,双方都亲切地或至少及时地制定了解决方案。 一般来说,范围内的专业分歧的焦点是那些看似棘手的事情,而双方的分歧却是坚定不移的。

第三,通常必须有一些严肃的事情才能让这些指导方针发挥作用。

如果航班因暴风雨而处于危险之中,或者飞机被认为没有为这样的旅程做好充分准备,那么选择飞行还是不飞行是一个决定性的生死攸关的决定。 这是严肃的事情。 我们仍然可以将指导方针应用于影响较小的专业分歧,尽管它可能比它的价值更麻烦。

好的,我们的考虑是:

  • 分歧主要是专业导向的,而不是非专业的
  • 分歧具有持续的性质,而不仅仅是暂时的或容易解决的
  • 分歧预示着严重的后果,通常是有影响力的结果
  • 各方争执不下,他们似乎难以对付

现在让我们仔细看看我建议的关于如何处理此类专业分歧的指导方针或方法。

人工智能和合作的人类解决问题(友好或不友好​​)

我以人工智能和人在循环中能够解决他们之间的专业分歧的直接可能性开始列表。 看来,也许飞行员和副驾驶这两个人的例子说明了这种情况。 他们不知何故决定返回航站楼,分道扬镳。 可能是人工智能系统和人类能够找出双方普遍满意的解决方法,从而圆满结束。

默认情况下,人类胜过人工智能

在设置 AI 时,我们可能会编写一条规则,即每当出现专业分歧时,人在循环中将始终占上风。 这将是显式编码的默认值。 我们也可能允许某种形式的超越,以防万一,尽管现行规则是人类占上风。

默认情况下,人工智能胜过人类

在设置 AI 时,我们可能会编写一条规则,即每当出现专业分歧时,AI 将始终胜过人工参与。 这是显式编码的默认值。 我们也可能允许某种形式的覆盖,以防万一,尽管常规规则是人工智能占上风。

默认情况下,以其他一些预定的固定分辨率为准

在设置 AI 时,我们可能会编写一个规则,即每当与人类在环中出现专业分歧时,其他一些预先确定的固定分辨率将占上风。 默认情况下,人在循环中不会占上风。 默认情况下,AI 不会占上风。 还有其他一些预先确定的解决方案。 例如,也许会抛硬币来决定两方中的哪一方被认为是正确的道路。 这显然显得相当武断。 因此,另一个示例方法是启动一个专门的规则,该规则根据来自双方的输入计算一个值,并得出一个作为决胜局的结果。

第三方人员被圈入,他们的指示胜过各方

在出现专业分歧时,规则可能是调用作为人类的第三方并将其循环到设置中以做出解决分歧的决定。 人工智能被编程为服从第三方人类的任何决定。 已经在人在回路中的人已经被预先指示,如果出现这种情况,他们也必须服从第三方人。 顺便说一句,如果决策不同意人在环的姿势,您可能会预计,人在环可能会担心第三方人的决定是否同意。

第三方AI环入,其指示凌驾于各方之上

在出现专业分歧时,规则可能是调用不同 AI 系统的第三方并将其循环到设置中以做出解决分歧的决定。 原始 AI 被编程为遵循第三方 AI 的决定。 已经在“人机交互”中的人事先被告知,如果出现这种情况,他们也必须服从第三方人工智能。 顺便说一句,如果第三方 AI 的决定与人工参与的姿势不一致,您可能会预计人工参与可能会担心加入第三方 AI 的决定。

第三方人取代现有人,事情重新开始

在出现专业分歧时,人在回路中将被第三方取代,该第三方是人,并成为今后的人在回路中。 作为任务的原始人在循环中的人不再被视为手头任务的一部分。 对于现在被替换的人在循环中会发生什么,这是一个开放的方面,但我们肯定地说,他们在工作任务中不再有任何持续的角色。

第三方AI取代现有AI,事情重新开始

一旦出现专业分歧,人工智能就会被第三方人工智能取代,这就是今后用于手头工作任务的人工智能。 最初用于该任务的 AI 不再被视为手头任务的一部分。 对于现在被取代的人工智能会发生什么,这是一个开放的方面,但我们要说的是,人工智能肯定不再在工作任务中扮演任何持续的角色。

第三方人类取代了现有的人工智能,事情重新开始(现在人与人之间)

一旦出现专业分歧,人工智能将被第三方人员取代,该人现在成为被认为是合作方,将用于手头的工作任务。 最初用于该任务的 AI 不再被视为手头任务的一部分。 对于现在被取代的人工智能会发生什么,这是一个开放的方面,但我们要说的是,人工智能肯定不再在工作任务中扮演任何持续的角色。 简而言之,这现在变成了由两方人对人执行的任务。

第三方 AI 取代现有人类,事情重新开始(现在 AI-to-AI)

如果出现专业分歧,则人工在环被第三方 AI 取代,该 AI 将成为之前人工在环的补充。 作为任务的原始人在循环中的人不再被视为手头任务的一部分。 对于现在被替换的人在循环中会发生什么,这是一个开放的方面,但我们肯定地说,他们在工作任务中不再有任何持续的角色。 简而言之,这现在变成了两方 AI 到 AI 来执行任务。

其他名称

可以设计其他变体来处理专业分歧,但我们在此介绍了一些关键因素。

我们如何决定哪种方法适合特定情况?

做出这样的选择涉及各种各样的问题。 有技术方面的考虑。 有商业考虑。 有法律和道德方面的考虑。

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。 人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括(可能令人惊讶或具有讽刺意味地)评估 AI Ethics 如何被公司采用。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了有关人工智能与人类分歧解决方案的任何信息,如果是,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能与人类的分歧

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

对于全自动驾驶汽车,人类和人工智能之间可能不会出现专业分歧,因为可能没有任何人在开始。 当今许多自动驾驶汽车制造商的愿望是将人类驾驶员完全从驾驶任务中移除。 该车辆甚至不包含人类可访问的驾驶控制。 在这种情况下,人类驾驶员(如果存在)将无法参与驾驶任务,因为他们无法访问任何驾驶控制。

对于一些全自动驾驶汽车,一些设计仍然允许人类参与其中,尽管人类根本不必在场或参与驾驶过程。 因此,如果人愿意,人可以参与驾驶。 不过,人工智能绝不会依赖人类来执行任何驾驶任务。

在半自动驾驶汽车的情况下,人类驾驶员和人工智能之间存在手拉手的关系。 人类驾驶员可以完全接管驾驶控制,并从本质上阻止人工智能参与驾驶。 如果人类驾驶员希望让人工智能恢复驾驶角色,他们可以这样做,尽管这有时会迫使人类放弃驾驶控制。

另一种形式的半自动操作将需要人类驾驶员和人工智能以团队的方式一起工作。 人工智能在驾驶,人类在驾驶。 他们一起开车。 人工智能可能会服从人类。 人类可能会服从人工智能。

在某个时刻,循环中的人工智能驾驶系统和人类驾驶员可能会就手头的驾驶任务达到“专业分歧”的关头。

为了说明上述处理专业分歧的一些规则如何难以实施,请考虑调用第三方人员参与此事并提出解决未解决问题的决定的例子。

假设一家汽车制造商或自动驾驶技术公司已安排远程人工操作员访问其车队中车辆的驾驶控制。 人工操作员坐在某个遥远的办公室或类似的环境中。 通过计算机系统,他们可以通过访问自动驾驶汽车上的摄像头和其他传感器设备来查看驾驶场景。 对他们来说,这几乎就像玩在线视频游戏一样,当然,现实生活中的情况可能会产生可怕的后果。

车内的人工智能系统和人类驾驶员正在驾驶一辆半自动驾驶汽车在一条长长的高速公路上行驶。 突然之间,人工智能想要驶入沟渠。 人类驾驶员不想这样做。 两人在驾驶控制上发生争执。

这将如何解决?

我们或许可以事先规定人类总是获胜。 假设我们选择不这样做。

我们本可以事先制定人工智能总是赢的。 假设我们选择不这样做。 总而言之,我们没有采用任何这些规则,只是我们决定允许第三方人员进行干预并解决任何实质性的专业分歧。

在这个用例中,人工智能和人类驾驶员正在为驾驶控制而战。 假设这是传达给远程人工操作员(我们的第三方人工)。 远程操作员检查正在发生的事情并决定避开沟渠,似乎避免了人工智能试图做的事情。 与此同时,假设远程人类操作员驾驶迎面而来的车辆,这可能是人工智能和车内人类驾驶员都不想做的事情。

关键是,这条规则的实施方式是第三方人工操作员能够完全覆盖人工智能和人工在环。 这是否会产生良好的结果肯定是不确定的。

我将使用这个例子来强调一些关于这些问题的额外见解。

你不能厚颜无耻地假设,仅仅因为这些规则之一被实施,解决分歧的结果必然是保证好的结果。 可能不是。 没有任何铁定的永远正确的规则可供选择。

其次,其中一些规则可能无法切实执行。

考虑当 AI 和人类驾驶员为驾驶控制争吵时,远程人类操作员进行干预的示例。 远程操作员可能需要几秒钟的时间才能弄清楚发生了什么。 到那时,车辆可能已经落入沟渠或产生其他不良后果。 此外,假设车辆的位置排除了远程访问,例如在没有任何网络电子连接的地方。 或者,车辆的网络功能在特定时刻可能无法正常工作。

如您所见,该规则在纸面上可能看起来很花哨,尽管将规则投入实际使用可能是一种非常困难或非常有机会的方法。 请参阅我对自动驾驶汽车和自动驾驶汽车远程操作员的批判性报道 这里的链接.

我想简要介绍另一个相关主题,我将在即将进行的分析中更深入地介绍该主题。

对自动驾驶汽车和半自动驾驶汽车日益增长的担忧之一是所谓的 热土豆综合症.

这笔交易。

一个人工智能驾驶系统和一个人类正在共同驾驶。 一个可怕的困境出现了。 人工智能已被编程为在可怕的时刻发生时退出驾驶任务并将事情交给人类。 这似乎是“明智的”,因为在任何潜在的专业分歧中,我们似乎都在援引关于人类是默认“赢家”的规则。

但人工智能退出可能是出于更邪恶或被认为是阴险的目的。 可能是汽车制造商或自动驾驶技术公司不希望他们的人工智能在发生车祸时被视为“过错方”。 为了避免被这样束缚,人工智能突然将控制权交给了人类。 瞧,人类现在大概对车辆负全部责任。

更重要的是,假设人工智能在发生崩溃前一秒完成了这个交接。

人类真的有任何可用的时间来避免崩溃吗?

可能不会。

假设人工智能在几毫秒或几纳秒的时间内进行切换。 我敢说人类做任何事情来避免崩溃的可能性基本上为零。

从汽车制造商或自动驾驶汽车公司的角度来看,当这样的车祸发生时,他们可以试着表现得好像他们的手是干净的。 这辆车是由一个人驾驶的。 人工智能没有驾驶汽车。 唯一“合乎逻辑”的结论似乎是人类必须有过错,而人工智能必须完全无可指责。

这是一个瓦罐。

我将在即将发布的专栏中更深入地讨论这个问题。

结论

职业分歧会发生。

很难想象有两方共同执行任务的任何复杂任务,并且永远不会出现任何专业分歧。 这似乎是一个幻想世界,或者至少是一个非常罕见的地方。

今天,我们有很多人与人之间的职业分歧实例,每天都会以一种或另一种方式和平而明智地解决这些问题。 事实上,我们经常故意设置情境来培养和暴露专业分歧。 您可能会争辩说,这展示了有时两个头脑胜于一个头脑的著名智慧。

随着人工智能变得越来越普遍,我们将有很多人工智能对人或人对人工智能的两方任务执行者,并且将会有 专业分歧 那将会发生。 懒惰的方法是总是顺从于人。 这可能不是最合适的方法。 人工智能可能是更好的选择。 或者上述其他规则之一可能是一种更合理的方法。

有一句圣人的话经常重复,我们通常都应该能够同意不同意,尽管当它归结为电线时,有时必须明确解决分歧,否则手头的事情将导致无法形容的灾难。 我们不能让分歧在葡萄藤上枯萎。 时间可能至关重要,生命可能危在旦夕。

有一个明确的要求,需要一些审慎的方法来解决分歧,即使不一定如此,包括当人工智能和人类在环没有看到眼睛对眼睛或字节对字节时。

我相信你不会不同意这个完全可以接受的论点。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where-飞行员和副驾驶不同意起飞前突然选择出租车返回终端并各自走自己的路/