人工智能伦理对标准化人工智能风险管理框架的前景表示欢迎,这也可以促进自动驾驶汽车的发展

我们似乎一再被告知,冒险在生活中很重要。

如果您查看任何日常引用的报价清单,就会发现大量生活技巧告诉您要接受风险。 抓住机会,爬上四肢。 抛开束缚的烦恼,带着对风险的惊奇自由飞翔。 风险是你的朋友。 风险使世界运转。 简单地说,没有风险,就没有收益。

尽管这些关于成为冒险者的热情洋溢的鼓励似乎是明智的,但不知何故,关于风险不利因素的平衡和发人深省的想法却没有说出来。 风险会让你处于危险之中。 危险的行为可能会造成可怕的伤害。 简单地说,风险不是没有风险的。

乔治巴顿将军著名地断言,我们应该始终保持风险意识,充分考虑 计算 风险,他将其描述为与鲁莽完全不同。 因此,请事先考虑您愿意承担的风险。 了解已知风险和潜在的未知风险。 当涉及到风险和承担风险时,一个人必须了解他们的局限性。

我将“风险”的性质和范围作为一种可分析描述的现象提出,以强调在人工智能方面,越来越需要确定我们扩大采用人工智能的风险有多大。 人工智能并非没有风险。 相反,人工智能带来了许多相当大和可怕的巨大风险,需要我们深呼吸并开始认真计算这些风险是什么。 当我们一头扎进拥抱 AI 的混乱热潮中时,我们必须睁大眼睛并了解 AI 的风险。

请意识到今天所有的利益相关者都面临着人工智能风险。

例如,一家正在制作人工智能系统的公司冒着人工智能最终可能对使用人工智能系统的人造成某种形式的实质性伤害的风险。 伤害可能是经济上的、心理上的,也可能是身体上的伤害,可能会伤害或杀死某人。 该公司的高管可能会因设计和发布人工智能而被追究法律责任。 构建 AI 的 AI 开发人员势必被追究责任。 有很多人参与了人工智能的制作和推广,他们都可以被认为对他们所允许的不利发生负有共同责任和责任。

将 AI 风险视为漂浮并附加到所有与 AI 相关联的接触点的事物。 人工智能系统的用户正在承担一定的风险。 他们可能会受到人工智能的伤害。 那些设计人工智能的人正在承担与其人工智能可能产生的有害结果相关的一定风险。 风险在人工智能领域无处不在,但往往似乎完全被忽视,而且通常被严重低估。

坏消息是对人工智能风险的关注不足。

好消息是,人们对理解和衡量人工智能风险的重要性的迅速认识正在加速。 作为这种意识的健康标志,我们可以看看正在制定的 人工智能风险管理框架 (RMF) 美国国家标准与技术研究院 (NIST) 正在开展的工作。 我将在此引用日期为 17 年 2022 月 1.0 日的文件草案。正在进行各种会议以进一步完善和扩展该文件。 一个名为 AI RMF 2023 的半最终版本计划于 XNUMX 年 XNUMX 月发布。

在我进入现有的 AI RMF 草案之前,我想强调任何真正对 AI 伦理感兴趣的人都应该特别关注 AI RMF 的组成部分。 除了掌握草案之外,您还可以考虑参与起草工作并协助制定 AI 风险管理框架(请注意,NIST 正在举办欢迎此类投入的公共研讨会)。 你确实可以帮助创造历史。

让我们简要探讨一下存在于 AI 伦理和 AI 风险之间的重要混搭。 AI 风险是 Ethical AI 效用不可或缺的一部分。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接, 仅举几个。 你可以很容易地声称 AI 风险贯穿于所有 AI 道德原则或戒律中。 一个方便的思维模型是设想一个电子表格,其中人工智能伦理的原则作为水平元素(列),人工智能风险是一个垂直组成部分(行),编织在水平方向上并贯穿水平方向。

谈到 AI 风险,人们会联想到一种不同的 AI 方式的细微差别。 尽管那些关于 AI 的类人奇迹的头条新闻如此耀眼,但今天没有任何 AI 是有感知的。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我在这里关注的人工智能类型包括我们今天拥有的非感知人工智能。

如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

让我们简要介绍一下我之前在我的专栏中讨论过的一些整体道德 AI 规则,以说明对于任何人来说应该是一个重要的考虑因素,并且每个人都在制作、部署或使用 AI。 然后,我们将深入探讨人工智能风险的主题。

正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的。
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展。
  • 责任: 那些设计和部署人工智能使用的人必须承担责任和透明度。
  • 公正: 不制造偏见或根据偏见行事,从而维护公平和人的尊严。
  • 可靠性: 人工智能系统必须能够可靠地工作。
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,以便相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的理解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

我在前面提到过,人工智能风险是一个贯穿所有人工智能伦理准则的问题。 为了帮助充分展示这种相似性,请考虑重新措辞关键的 AI 道德原则,以阐明 AI 风险问题:

  • 透明度和相关的人工智能风险
  • 正义与公平以及相关的人工智能风险
  • 非恶意和相关的人工智能风险
  • 责任和相关的人工智能风险
  • 隐私和相关的人工智能风险
  • 益处和相关的人工智能风险
  • 自由与自治以及相关的人工智能风险
  • 信任和相关的人工智能风险
  • 可持续性和相关的人工智能风险
  • 尊严和相关的人工智能风险
  • 团结和相关的人工智能风险

在我们打开它之前,让我们考虑一下“风险”这个词的含义。

我这样说是因为风险作为一个流行词具有不同的含义,具体取决于您与谁交谈。 在探索这一方面时,我还将提出另一个 NIST 文件,如果你打算进入 AI RMF,你应该考虑研究它,即有一个全面的 NIST 风险管理框架 (RMF),它涵盖了广泛的信息技术系统和风险管理,已经有一段时间了。 AI RMF 本质上是更广泛的 RMF 的实例化(您可能会厚颜无耻地说 AI RMF 是众所周知的 RMF 的儿子或女儿)。

根据整个 NIST RMF,以下是风险的定义:“风险是衡量实体受到潜在情况或事件威胁程度的指标。 风险也是环境或事件发生时产生的不利影响以及发生可能性的函数。 风险类型包括项目风险; 合规/监管风险; 财务风险; 法律风险; 任务/业务风险; 政治风险; 安全和隐私风险(包括供应链风险); 项目风险; 声誉风险; 安全风险; 战略规划风险。”

NIST AI RMF 草案以这种方式定义风险:“风险是衡量实体受到潜在情况或事件负面影响程度的指标。 通常,风险是 1) 如果情况或事件发生可能产生的不利影响的函数; 2) 发生的可能性。 实体可以是个人、团体或社区,也可以是系统、流程或组织。”

挖得更深,也许会使水浑浊, 斯坦福哲学百科全书 方便地指出,风险通常具有五种不同的含义:

1) 风险是可能发生也可能不会发生的不希望发生的事件

2) 风险是 原因 可能发生也可能不会发生的不想要的事件

3) 风险是 可能性 可能发生也可能不会发生的不想要的事件

4) 风险是 统计期望值 可能发生也可能不会发生的不想要的事件

5) 风险是在已知概率的条件下做出决定的事实

现在,让我们共同同意,我们将在本次讨论中按照上述 NIST RMF 和 NIST AI RMF 定义以一般化的方式处理风险的概念,而不是停留在曲折的变化上。 我相信你对我的上述基础感到满意,即暂时解决了 AI 的上下文含义和风险的含义。

人工智能风险管理框架是一种找出人工智能风险的方法,并希望能够管理这些风险。

根据 AI RMF,以下是正在制定的 AI 风险管理框架的正式目的或愿望:“AI 风险管理框架(AI RMF,或框架)可以解决 AI 系统特有的挑战。 该 AI RMF 是描述基于 AI 的系统的风险与其他领域的风险有何不同的初步尝试,并鼓励和装备 AI 中的许多不同利益相关者有目的地应对这些风险。 这一自愿框架提供了一个灵活、结构化和可衡量的流程来解决整个人工智能生命周期中的人工智能风险,为开发和使用值得信赖和负责任的人工智能提供指导。”

NIST 还意识到,作为拟议标准的 AI RMF 必须易于使用,随着技术的进步而更新,并体现其他核心标准:“风险管理框架应提供结构化但灵活的方法来管理企业和社会风险人工智能系统融入产品、流程、组织、系统和社会的结果。 管理企业 AI 风险的组织还应注意更大的社会 AI 考虑因素和风险。 如果风险管理框架可以帮助有效解决和管理人工智能风险和不利影响,它可以带来更值得信赖的人工智能系统。”

你们中的一些人可能会质疑为什么我们需要 AI RMF 而不是仅仅依赖已经现成的通用 RMF。 我们不是在重新发明轮子吗? 答案是否定的,我们不是在重新发明轮子。 轮子可根据特定需要进行定制。 一个理性的人可能会承认有各种不同形状和大小的轮子。 飞机上的轮子无疑与儿童三轮车上的轮子完全不同。 当然,它们都是轮子,但它们的设计不同,因此具有不同的特征,也可以正确地进行检查。

AI RMF 文件表达了类似的观点:“任何软件或基于信息的系统的风险都适用于 AI; 这包括与网络安全、隐私、安全和基础设施相关的重要问题。 该框架旨在填补与人工智能相关的空白。”

在现有版本的 AI RMF 草案中,他们定义了四个利益相关者群体:

  • 人工智能系统利益相关者
  • 操作员和评估员
  • 外部利益相关者
  • 一般公众

关于人工智能风险的大部分注意力通常集中在人工智能系统的利益相关者身上。 这就说得通了。 这些是参与构思、设计、构建和部署人工智能的利益相关者。 此外,我们可以包括那些获得或许可使用人工智能的人。 我们倾向于将这些利益相关者视为高度可见的各方,他们在引导人工智能系统的存在和促进其部署方面做了繁重的工作。

您可能没有同等考虑或认为 AI 操作员和评估员是有用的。 正如 AI RMF 中所述,AI 操作员和评估员这样做:“操作员和评估员根据技术和社会技术要求提供系统性能的监控和正式/非正式测试、评估、确认和验证 (TEVV)。 ” 它们对人工智能至关重要,也在人工智能风险范围内。

外部利益相关者将包括广泛的实体,包括贸易团体、倡导团体、民间社会组织等。 公众包括消费者和其他经历与不良人工智能相关的风险的人。

您可能想知道在人工智能方面可以承受多少风险。

很抱歉,对于我们可能认为值得或社会允许的可容忍或可接受风险的数量,我们没有特定的数字或指定的值。 对于那些想要标准化指定数字指示的人,您需要通过 AI RMF 草案中的这一点来缓和这种愿望:“AI RMF 没有规定风险阈值或值。 风险承受能力——组织或社会可接受的风险水平或不确定性程度——是特定于上下文和用例的。”

AI RMF 推荐的用于检查和管理 AI 风险的方法被描述为由标记为 Map、Measure 和 Manage 的基本步骤组成。 地图功能界定了人工智能系统的风险。 Measure 功能包括 AI 风险的跟踪和分析。 管理功能利用地图和测量功能,然后尝试最大限度地减少不利影响,同时最大限度地发挥人工智能的优势。 根据 AI RMF 草案,该标准的后续版本将包括一个实践指南,以展示使用 AI RMF 的示例和实践。

在更广泛的 NIST RMF 标准中,有一组经过修饰的七个步骤,与进行总体 IT 和系统风险管理工作相吻合。 我发现这七个步骤很容易记住,包括在构建和部署 AI 系统时。

这七个步骤是(引用 NIST RMF 标准):

1. 通过建立管理安全和隐私风险的上下文和优先级,准备从组织和系统级别的角度执行 RMF。

2. 根据对损失影响的分析,对系统以及系统处理、存储和传输的信息进行分类。

3. 为系统选择一组初始控制并根据需要调整控制以根据风险评估将风险降低到可接受的水平。

4. 实施控制并描述控制如何在系统及其操作环境中使用。

5. 评估控制以确定控制是否正确实施、是否按预期运行以及是否产生满足安全和隐私要求的预期结果。

6. 基于对组织运营和资产、个人、其他组织和国家的风险是可接受的确定,授权系统或公共控制。

7. 持续监控系统和相关控制,包括评估控制有效性、记录系统和运行环境的变化以及进行风险评估。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示人工智能风险的本质。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于 AI 的真正自动驾驶汽车的出现是否说明了有关 AI 风险的任何信息?如果是,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能风险

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和人工智能风险本质的道德人工智能可能性。

作为人类驾驶员,您是经过微调的风险计算器。

没错,当您驾驶汽车时,您的实时任务是找出行人可能突然冲入街道的风险,或者您前面的汽车会意外踩刹车的风险。 在我们面临的驾驶情况中,有一种明显的模糊不清和模糊性。

您试图对驾驶的每一刻所涉及的风险做出最好的评估,然后您必须承担评估的后果。 可悲的是,仅在美国每年就有大约 40,000 人死于车祸,还有大约 2.5 万人受伤(请参阅我收集的此类统计数据,网址为 这里的链接)。 有时你把事情切得很近,并通过你的牙齿皮肤逃避糟糕的情况。 其他时候,您会误判并撞到某物或与某人相撞。

随着驾驶工作的进行,您通常会在心理上更新风险方面。 想象一下一群孩子想要乱穿马路的简单案例。 起初,您可能会将他们乱穿马路的风险评价为很高。 但随后您注意到附近的一个成年人正在敦促他们不要乱穿马路,因此孩子们闯入街道并被撞倒的风险降低了。 请注意,尽管风险并未降至零风险,因为他们仍然可以选择进入道路。

汽车领域有一个众所周知的风险相关标准,称为汽车安全完整性等级 (ASIL) 风险分类方案,基于称为 ISO 26262 的官方文件。我已经介绍了各种 AI 自动驾驶汽车驾驶以风险为导向的考虑因素 这里的链接 并且 这里的链接.

在确定驾驶时的风险时,这里有一个等式,它提供了一种让您绕过风险方面的方法:

  • 风险 = 严重性 x(暴露 x 可控性)

让我们探索公式及其组成部分。

在确定驾驶时的风险时要考虑严重性,因为您可能会走向一堵砖墙,最终导致您和您的乘客受伤或死亡(严重程度很高),同时在高速公路上撞到一些废弃的汽水罐可能严重程度相对较低。 正式根据 ISO 标准,严重程度是对可能出现的潜在伤害的衡量标准,分为 (S0) 无伤害、(S1) 轻度和中度伤害、(S2) 重伤、(S3) 危及生命和致命伤害.

暴露是指事件发生的可能性是很大还是不太可能,因为您暴露于该问题(即处于危险性质的操作情况中的状态)。 根据 ISO 标准,曝光可分为 (E0) 可忽略不计、(E1) 极低、(E2) 低、(E3) 中等和 (E4) 高。

可控性是指能够操纵汽车以避免即将发生的灾难的能力。 这可以是完全避免这种情况,也可以只是避开它,或者无论你做什么,都没有足够的手段来转向、制动或加速和避免这一刻。 ISO标准将可控性分为(C0)一般可控,(C1)简单可控,(C2)一般可控,(C3)难或不可控。

通过结合严重性、暴露性和可控性这三个因素,您可以得出针对给定驾驶情况的风险评估指标。 据推测,我们在认知上是在头脑中这样做的,尽管我们实际上是如何这样做以及我们是否甚至使用这种明确的逻辑是有争议的,因为没有人真正知道我们的大脑是如何以这种能力工作的。

不要被看似数学的公式所误导,并认为驾驶时衍生风险的问题在某种程度上是完全明确的。 有大量的判断会影响你作为人类如何对暴露、严重性和可控性进行分类。

这种驾驶风险的推导对人类来说是困难的。 试图让 AI 做同样的事情也非常困难。 值得注意的是,人工智能驾驶系统的核心能力需要对驾驶风险做出基于算法的决策 (ADM)。 您可能会惊讶地发现,当今的许多 AI 驾驶系统并没有可靠地进行驾驶风险的计算和评估。 通常,使用非常粗略和高度简化的方法。 这是否会扩大到自动驾驶汽车的广泛采用是一个悬而未决的问题。 关于这个困境的更多信息,与著名的电车问题思想实验有关,请参阅我的分析: 这里这个链接.

另一个担忧是,人工智能驾驶系统通常以拜占庭式的方式编程,处理驾驶风险方面的部分深埋在代码的泥沼中。 关于特定汽车制造商或自动驾驶技术公司如何选择对其人工智能系统的驾驶风险能力进行编程,几乎没有透明度。 一旦自动驾驶汽车变得更加普遍,我们就有可能看到监管和公众审查开始实施。

回想一下,人工智能风险管理框架定义了四个利益相关者群体,可以轻松查看自动驾驶汽车:

  • 人工智能系统利益相关者 — 汽车制造商和自动驾驶技术公司
  • 操作员和评估员 – 车队运营商
  • 外部利益相关者 – 市领导、监管机构等
  • 一般公众 – 行人、骑自行车的人等。

汽车制造商和自动驾驶技术公司应该检查与他们正在开发和部署在自动驾驶汽车中的人工智能相关的风险。 尽管人工智能在自动驾驶汽车和无人驾驶汽车中还有其他用途,但人工智能风险的主要来源是人工智能驾驶系统元素。

预计会有车队运营商负责运行大型自动驾驶汽车以供公众使用。 这些车队运营商通常应该将自动驾驶汽车保持在适当的可驾驶状态,并确保自动驾驶汽车可以安全使用。 他们的重点主要针对硬件,而不是处理板载软件。 无论如何,他们也应该考虑与自动驾驶汽车及其运营用途相关的人工智能风险。

在自动驾驶汽车获准供公众使用的地方,很可能会得到各个城市、州,有时甚至是联邦级别的批准和可能的监督。 还有各种现行法律和新颁布的法律来管理如何将自动驾驶汽车部署到公共道路上,请参阅我的报道 这里的链接. 这些具有公众意识的利益相关者还应该研究与自动驾驶汽车相关的人工智能风险。

只要自动驾驶汽车被放置在公共高速公路和小路上,公众也应该考虑所涉及的人工智能风险。 行人有被自动驾驶汽车撞向他们的风险。 骑自行车的人也一样。 所有其他道路使用者都可能容易受到与在任何给定区域使用自动驾驶汽车相关的人工智能风险的影响。

结论

我们需要更多地关注人工智能风险。 拥有标准化的人工智能风险管理框架将为确定人工智能风险提供方便的工具。 人工智能伦理准则的扩大使用也很有可能带来确定人工智能风险的需要,这是遵守人工智能伦理准则的重要组成部分。

我开始讨论时指出巴顿将军说我们应该明确计算风险。 他还著名地告诫人们总是应该做的比他们要求的要多。

我恳请您考虑,即使您不被要求检查人工智能风险,您也应该认真地超越规范并努力做到这一点。 让我们都直面人工智能风险,并确保我们不会爬上我们无法安全返回的不稳定的社会地位。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/04/11/ai-ethics-welcomes-the-prospects-of-a-standardized-ai-risk-management-framework-which-could-支持自动驾驶自动驾驶汽车的努力/