这就是为什么人工智能伦理吹捧以人为中心的人工智能对我们的人工智能共生存在至关重要,例如自动驾驶汽车的出现

您可能听说过或看到过,世界应该关注以人为本的人工智能 (HCAI)。

它是什么? 为什么我们需要它? 它是长期的还是只是一时兴起? 它究竟是如何工作的? 许多其他类似的问题通常来自那些不熟悉以人为本的人工智能的本质和实质的人。

让我们解开这个问题,把故事讲清楚。

此外,我将提供一些有用的示例来说明 HCAI 的重要性。 这些示例将基于基于人工智能的自动驾驶汽车的出现,例如最新、最出色的自动驾驶汽车,它们开始被放置在我们的公共道路上。

准备好迎接激动人心且内容丰富的旅程。

开始这个讨论的合乎逻辑的方式包括谈论是什么促使了以人为本的运动。 了解阴对于了解阳至关重要。 请注意,在我们确定以人为本意味着什么之前,我不会提及人工智能。 暂时将 AI 话题从您的脑海中抛开,我们将在适当的时候重新展示 AI。

一场所谓的大逃杀已经发生在一些人所说的 以技术为中心 透视与对比 以人为本 在设计新技术方面的观点。

也许你不知道,热切的信念是,我们主要专注于以技术为中心的戒律已经太久了。 每当设计一些新的技术创新时,注意力就会转向技术方面。 一些人会争辩说,我们经常陷入混乱的技术竞赛中,以推出最新的技术,无论它如何运作以及人们可能会如何反应。

有很多硅谷比喻符合这种心态。 快速失败,经常失败是典型的标语之一。 另一个是假的,直到你成功为止。 宏大的想法是,你只是陪审团装备你能做的任何装置,然后开始销售或让人们使用它。 当然,疯狂的组合可能有粗糙的边缘。 而且,是的,人们可能会被这个小玩意弄糊涂甚至受伤,但无论如何,第一名被认为是技术人员的高度评价,所以鱼雷和全速前进。

这种技术优先方法的潜在危险是,等式中人性的一面被低估或完全被忽视。 与其疯狂地将新技术投入社会手中,人们越来越强烈地呼吁深呼吸并首先确保该发明与人类兼容。 人们能否充分使用该设备并且不会受到伤害? 新奇的项目是易于使用还是几乎不可能弄清楚? 等等。

如果我们确实表面上以技术为中心,那么是时候转变为一种新的思维模式,即以人为中心。 技术不能成为钦佩的唯一决定因素。 代替技术是最终目的,人类能否利用技术并从中获得实质性收益的问题是值得称道的发明和现代化的真正标志。 一个希望是,通过将引力转移到以人为中心的考虑,以技术为中心的主导缺乏人性内省将会出现。 根据我对人工智能和所谓的分析的分析,我已经更深入地讨论了这种思维方式的变化 禁忌知识,请参阅 这里的链接.

当然,在当今世界,我们有一些技术人员意识到并接受了以人为本的观点,而另一些技术人员要么不知道,要么认为它不适用于他们。 因此,有很多以技术为中心的努力仍然像精巧的玻璃器皿精品店里的公牛一样向前冲刺。 毫无疑问。

令人烦恼的挑战是,一些以技术为中心的努力仍然会成功,因此很难以某种方式完全抹去或羞辱以技术为中心的道路。 结果,一些人完全站在以人为本的阵营中,而另一些人则留在了以技术为中心的阵营中。 一个经久不衰的说法是,给猫剥皮的方法不止一种(哎呀,这是一句需要退休的过时格言)。

另一个转折点是,以人为本的阵营坚定地断言,你不会因为采用以人为本的方法而牺牲任何技术点。 对于那些顽固地认为他们以人为中心而陷入肮脏的兔子洞的技术人员来说,反驳说这实际上会增加他们创造惊人技术的机会。 简单地考虑一下。 缺乏以人为本的技术可能很难被人们采用。 包含并通过以人为本的洞察力塑造的技术很可能很容易被人们热切地采用。

你可以吃蛋糕也可以吃。

这强调了在以技术为中心和以人为中心之间可能没有严重的分歧,因为存在共存的空间。 两者同时做,有人争辩说。 将两者混合,使它们相等并相互兼容。 反对者坚持认为你必须选择其中之一。 要么你以技术为中心,把以人为中心放在一边,或者你以人为中心,把技术中心转移到狗窝里。

无论如何,让我们从表面上看,在设计新技术时,我们应该认真考虑与人类相关的方面。 在提出新技术时,我们必须小心不要低估与人类相关的特征的重要性。 捕捉这一点的便捷方法是说我们需要以人为本。 以一件事与另一件事为中心的想法有时会很有帮助,有时会令人遗憾地分散注意力。

接下来,我们可以探索以人为本的哲学如何在现实世界的实践中得以体现。

假设您正在着手设计和开发一个新系统,该系统将包含最新和最伟大的技术。 如今,那些制作系统的人通常都意识到您需要考虑设计和开发过程的整个生命周期。 过去,很多注意力只集中在设计上,或者只集中在系统的构建上。 结果,我们有很多系统在部署时最终失败,因为在设计系统的众多相互关联的阶段中交接不连贯和不充分。 在整个系统生命周期中,您非常需要密切关注球。

已经建立了各种系统生命周期方法来指导整个系统工作。 这些方法类似于模板化的食谱,展示了在工作的每个阶段需要完成的一般方面。 您可以将它们重新应用到您的特定系统工作中,以适合您正在组合的任何内容。

我们现在准备好连接这些点。 在创建系统生命周期方法论方面已经付出了很多努力,这些方法论特别热衷于以人为本的考虑的重要性。 这已被称为以人为本的设计(HCD)。

在最近的美国国家标准与技术研究院 (NIST) 文件中,以人为中心的设计的一个非常方便的定义或解释由以下段落组成:系统,将用户置于流程的核心。 人类及其需求推动了这一过程,而不是以技术为中心。 HCD 作为其他开发生命周期的一部分,包括瀑布模型、螺旋模型和敏捷模型。 以用户为中心的设计、HCD、参与式设计、协同设计和价值敏感设计都有关键的相似之处; 在最高层次上,他们寻求为人类提供最终对他们的生活有益的设计。 此外,通过将人类置于此类方法的中心,他们自然会更深入地关注更大的社会考虑因素,例如公平、偏见、价值观和道德规范。 HCD 致力于创造更多可用的产品来满足其用户的需求。 这反过来又降低了最终系统交付不足、对用户构成风险、导致用户伤害或失败的风险”(根据美国商务部,NIST 特别出版物 1270,2022 年 XNUMX 月, 迈向识别和管理人工智能偏见的标准 作者 Reva Schwartz、Apostol Vassilev、Kristen Greene、Lori Perine、Andrew Burt 和 Patrick Hall)。

NIST 报告还适当地提到了涵盖以人为本设计的国际标准化组织 (ISO) 标准(根据 ISO 9241-210:2019),这些显着特征被视为基础:

  • 对用户、任务和环境(使用环境)的明确理解
  • 用户参与整个设计和开发
  • 以人为中心的评估驱动和细化设计
  • 设计、测试和修改原型的迭代过程
  • 解决整个用户体验
  • 包含多学科技能和观点的设计团队

让我们快速回顾一下到目前为止我们所涵盖的内容。

我相信你现在已经意识到这种正在朝着以人为中心的技术的运动,并且可以通过使用为那些想要真正制作以人为中心的系统的人而精心设计的方法来帮助这一运动。

人工智能在哪里适合所有这些?

十分简单。

那些设计和开发人工智能的人经常陷入长期的陷阱,即过度专注于技术本身。 你可以很容易地指出许多明显以技术为中心而不是以人为中心的人工智能系统(我将暂时分享一些关于自动驾驶汽车的例子)。

人们很自然地认为,在人工智能领域公理化地灌输一种以技术为中心的诱惑。 每个人都在争先恐后地试图使人工智能成为越来越先进的能力。 一些人认为,也许我们可以让当代人工智能进入一种模式,然后它会以某种方式进入一种计算认知超新星并涌现出感知能力(见我在 这里这个链接).

澄清一下,我们还没有任何有感知的人工智能。 我们不知道是否有可能产生有感知的人工智能,也不知道有感知的人工智能是否会奇迹般地出现。 今天所有的人工智能都是无感知的,也不接近有感知的。 想要澄清事实,因为有大量的头条新闻表明我们要么拥有感知人工智能,要么即将拥有它。 不是这样。

回到对以人为本的设计的关注,要点是尝试让那些制作人工智能的人转向以人为本的观点是非常有意义的。 与短视的技术优先人工智能不同,以设计以人为中心的人工智能为目标似乎是谨慎且完全有利的。 这与据说适用于任何技术的尖锐想法相同。

我们不妨将那些自吹自擂的以人为本的理念应用到人工智能系统中。

这样做催生了一个以人为中心的人工智能领域,通常缩写为 HCAI 或有时简称为 HAI。 以下是描述 HCAI 的简洁方式:“以人为中心的人工智能 (HCAI) 是一个新兴的学术领域,它在人工智能的背景下重新概念化 HCD,提供以人为中心的人工智能设计隐喻和建议的治理结构,以开发可靠、安全和值得信赖的治理结构AI 系统”(根据之前引用的 NIST 报告)。

HCAI 是 AI 和 HCD 的混搭。

这可能看起来有点神秘,而且缩写过于臃肿。 扩展版本是说以人为中心的人工智能是人工智能和以人为中心的设计原则的混搭。 我们希望摆脱仅仅基于以技术为中心的规则设计人工智能的趋势,而是鼓励以人为本的偏好。

您现在知道 HCAI 是什么。 我们需要继续讨论以前的问题。

我们能否让 AI 开发人员及其公司领导采用以人为本的 AI 方法?

可能是,可能不是。

回想一下,我之前曾指出,并非每个人都必须总体上以人为本。 对于以人为中心的人工智能领域的特殊包含,也可以这样说。 有些人不遵守,因为他们不知道 HCAI 是什么。 其他人粗略地看看 HCAI 并决定他们宁愿继续做他们已经在做的事情。 你也有愤世嫉俗的人,他们试图诋毁以人为本的人工智能,认为它是一种感觉良好的敏感方法。 这通常会吸引那些宁愿沉迷于技术而不处理他们认为是多余的事情的全技术位和字节类型的人。

请允许我确定一下为什么以人为中心的 AI (HCAI) 正在获得力量并成为任何示范性 AI 工作的重要组成部分。

你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

我对 AI Ethics 和 Ethical AI 的广泛报道可以在 这里这个链接这里这个链接,仅举几例。

如果您在我提供有关以人为本的设计 (HCD) 的定义或解释时密切关注,您可能已经敏锐地观察到 NIST 摘录中的这句话:“此外,通过将人置于此类方法的中心,他们自然而然地有助于更深入地关注更大的社会因素,例如公平、偏见、价值观和道德。” 因此,在以人为中心的 AI 的情况下,我们可以通过认真采用 HCAI 作为 AI 系统值得做的方法,帮助将 AI Ethics 和 Ethical AI 注入 AI 设计和开发过程。

你可以有点令人信服地争论说,大部分 坏的人工智能 这可能是由于 AI 开发人员及其公司领导没有使用 HCAI 方法而导致的。 如果他们这样做了,他们会仔细考虑道德 AI 元素并设计出符合道德标准的 AI 的可能性就会增加。 我可能会补充说,这明智地提供了一个有价值的双重好处,因为如果这样设计的人工智能看起来在道德上是合理的,那么公司及其人工智能开发人员就有可能避免让他们的人工智能跨越到非法行为中。 这是一个非常显着的好处,因为出错的人工智能可能会对制造商提起诉讼,甚至可能涉及对犯罪行为的起诉(见我在 这里的链接 对不良行为者 AI 的刑事责任追究)。

让我们花点时间简要考虑一些关键的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说,什么应该是至关重要的以人为本或 HCAI 焦点。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,以便相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的理解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 请注意,设计和部署 AI 需要一个村庄。 为此,整个村庄都必须对人工智能伦理保持警惕。

为了让您了解当代以人为本的 AI 方法可能包括的内容,以下是 NIST 报告提出的一些观点:

  • 定义与人工智能系统相关的关键术语和概念及其预期影响范围
  • 解决敏感或其他潜在风险数据的使用问题
  • 实验设计、数据质量和模型训练的详细标准
  • 概述应如何映射和衡量偏见风险,以及根据什么标准
  • 模型测试和验证的详细流程
  • 详细说明法律或风险职能部门的审查流程
  • 规定持续审计和审查的周期和深度
  • 变更管理的概要要求
  • 详细说明与此类事件响应相关的任何计划
  • 等等

有多种面向 HCAI 的方法可用。

其中一些是免费的,并在开源类型的基础上提供,而其他此类方法则被许可或出售给那些希望使用该特定变体的人。 就像一盒巧克力一样,您需要注意您选择使用哪种 HCAI 方法以及它究竟包含什么。 例如,有些针对特定类型的 AI 系统,例如仅针对机器学习或深度学习实例。 此外,还有一些 HCAI 方法对实时 AI 系统有好处,而其他方法在这方面则较弱。 请参阅我的讨论 这里这个链接.

我敦促您明智地选择一种希望合适的 HCAI 方法,并确保您精明地采用它。 不要只是将 HCAI 方法论转嫁给毫无戒心的 AI 开发人员。 不要仅仅为了你可以简单地勾选你有一个而得到一个。 如果您在采用 HACI 方法时犹豫不决,那么有很多方法可以削弱和毒化任何 HACI 方法。 以正确的方式做正确的事。

在选择 HCAI 方法的分析瘫痪时也要小心。 一些 AI 团队就哪种 HACI 方法是“最好的”展开了争夺战,最终在选择过程中花费了大量的精力。 与此同时,人工智能马正被放出谷仓。 不好的举动。

在本次讨论的这个关键时刻,我敢打赌,您希望有一些示例可以展示采用以人为本的 AI (HCAI) 的价值。

我很高兴你问。

有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了以人为中心的人工智能 (HCAI) 的任何内容,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和以人为本的人工智能 (HCAI)

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在准备深入研究自动驾驶汽车和以人为本的人工智能 (HCAI) 的显着价值。

让我们使用一个简单明了的例子。 一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免您认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆。 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。

事实证明,一些原本无害且普遍受欢迎的基于人工智能的自动驾驶汽车开始出现一些不合时宜的担忧,具体来说:

1) 接送 (PUDO) 困难

2)乘客的车载自动驾驶汽车状态不足

3) 行人对人工智能驾驶系统意图的危险混淆

4)担心自动驾驶汽车会侵犯隐私

5) 根据臭名昭著的电车问题,对人工智能驾驶的道德疑虑

我们将仔细研究这些因素中的每一个。 它们每一个都代表了正在进行的自动驾驶汽车试验扩展的一些最具挑战性的斗争。 澄清一下,最大的挑战是确保自动驾驶汽车安全地从 A 点行驶到 B 点。上述这些额外挑战是在核心或基本挑战之上的。

显而易见,上述五个问题与以人为本设计的关键概念密切相关。 从这个意义上说,它们展示了关注以人为本的人工智能 (HCAI) 的重要性。

#1:接送(PUDO)困难

当您使用人工驾驶的拼车服务时,您认为会正确发生的一件事是在方便的地点接车,并在乘车完成后在合适的目的地下车(这由PUDO 的方便首字母缩写词)。 这可能比看起来要复杂得多。 如果您站在红色的路边,人类司机是否应该继续前行并停下来接您? 请记住,法律通常规定不得在红色路边停车。

有时,“方便”的接车地点并不一定方便司机。 我敢肯定,您有时会过马路,试图让拼车司机更容易见到您。 可能会出现一种舞蹈,你试图靠近汽车,而司机试图靠近你所在的任何地方。

对于许多正在制作人工智能驾驶系统的公司来说,合适的接送服务在要做的事情清单上被归为相对较低的优先级。

人工智能开发人员普遍认为,人类乘客应该始终前往自动驾驶汽车。 乘客有责任这样做。 人工智能驾驶系统不必关心PUDO。 只要离得足够近,就是这样。 在这种思维方式下,接送地点与恶劣天气(下雨时PUDO经常会相应调整)或交通状况(可能其他车辆飞驰而过)等问题无关。乘客必须冲进危险的道路),等等。

人类司机通常不会有这种心态。 他们意识到,如果他们不认真地做一些事情来让乘客有一个相对方便的 PUDO,他们将不会得到金钱小费或者可能会得到一个错误的评分。 试图到达一个有用的地方可能是一项至关重要的驾驶技能。 这也提高了安全性,因为如果乘客被急切地催促着拼命接近自动驾驶汽车,一些人会做出不明智的选择,并且可能会受到各种干预交通的伤害。

在 AI 自动驾驶汽车和 AI 驾驶系统的情况下,PUDO 的工作并不强大,你可以说这表明 AI 开发人员缺乏以人为本的关注。 他们似乎对接送方面不屑一顾。 这就是传统的以技术为中心的观点可能获得的那种心态。 让人来找机器,而不是让机器来找人。

问题解决了,技术人员可能会兴高采烈地表示,然后对整个事件不屑一顾。

公平地说,这并不是缺乏热切关注 PUDO 的唯一原因。 构建 AI 驾驶系统的 AI 开发人员的精力一直致力于确保自动驾驶汽车能够安全地从 A 点行驶到 B 点。没有这种能力,其他任何事情都无关紧要。 话虽这么说,任何人由于正在萌芽的自动驾驶汽车的糟糕 PUDO 而受伤或明显受到干扰,都可能会发出高度宣传的噪音,而社会反应可能会非常不利。 毫无疑问,会有人工智能技术人员抱怨说,任何这样的强烈反对都错过了人工智能从 A 点安全驾驶到 B 点的重大壮举。公众让尾巴摇摆不定是一种喧嚣。 也许是这样,但社会反应可以为新兴的自动驾驶汽车带来好运或彻底的厄运。

对于我对这些类型的关于自动驾驶汽车的微妙但最终成败的问题的深入报道,请参阅我的讨论 这里的链接 这提供了我与哈佛教员合着的一项研究的亮点。

#2:乘客的车载自动驾驶汽车状态不足

人类司机可以是一只健谈的猫。 我的意思是说,一些拼车司机在整个旅程中不断地喋喋不休。 并非所有乘客都喜欢这一点。 有些人想要和平与安静。 其他人喜欢开些有趣的玩笑。

人类驾驶员的一个方面是,您几乎可以肯定地向驾驶员询问有关正在采取的驾驶行为的问题。 为什么司机这么快就右转了? 司机为什么不快点? 你明白了。

一些人工智能开发人员的假设是,自动驾驶汽车的乘客只会进入自动驾驶汽车,然后像老鼠一样安静。 无需让 AI 与乘客互动。 乘客不过是一团粘土。 他们坐在车里,然后被带到目的地。 故事结局。

令一些汽车制造商和自动驾驶技术公司感到惊讶的是,他们发现乘客想知道发生了什么。 最小的方法是使用一个 LED 屏幕来显示自动驾驶汽车的路线。 但是,这对于处理诸如为什么要快速转弯或为什么汽车减速等方面并没有特别的帮助。 当然,可以显示电子信息,但 AI 和乘客之间几乎没有互动。

再一次,您可以将其解释为以人为中心的 AI 开发问题。 乘客类似于手提箱或送货箱的假设是一种以技术为中心的观点。 人民就是人民。 如果您要运送人员,则必须让他们感到舒适并回应他们的询问。 一些自动驾驶汽车操作的快速解决方案是与远程区域的人工代理建立车载语音连接,该人工代理正在监控车队的汽车。 正如我详细分析过的那样,这有很多缺点 这里的链接.

#3:行人对人工智能驾驶系统意图的危险混淆

想象一下,你漫不经心地走在人行道上,想要过马路。 你注意到一辆汽车正沿着街道朝你驶来。 你会做的通常的事情是看人类司机。 司机看到我了吗? 司机在看吗? 他们是在看猫视频而不注意道路吗?

自动驾驶汽车的问题在于没有人类驾驶员。 好吧,我想你可以说这是一个加分项,使我们能够消除酒后驾驶和其他错误的人类驾驶行为。 但是,当要弄清楚汽车要做什么时,您通常会尝试查看驾驶员在做什么(通过他们的头部、他们的眼睛、他们的整体姿势等)。

当驾驶座上没有司机时,你怎么知道一辆车要做什么? 你没有通常的线索。 一些汽车制造商和自动驾驶技术公司在他们的设计工作中并没有特别考虑到这个问题。 在他们看来,人工智能驾驶系统将始终安全合法地驾驶。 还需要做什么?

你可能会争辩说,这是以技术为中心的世界观与以人为中心的观点的又一个例子。 如果你相信人类会一直简单地给自动驾驶汽车先行权,那么需要人类驾驶员的定向动作提示可能并不重要。 另一方面,在现实世界中,必须提供一些东西。

正如我在 这里的链接,许多建议正在尝试中,例如在自动驾驶汽车的引擎盖上安装特殊的灯泡,这些灯泡会点亮并指向自动驾驶汽车前进的方向。 另一个概念是专用设备将向行人确认他们被人工智能驾驶系统看到。 正在探索各种明智的选择,包括有时古怪的方法。

#4:担心自动驾驶汽车会侵犯隐私

我一再警告说,由于自动驾驶汽车的出现,隐私侵犯的巨大潜力。 目前没有人对此事给予太多关注,因为它尚未成为一个已意识到的问题。 我向你保证,这最终将是一个巨大的问题,我将其标记为自动驾驶汽车的名副其实的“流动之眼”(见 这里的链接).

您的第一个想法可能是,这肯定只是关于乘客的隐私。 人工智能可以监控骑手在自动驾驶汽车内所做的事情。 当然,这是一个明确的问题。 但我认为与具有更大影响的不太明显的疑虑相比,它相形见绌。

简单地说,当自动驾驶汽车在我们的公共道路上行驶时,自动驾驶汽车的传感器正在收集各种数据。 它捕捉到了我们房屋前草坪上正在发生的事情。 它捕捉了人们在从一个地方走到另一个地方时所做的事情。 它显示您何时进入一个机构以及何时离开它。 这些数据可以轻松上传到车队运营商的云端。 然后,车队运营商可以将这些数据连接在一起,并从本质上了解我们在户外和整个社区中发生的日常生活细节。

我们现在似乎并不关心这种隐私侵犯的可能性,因为只有少数自动驾驶汽车在相对较少的地区试用。 总有一天,我们将拥有数十万或数百万辆自动驾驶汽车,它们在我们所有的主要城镇中纵横交错。 我们每天的户外生活将不间断地记录,24×7,我们可以相应地进行跟踪。

以技术为中心的 AI 开发人员可能会淡化这一点。 他们会建议他们正在做的只是实施人工智能技术。 需要担心该技术将如何被使用的是其他人。

相比之下,以人为本的观点已经对如何处理这个巨大的隐私定时炸弹感到不安。 越早越好。 以人为本的人工智能 (HCAI) 是另一个很好的理由。

#5:根据臭名昭著的电车问题,关于人工智能驾驶的道德疑虑

最后一点有点复杂。 我会缩短它并鼓励您考虑仔细阅读我在 这里的链接. 简而言之,当您驾驶汽车或仅作为乘客乘坐汽车时,您总是对汽车发生的事情处于危险之中。 这辆车可能会被另一辆车撞到。 这辆车可能会撞到灯柱上。 各种不好的事情都可能发生。

人类驾驶员如何决定采取何种驾驶行动?

例如,我最喜欢的例子是新闻报道的一个案例。 当另一辆车闯红灯并危险地驶向合法允许的汽车时,一名人类驾驶员正在合法地进入十字路口。 司机告诉记者,他必须做出一个艰难的决定。 他可以继续前进,很可能会被闯入的汽车撞倒,可能会在此过程中丧生,或者肯定会受重伤。 或者他可以让他的车远离预期的碰撞,但附近有行人。 他可能会撞到或杀死一些行人的可能性很高。 这样做虽然可能会挽救他的生命。

你会怎么做?

问题是,我们一直面临着这些驾驶困境。 在事情变得糟糕之前,我们不会特别考虑它们。 我向您保证,每位驾驶员在任何时候都在精神上卷入了必须决定采取哪些驾驶行动的问题。 他们的生活取决于此。 车内乘客的生命取决于此。 附近汽车中其他司机和乘客的生命取决于此。 行人、骑自行车的人和其他人也依赖它。

我提出这个问题是因为一个简单但极其难以回答的问题。

面对生死攸关的驾驶决策,人工智能应该怎么做?

如果你是一辆自动驾驶汽车的乘客,在十字路口中间,一辆人类驾驶的汽车闯红灯,你希望人工智能驾驶系统做什么? 人工智能是否应该试图避免撞击,但可能会撞到一群行人? 或者人工智能不应该采取任何特殊行动,而只是让自动驾驶汽车被撞? 这类伦理困境经常在一个著名的思想实验的背景下被描述,该实验被称为电车问题(参见 这里的链接).

目前,没有多少人会认真对待电车问题。 总的来说,大多数人工智能驾驶系统还没有尝试评估规避驾驶行为。 即使人工智能这样做了,也存在一个开放且令人痛苦的问题,即人工智能应该如何被编程以做出这些具有挑战性的道德决定。

以技术为中心的观点倾向于说不要担心它,直到它成为一个社会意识问题。 只需继续编写大量 AI 代码,看看接下来会发生什么。

以人为本的观点可能会断言我们需要掌握这件事。 这不是每个汽车制造商和自动驾驶技术公司单独决定的问题。 为了解决这个问题,需要一个更大的社会关注点。

结论

顽固的 AI 开发人员通常对他们认为是时尚或胡说八道的东西持怀疑态度。 我有许多 AI 技术人员以傲慢和怀疑的语气向我提出了一个非常严厉和尖锐的问题,以表明人们对以人为本的 AI (HCAI) 越来越感兴趣。

他们这样问: HCAI的牛肉在哪里?

我的回答是,肉、土豆和甜点都是在认识到以人为中心的人工智能方法将使我们有更大的机会让人工智能取得成功并成为对整个社会的普遍贡献。 那些希望转而依赖并陷入仅以技术为中心的方法的人可能会发现他们创造的人工智能完全是有问题的,社会会对此感到非常愤怒。 头会滚动。 人工智能可能会被视为技术奇迹而被拒绝,并成为邪恶的弃儿。

在谈到人工智能时,我大声投票支持一些以人为本的想法,以实现以人为本。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/04/01/heres-why-ai-ethics-is-touting-that-human-centered-ai-is-crucial-to-our-人工智能共生存在,例如自动驾驶汽车的出现/