人工智能伦理与不可避免的人工智能事故作斗争,这也笼罩在自动驾驶汽车上

您是否认识某个似乎特别容易发生事故的人?

好像我们都这样。

也许这个人是那种容易在香蕉皮上滑倒或在客厅里打翻珍贵花瓶的人。 它们是一种或另一种事故的人类磁铁。 这可能太糟糕了,以至于你有时甚至不愿意靠近他们。 你可能会得到不祥的溢出或遭受他们令人不快的事故之一的不光彩后果。

但是,当我们暗示任何人比其他人更容易发生事故时,也许我们过于苛刻了。 可以提出一个论点,即事故可能发生在我们任何人身上。 我们都有可能发生事故或卷入事故。 包括我们当中最好的。

让我们在这个讨论的基础上增加一个另外令人烦恼的问题。

事故是不可避免的吗?

换句话说,无论我们如何努力防止事故发生,都可能不可避免地仍然存在事故发生的机会和最终确定性。 您可以寻求保护世界免受意外伤害。 这似乎无疑是谨慎的。 但无论如何,事故仍然会抬起他们丑陋的脑袋。

正如他们所说,事故正在等待发生。

澄清将某些事件适当地标记为事故的含义可能会有所帮助。 通常的字典定义是事故是一种意外和无意发生的事件,其不幸的结果包括表面上的损坏或伤害。

注意解开这个定义。

上述事件出乎意料。 这意味着我们似乎没有意识到事故本身会发生。

上述事件是无意的。 这表明我们应该排除有人故意试图让事件发生的情况。 如果一个恶作剧者将香蕉皮放在他们知道不幸和毫无戒心的无辜者会踩到的地板上,那么您将很难断言绊倒它的人发生了意外。 相反,他们被欺骗并阴险地引入了一个陷阱。

该定义还包括结果不幸的标准。 在这种情况下发生的事故必然会导致糟糕的结果。 不小心打翻花瓶的人已经破裂并可能损坏了无法修复的美味物品。 花瓶的主人因价值损失而受到伤害。 撞到花瓶的人现在可能欠主人的损失。 天堂禁止任何人因花瓶的破裂而被割伤或报废。

为了平衡起见,我们可能要注意,也有所谓的“好”事故。 由于事故的结果,一个人可能会发现自己拥有巨大的财富或获得其他一些重要的利益。 最常被引用的例子之一是亚历山大弗莱明爵士和他广受赞誉的青霉素发现。 据说他在实验室里有点粗心,两周假期回来后,他在一个培养皿上发现了一个霉菌。 据报道,他就此事这样说:“人们有时会找到自己不想要的东西。 当我在 28 年 1928 月 XNUMX 日黎明后醒来时,我当然不打算通过发现世界上第一个抗生素或细菌杀手来彻底改变所有医学。 但我想这正是我所做的。”

我们将把有利的事故放在一边,而把重点放在悲惨的事故上。 事故的皱眉脸版本是那些不利结果可能特别危及生命或产生繁重结果的地方。 尽可能地,我们想要最小化的不利事故(当然,如果可行的话,我们希望最大化的不利事故,尽管我将在后面的专栏中介绍那个笑脸变体)。

我想稍微改一下前面关于事故不可避免性的问题。 到目前为止,我们一直关注在单个人的特定情况下发生的事故。 毫无疑问,事故也会同时影响许多人。 当人们沉浸在一种或另一种复杂系统中时,尤其会遇到这种情况。

为先前提出的问题的变体做好准备。

系统事故是不可避免的吗?

我们应该考虑一下。

假设布置了一个工厂车间来制造汽车零件。 可以说,那些设计工厂的人非常担心可能发生的工人事故。 工厂工人必须始终佩戴头盔。 工厂的标志告诫要注意事故并在工作中留心。 采取了各种预防措施来避免事故的发生。

在这个系统中,我们可能希望没有人会发生事故。 你相信事故发生的可能性为零吗? 我敢说,在这种情况下,没有一个理性的思想家会打赌发生事故的可能性为零。 发生事故的可能性可能非常低,但我们仍然知道并假设,尽管采取了所有预防措施,但仍有一定风险发生事故。

所有这些都表明,在一个足够复杂的系统中,我们一定会相信事故仍然会发生,无论我们多么努力地防止它们发生。 我们不情愿地支持系统事故确实不可避免的规定。 这种口径的宏大声明可能会警告说,该系统必须具有一定的复杂性阈值,以至于基本上不可能覆盖所有基础以完全防止事故发生。

您现在已经被巧妙地一步一步地介绍了一个关于事故的广泛概述的理论,这些理论可以被标记为正常事故或正常事故理论 (NAT)。 以下是研究过这一概念的研究人员的一个方便的描述:“在足够大的规模上,任何系统都会产生‘正常事故’。 这些是由于复杂性、组件之间的耦合和潜在危害的组合而导致的不可避免的事故。 正常事故与更常见的组件故障事故的不同之处在于,导致正常事故的事件和交互对于系统的操作员来说是不可理解的”(如 Robert Williams 和罗曼·扬波尔斯基, 经营理念 杂志)。

我带你到所谓的土地的原因 正常事故 是我们可能需要小心地将这一理论应用于我们社会中逐渐且不可避免地变得无处不在的事物,即人工智能 (AI) 的出现。

让我们深入研究一下。

有些人错误地认为人工智能将是完美的。 猜测是,人工智能系统不会犯错误,也不会给我们带来麻烦。 您需要做的就是确保那些 AI 开发人员做得足够好,瞧,AI 永远不会做任何可能被解释为意外或引发意外的事情。

在那个假设的信念上没有那么快。 如果你愿意接受理论 正常事故,任何实质性复杂的人工智能都将不可避免地带来事故。 不管那些人工智能开发者为了防止事故做了多少深夜修补,人工智能肯定会在某个时间点卷入事故。 这就是饼干碎的方式。 在我们洒出来的牛奶中哭泣并没有喘息的机会。

思考人工智能的混搭和概念原则 正常事故.

设想我们有一个控制核武器的人工智能系统。 人工智能经过精心设计。 每个可以想象的制衡都已编码到人工智能系统中。 我们是否可以避免可能发生的基于人工智能的事故? 那些支持正常事故观点的人会说我们并不像想象的那么安全。 鉴于人工智能可能特别复杂,一场正常的事故正静静地等待着有一天会出现,也许是在最糟糕的时刻。

这些棘手的问题和疑虑的要点是,我们必须保持警惕,人工智能必然会充满事故,人类必须对可能发生的危险采取明智和积极的措施。 一两分钟后你会看到,在使用 AI 时,这是一个迫在眉睫的考虑,而 AI Ethics 和 Ethical AI 领域正在为做什么而争论不休。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

在我们进入兔子洞之前,让我们确保我们对 AI 的本质保持一致。 今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到,有感知力的 AI 相当于人类给你建议的认知。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道)。 总而言之,这些情况都会提高对消息来源的评估。

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

总而言之,一个普遍的希望是,通过建立对 AI 道德准则的认识,我们至少能够提高社会对 AI 既可以有益又可以产生不利影响的认识。 我已经广泛讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理指南的全球景观”的论文中涵盖了一组由研究人员设计的、检查并浓缩了众多国家和国际人工智能伦理原则的精髓(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

我们可能需要添加到自吹自擂的 AI 道德清单中,我们需要明确考虑并采取公开行动来防止或至少严厉地减轻基于 AI 的 正常事故 这可能会发生。 那些开发人工智能的人需要在这方面尽力而为。 那些部署人工智能的人也需要这样做。 那些使用或以某种方式受制于人工智能的人应该警惕并警惕看似即将发生的人工智能事故的可能性。

你可能会认为人工智能可以内置足够的预防措施,以使事故发生的可能性降到零。 对于那些技术人员来说,通常的狂妄自大是,如果一项技术可以产生问题,那么另一项技术肯定可以解决问题。 只是不断地折腾越来越多的技术,直到问题消失。

好吧,那些研究过面向系统的事故的人往往会不同意并礼貌地反驳假定的技术人员的自大,提出一种称为瑞士奶酪模型 (SCM) 的观点:“在 SCM 中,安全层被建模为切片奶酪上有洞,代表了每一层安全的薄弱环节。 随着时间的推移,孔洞会改变形状并四处移动。 最终,无论有多少片奶酪(安全层),这些孔都会对齐,从而允许直接射穿所有奶酪片(发生事故)”(根据罗伯特·威廉姆斯和罗曼·扬波尔斯基之前引用的论文)。

我不想陷入关于是否有一种保证方法可以对 AI 进行编程以完全且始终避免任何事故机会的问题。 正在尝试各种数学和计算证明方法。 我认为声明我们今天没有可扩展的工作方法或技术可以铁定保证这样的零机会是合理和公平的,而且我们肯定背负着大量的人工智能正在被我们知道肯定没有试图遵守这种做法。 后一点至关重要,因为即使我们可以在 AI 实验室中编造出一些东西,将其扩展到正在进行的无数疯狂和无忧无虑的 AI 工作并且将继续出现,这是一个棘手的问题,即使计算证明机银也不太可能解决子弹存在。

我认为值得简要提及的另一点是人工智能由于恶意人类行为者而变成了不良行为。 我不会将这些实例归入 AI 事故的范畴。 请记住,开场讨论表明,事故的字典定义是 无意 自然。 如果人类网络骗子设法让人工智能系统做坏事,我不会将该人工智能归类为发生事故。 我相信你会同意这个假设。

出现了一个有趣的问题,即有多少各种 AI 不良行为可以归因于纯粹的 AI 事故而不是网络犯罪分子的狡猾行为。 根据一些现有的人工智能事件报告数据库,人工智能事故似乎比恶意引发的事件发生得更多,尽管你必须用大量的盐来接受这个概念。 我这样说是因为当人工智能系统受到攻击时,人们很容易不报告,而当发生人工智能事故时,可能更愿意报告。

关于人工智能事故,我们需要讨论一个极其重要的警告。

使用流行语“人工智能事故”通常是不可取的,这会给我们所有人造成相当混乱的局面,这对整个社会来说都是如此。 当一个人可能发生事故时,我们常常耸耸肩,对发生事故的人表示同情。 我们似乎将“意外”一词视为没有人对所发生的事情负责。

让我们以发生车祸为例。 一辆汽车在右转时大幅度摆动,不小心撞上了另一辆直行的汽车。 嘘,这只是一个意外,意外发生了。 如果事件仅被描述为发生的事故,那些未参与该事件的人可能会让事情滑落。

我有一种感觉,如果你在被撞的车里,你就不会那么同情那个转弯过大的司机。 你的意见肯定会是另一个司机是个糟糕的司机,表面上的非法或不明智的驾驶行为导致了车祸。 通过将事件标记为“事故”,被卡住的司机现在处于某种劣势,因为看起来这一切都是偶然发生的,而不是通过搞砸的司机的手。

事实上,“事故”这个词的内涵是多种多样的,以至于政府关于车祸的统计数据基本上都将此事称为车祸或车祸,而不是使用车祸一词。 车祸或车祸似乎对事件的发生方式没有任何影响。 同时,“车祸”的措辞几乎让我们认为这是命运的怪癖,或者不知何故超出了人类的掌控。

当提到人工智能事故时,你可以充分看到这种内涵考虑是如何发挥作用的。 我们不希望 AI 开发人员隐藏在 AI 只是意外造成某人伤害的内涵盾牌后面。 那些部署人工智能的人也是如此。 你可能会争辩说,“AI 事故”的措辞几乎是对 AI 的拟人化,它会误导社会,让处于 AI 幕后的人类逃避责任。 对于我关于让人类对其人工智能负责的重要性日益增加的讨论,请参阅我的讨论 这里这个链接这里这个链接.

今后我将在这里使用人工智能事故的标语,但我不情愿地这样做,只是因为它是指这种现象的传统方式。 令人遗憾的是,尝试以不同的方式表达这种说法往往会更加臃肿且不易阅读。 请确保以一种不会让您另眼相看的方式来解释标语,并且没有意识到当 AI 出错时,AI 背后的人类是有罪的。

为了帮助说明将 AI 称为引发事故的可能的混淆或误导性方面,我们可以回到我关于打翻花瓶的言论。 考虑一下人工智能这样做的例子:“这个问题与人工智能偶然或冷漠所做的事情有关。 打翻花瓶的清洁机器人就是一个例子。 复杂的环境有很多种类的“花瓶”,我们不太可能对所有副作用进行惩罚”(根据 Robert Williams 和 Roman Yampolskiy 的论文)。

一个人工智能系统在家庭中投入使用,然后“不小心”打翻了一个花瓶,这似乎表明没有人应该因为人工智能的这种不利行为而受到指责。 这只是一场意外,可能有人会悲痛地谴责。 另一方面,我们应该正确地问为什么人工智能系统没有被编程来处理一般的花瓶情况。 即使 AI 开发人员没有预料到花瓶本身会在可能遇到的对象范围内,我们当然可以质疑为什么没有一些总体的对象避免可以防止 AI 系统撞倒花瓶。花瓶(因此,人工智能可能不会承认将花瓶归类为花瓶,但仍然可以将其作为可检测的要避免的物体来避免)。

我已经预测并继续预测,我们正逐渐走向一场关于人工智能系统出现的巨大法律战,这些系统会让自己陷入“人工智能事故”并造成某种形式的伤害。 到目前为止,社会还没有以任何相当大的方式对人工智能进行法律上的反击,因为人工智能被推入市场并产生了有意或无意的不利后果。 今天的人工智能潮流已经成为半生不熟的人工智能制造商的淘金热,那些匆忙实施人工智能部署的人现在很幸运,并且相对没有受到民事诉讼和刑事诉讼的影响。

人工智能引发的法律反弹迟早会到来。

继续前进,我们将如何尝试应对所谓的人工智能事故的必然性?

我们可以立即做的一件事是尝试预测 AI 事故可能会如何发生。 通过预测人工智能事故,我们至少可以寻求设计方法来减少它们或将它们发生的可能性降到最低。 此外,我们可以尝试设置护栏,以便在确实发生 AI 事故时,减少示范性伤害的机会。

前面引用的研究文章中描述的一组有用的因素 了解和避免 AI 故障:实用指南 包括这些属性(引用自研究论文):

  • 受 AI 输出影响的系统。
  • AI 输出与更大系统之间的时间延迟、系统可观察性、人类注意力水平以及操作员纠正 AI 故障的能力。
  • 恶意使用人工智能控制的系统可能造​​成的最大损害。
  • 靠近 AI 的组件的耦合和交互的复杂性。
  • 人工智能和使用的其他技术的知识差距和系统的能量水平。

在这个激烈讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以进一步阐明 AI 事故主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了所谓的人工智能事故的出现,如果是这样,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能事件

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和导致所谓人工智能事故出现的道德人工智能可能性。

设想一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免您认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆。 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。

有一天,自动驾驶汽车发生了事故。

在右转时,人工智能驾驶系统使自动驾驶汽车大范围摆动,并撞上了一辆人力车。 人力车在正确的车道上直行。 人类驾驶员没有特别的机会转弯或避免被撞。 此外,自动驾驶汽车没有发出任何警告或迹象表明它将大范围右转。

这是意外吗?

我们当然可以说它包含在人工智能事故的范围内。 这种断言的基础是自动驾驶汽车的车轮上有一个人工智能驾驶系统。 不知何故,无论出于何种原因,人工智能在右转时选择了大幅度摆动。 结果导致自动驾驶汽车撞上了人类驾驶的汽车。

回想一下前面关于“事故”这个词的含义的讨论,看看这些底色是如何在这种情况下发挥作用的。 另外,请记住,我们讨论了一个人类驾驶员右转并撞上一辆人类驾驶汽车的案例。 我们意识到,这种行为是“意外”的概念具有误导性和混淆性。 大摇大摆的人类驾驶员可能会隐藏这样的想法,即事故只是发生了,看似偶然或命运的变幻莫测。

与其将基于 AI 的自动驾驶汽车广泛行驶并撞上人类驾驶汽车的情况标记为“AI 事故”,或许我们应该说这是一场涉及自动驾驶汽车的车祸或车祸。驾驶汽车和人工驾驶汽车。 然后,我们可以免除它是不可知手段的意外的空洞混淆。

您认为公众对该事件的反应是什么?

好吧,如果汽车制造商或自动驾驶技术公司能够坚持将此事标记为事故,他们或许能够避开整个社区的潜在反弹。 一种对事故的同情心可能会流向特定的情况。 有关城市、县和州领导人可能如何对 AI 自动驾驶汽车事件做出反应的更多信息,请参阅我共同领导的哈佛研究的讨论,如在 这里的链接.

如果这种情况被明确描述为车祸或车祸,那么也许这可能会让人意识到某人或某事可能是该事件的罪魁祸首。 一个下意识的反应可能是人工智能要承担责任。 问题是,直到或如果我们决定将 AI 认定为具有法人身份,您将无法将责任归咎于 AI 本身(请参阅我关于 AI 和法人身份的讨论, 这里的链接).

我们可以检查人工智能驾驶系统,试图找出导致看似不当驾驶和随后发生车祸的原因。 但这并不意味着人工智能将被追究责任。 责任方包括人工智能开发者、自动驾驶汽车的车队运营商等。 我也包括其他人,因为城市可能对转弯发生的角落的设计负有部分责任。 此外,假设有行人从拐角处飞驰而过,人工智能驾驶系统选择避开该人,但随后陷入车祸。

等等。

结论

我们想知道人工智能在计算什么以及它被编程做什么。 人工智能是否按照编码进行? 也许人工智能在编程中遇到了错误或错误,这并不能原谅这些行为,而是提供了更多关于崩溃是如何发生的线索。

什么样的人工智能护栏被编程到人工智能驾驶系统中? 如果有护栏,我们会想弄清楚为什么它们似乎不能防止车祸。 也许人工智能驾驶系统本可以停止而不是转弯。 我们想知道在事件过程中人工智能计算评估了哪些替代方案。

除了追查特定事件的真相外,另一个合理的疑虑是人工智能驾驶系统是否存在缺陷或其他嵌入式方面会产生类似的不利行为。 从本质上讲,这一事件可能是未来更多事件的迹象。 基于计算机的驾驶情况模拟是如何用于尝试和预测这种类型的人工智能驾驶系统提示的? 是否有足够的道路驾驶测试来找出可能导致车祸的人工智能问题?

这种情况凸显了一个有争议的难题,即基于人工智能的自动驾驶汽车的出现。

就像这样

一方面,由于希望人工智能驾驶系统与人类驾驶员一样安全或可能更安全,因此社会希望迅速采用自动驾驶汽车。 仅在美国,目前每年有近 40,000 人死于车祸和约 2.5 万人受伤。 分析表明,这些车祸中有很大一部分是由人为错误造成的,例如醉酒驾驶、分心驾驶等(请参阅我对此类统计数据的评估,网址为 这里的链接).

人工智能驾驶系统不会酒后驾车。 他们不需要休息,也不会在驾驶时感到疲倦。 假设是,通过将自动驾驶汽车作为一种可行的交通方式,我们可以减少人类驾驶员的数量。 这反过来应该意味着我们将迅速减少每年因车祸造成的人员伤亡人数。

一些权威人士说,我们最终将实现零死亡和零伤害,而那些自动驾驶汽车将被认为是不可碰撞的,但这是一种完全荒谬且完全错误的期望。 我已经解释了为什么这在 这里的链接.

无论如何,假设我们将发生一些自动驾驶汽车参与的车祸。也假设这些车祸将造成一定数量的死亡和受伤。 正在苦恼的问题是,我们作为一个社会是否愿意容忍任何此类情况。 有人说,即使是真正的自动驾驶汽车造成了一起死亡或受伤,整个套件和卡布都应该关闭。

与之相反的观点是,如果挽救的生命正在减少每年的数量,我们应该继续鼓励自动驾驶汽车的出现,而不是以这种不合逻辑的方式做出反应。 我们需要接受这样一个前提,即即使使用自动驾驶汽车,仍然会存在一定数量的死亡和伤害,但要意识到,如果每年减少,则表明我们走在正确的道路上。

当然,有些人认为,我们不应该在公共道路上使用自动驾驶汽车,除非它们通过广泛而详尽的基于计算机的模拟或通过私人封闭轨道测试被批准用于此类用途。 反驳的观点是,让自动驾驶汽车行驶的唯一可行和最快的方法是使用公共道路,而采用自动驾驶汽车的任何延迟都会让可怕的人类驾驶汽车撞车事故继续发生。 我在我的专栏中更详细地介绍了这场辩论,并敦促读者查看这些讨论,以全面了解对这个有争议的问题的看法。

让我们现在把事情总结一下。

人工智能事故将会发生。 我们必须抵制将人工智能事故解释为表面上的冲动 偶然 并且错误地让制造商和那些部署人工智能的人断然摆脱困境。

我给你留下了一个额外的转折,作为你这一天的最后一个有趣的想法。

据报道,喜剧演员戴恩·库克(Dane Cook)讲了一个关于车祸的笑话:“几天前,我出了车祸。 不是我的错。 就算不是你的错,对方也下车看着你,好像是你的错:你为什么闯红灯停车让我打你80!”

转折出现的地方是,人工智能系统可能会选择坚持当涉及特定人工智能的人工智能事故发生时,人工智能吹捧该事件是人类的错,而不是人工智能的错。 顺便说一句,这可能是千真万确的,人类可能试图通过声称这是 AI 的错来成为 AI 的替罪羊。

或者也许人工智能正试图成为人类的替罪羊。

你看,我们设计的人工智能可能会很棘手,不管是不是偶然的。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self-也开车/