人工智能伦理对不断上升的热土豆综合症感到愤怒,人工智能制造商似乎试图避免对其决定生命的自主系统负责

我们都知道你应该确保你不会吃到众所周知的烫手山芋。

烫手山芋的策略似乎至少可以追溯到 1800 年代后期,当时一场涉及点燃蜡烛的客厅游戏让球滚动起来。 在那个时代,人们通常会坐在一系列相对相邻的木椅上,玩一场令人兴奋的游戏。 点燃的蜡烛将由球员从一个人传递到另一个人,代表我们后来选择的表述为移交 热土豆.

按照惯例,每个人都必须大声说出流行的押韵,然后才能通过逐渐燃烧的蜡烛。 押韵显然是这样的:

“杰克还活着,而且很可能还活着;

如果他死在你手上,你就放弃了。”

这个押韵的独奏曲大概会让蜡烛有一点点时间继续燃烧,直到最后结束。 谁在最后自然熄灭时卡住了手中的蜡烛,谁就是输掉比赛的人(双关语!)。

根据押韵中的说法,失败者必须支付“罚金”,因此通常必须退出任何进一步的游戏回合。 然后,这可能与我们今天认为的日常音乐椅相结合,这样输掉一轮的人将不再参加随后的轮次(好像音乐停止了,他们无法获得可用的座位)。 最终,只有剩下的两个人通过点燃的蜡烛并说韵,直到最后的熄灭中确定了最终的赢家。

您可能想知道为什么我们不再用点燃的蜡烛玩这个游戏,以及为什么我们通常将其称为烫手山芋,而不是将其描述为“点燃的蜡烛”方案。 研究人员已经提出了很多关于这种情况如何逐渐发生的理论。 历史似乎模糊不清,关于这件事如何演变的不确定性。 我想我们可以放心,点燃的蜡烛通常不会像这样使用,因为出现明显错误的可能性似乎非常令人担忧(有人掉下蜡烛并着火,或者有人在递蜡烛时被蜡烛烧伤来自其他玩家等)。

就作为点燃蜡烛的潜在替代品的热土豆而言,您通常可以认为土豆总体上会更安全一些。 没有明火。 没有熔化的蜡。 在这种情况下使用马铃薯的潜在基础是已知它们一旦被加热就很容易保持热量。 你可以把土豆传过来,它会保持热一段时间。 有人认为,决定什么时候烫手山芋不再热,而是被评为冷,这将是一个备受争议的命题。

当然,如今,众所周知的烫手山芋的概念更像是一个独立的考虑因素。 任何被评为或排名为烫手山芋的东西通常都具有严重的淘汰质量。 你不想拿着烫手山芋。 你想确保它去别的地方。 在某种程度上,您可能不会过度担心它的去向,只是它不再在您的手中。

将烫手山芋递给亲爱的朋友或类似熟人似乎很无情。 这似乎完全不合时宜。 如果可以的话,也许可以找其他人或其他地方放那个烫手山芋。 一个绝望的举动可能是将烫手山芋强加给和蔼可亲的同事,但希望这只是作为最后的手段。

硬币的另一面是,你可能很乐意把烫手山芋交给你不喜欢的人或你正在寻求报复的人。 当然,如果你的目标是削弱一个对你不好的人,烫手山芋几乎可以派上用场。 让他们弄清楚如何处理烫手山芋。 祝你摆脱马铃薯的困扰,但你给它贴标签的人倒霉。

在仅涉及两个人的烫手山芋场景中,可能会就哪个人拿着令人讨厌和不受欢迎的物品发生快速的来回争执。 比如我把烫手山芋递给你,你赶紧还给我。 假设我们不需要在每次交接之间宣布童谣,我们几乎可以在我们的手臂允许的范围内以最快的速度传递马铃薯。

你可能会好奇我为什么选择深入研究这个备受推崇且经常被引用的烫手山芋。

这就是为什么

事实证明,烫手山芋的幌子越来越多地用于人工智能(AI)领域。

大多数人对此一无所知。 他们从来没有听说过。 他们完全不知道它是什么。 甚至许多 AI 开发人员都没有意识到这一点。 尽管如此,它仍然存在并且似乎被用于真正有问题的环境中,尤其是涉及生死攸关的情况。

我将此称为 AI 热土豆综合症.

这种综合症背后有很多严重的影响,我们需要确保我们戴上我们的 AI 道德思想上限并考虑应该做什么。 有一些发人深省的伦理考虑。 也必然会产生显着的法律影响(尚未达到社会知名度,尽管我预测它们很快就会出现)。 有关我对 AI Ethics、Ethical AI 和 Legal AI 问题的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

让我们打开包装 人工智能热土豆综合症.

想象一个与人类共同工作的人工智能系统。 人工智能和人类正在传递对一些正在进行的活动的控制,因此有时人类处于控制之中,而其他时候人工智能处于控制之中。 这可能首先以一种我们应该说得体或合理的方式来完成。 出于各种原因,我们稍后会谈到,人工智能可能会通过计算确定需要将控制权迅速传递给人类。

这是 热土豆 这会危及现实世界中的生命,而不仅仅是作为一个有教育意义的孩子的游戏。

将控制权从 AI 快速传递给人类的问题在于,这可以以合理的方式完成,也可以以相当不合理的方式完成。 如果人不是特别期待切换,这可能是一个问题。 如果人类通常对控制权的传递感到满意,那么当人类没有足够的时间或对为什么将控制权强行输入到人类手中的原因认识不足时,移交背后的环境可能会令人生畏。

我们将探讨这如何给人类和可能附近的其他人类带来生死攸关的危险的例子。 这是严肃的事情。 句号,句号。

在深入探讨背后的狂野和毛茸茸的考虑的更多内容之前 人工智能热土豆综合症,让我们列出一些关于非常重要的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到我们对烫手山芋及其在人工智能中潜在的灾难性用途的关注。 在烫手山芋的策略中也潜藏着一种恶魔。

作为对热土豆策略的人工智能表现的快速回顾:

  • 人工智能和人类在环正在共同完成一项给定的任务
  • 人工智能有时可以控制
  • 人在环有时会控制
  • 人工智能和人类之间存在某种形式的切换协议
  • 切换可能是高度可见的,也可能是微妙的,几乎是隐藏的
  • 这一切通常都在实时环境中(正在积极进行中)

这里的主要焦点是当切换本质上是一个烫手山芋时,人工智能选择突然将控制权交给人类。 请注意,我稍后还将介绍另一个方面,即人类将控制权移交给人工智能作为烫手山芋。

首先,考虑一下当 AI 将烫手山芋交给人类在环时会发生什么。

我将把人类称为循环中的人类,因为我说人类已经是正在进行的活动的一部分。 我们可以有其他场景,一个没有特别参与活动的人,也许对整个事情不熟悉,被人工智能递给了烫手山芋,所以请记住,这种环境的其他风味确实存在。

如果我给你一个烫手山芋并且想以合理的方式这样做,也许我会提醒你我要把事情交给你。 此外,如果我真的相信你拥有烫手山芋比我拥有它更好,我会尝试这样做。 我会在心里计算你是否应该拥有它,或者我是否应该继续使用它。

设想一场篮球比赛。 你和我在同一个团队。 我们希望共同努力,争取赢得比赛。 比赛只剩下几秒钟了,我们需要拼命得分,否则我们将输掉比赛。 我进入位置进行最后一枪。 我应该这样做,还是应该将球传给你,让你进行最后一投?

如果我是一个更好的篮球运动员并且有更大的投篮机会,我可能应该保留篮球并尝试投篮。 如果你是一个比我更好的篮球运动员,我可能应该把球传给你,让你投篮。 其他考虑因素也很突出,例如我们中的哪一个在场上的位置更好投篮,以及我们中的一个是否已经筋疲力尽,因为比赛快结束了,可能会筋疲力尽,无法达到标准他们的射击。 等等。

考虑到所有这些因素,在忙碌的时刻,我需要决定是保留球还是将球传给你。

敏锐地意识到,在这种情况下,时钟至关重要。 你和我都面临着极其及时的回应。 整个游戏现在都上线了。 一旦时间用完,我们要么赢了,因为我们中的一个人射门了,要么我们输了,因为我们没有击沉。 如果我沉了篮筐,我可能会成为英雄。 或者,如果我将球传给你而你将球击沉,你可能会成为英雄。

这也有山羊的一面或缺点。 如果我控球而投失,每个人都可能指责我是山羊或让整个球队失望。 另一方面,如果我把球传给你,而你投失,那么,你就变成了山羊。 这可能对你完全不公平,因为我强迫你成为最后一个射手并最后一枪。

你肯定知道我把你置于那个令人反感的位置。 尽管每个人都可以看到我这样做,但他们注定只会专注于最后一个持球的人。 我可能会自由滑冰。 没有人会记得我在最后一刻把球传给了你。 他们只会记得你有球并输掉了比赛,因为你没有投篮。

好的,所以我把球传给你。

我为什么这样做?

没有简单的方法来确定这一点。

我的真正意图可能是我不想被困在山羊身上,所以我选择把所有的压力都放在你身上。 当被问到为什么我传球时,我可以说我这样做是因为我认为你是一个比我更好的射手(但是,让我们假装我根本不相信)。 或者我认为你的处境比我好(假设我也不这么认为)。 没有人会知道我实际上只是想避免陷入烫手山芋。

从表面上看,没有人能轻易看出我将球传给你的真正理由。 也许我这样做是无辜的,因为我相信你是更好的球员。 那是一个角度。 也许我这样做是因为我不想让每个人都因为我可能错过投篮而称我为失败者,因此我把球交给了你,并认为这对我来说是一个巨大的解脱。 我是否真正关心你是完全不同的事情。

我们现在可以为与 AI 相关的烫手山芋添加更多细节:

  • 人工智能选择在最后一刻将控制权交给人工参与
  • 最后一刻可能已经远远超出了任何人类可行的行动
  • 人在环具有控制权,但由于切换时间而有些错误

考虑一下。

假设一个 AI 系统和一个人在回路中正在协同工作,执行一项涉及在工厂中运行大型机器的实时任务。 AI 检测到机器出现故障。 人工智能并没有继续保持控制权,而是突然将控制权交给了人类。 这家工厂的机器正在迅速走向纯粹的混乱,没有时间让人类采取纠正措施。

人工智能将烫手山芋交给了人在回路,并用名副其实的烫手山芋塞住了人类,以至于人类无法应对这种情况。 Tag,你就是它,在小时候玩标签游戏时走老路。 我们应该说,人类被贴上了混乱的标签。

就像我关于篮球比赛的例子一样。

AI为什么要做交接?

好吧,与人类突然交出篮球然后疯狂挥手解释他们为什么这样做的情况不同,我们通常可以检查人工智能编程并找出导致人工智能进行这种烫手山芋交接的原因。

人工智能开发人员可能事先决定,当人工智能陷入非常糟糕的困境时,人工智能应该继续将控制权交给人类在环。 这似乎完全合情合理。 人类可能是场上“更好的球员”。 人类可以利用他们的认知能力来潜在地解决手头的任何问题。 人工智能可能已经达到了它的编程极限,在这种情况下它没有其他建设性的事情可以做。

如果人工智能在机器出现故障前一分钟完成了交接,也许一分钟的提醒时间就足够让人类在环中纠正问题。 假设人工智能在还剩 300 秒时完成了交接。 你认为人类可以在那个时间范围内做出反应吗? 不太可能。 在任何情况下,为了让事情变得不那么狡猾,假设在还剩几纳秒的情况下切换到人工在环(一纳秒是十亿分之一秒,相比之下,这是一个快速眨眼的时间)眼睛是缓慢的 XNUMX 毫秒长)。

如果人工智能在只剩下短短几秒钟的时间里将烫手山芋交给任何公开行动,那么人在回路中能否做出充分的反应?

没有

交接比其他情况看起来更像是虚假的。

实际上,当涉及到可怕的困境时,交接不会有任何好处。 人工智能已经把人类变成了山羊。

一些 AI 开发人员在设计 AI 时并没有考虑到这一点。 他们(错误地)幸福地没有考虑到时间是一个关键因素。 他们所做的只是在事情变得艰难时选择进行移交。 当人工智能没有什么可以建设性地做的时候,把球扔给人类球员。

AI 开发人员在编写 AI 代码时可能没有对此给予任何专门的思考,然后他们往往会因未能进行测试而导致这一点暴露出来,从而导致双重失败。 他们的测试表明,当达到人工智能的极限时,人工智能“尽职尽责”地进行了交接。 瞧,人工智能被认为是好的并且准备好了。 测试不包括被置于那个令人羡慕和不可能的位置的实际人类。 没有适当的人在环测试过程可能会抗议在最后一刻或实际上在最后一刻进行的眨眼交接对他们没有好处或没有好处。

当然,一些人工智能开发者会敏锐地考虑到这种困境,明智地如此。

在考虑了这个难题之后,无论如何,他们将继续对 AI 进行编程,使其以这种方式行事。

为什么?

因为没有别的事可做,至少在他们的脑海里是这样。 当一切都失败时,将控制权交给人类。 也许奇迹会发生。 但要点是,这不是人工智能开发人员关心的问题,他们正在给人类最后一次机会来应对手头的混乱局面。 人工智能开发人员对此后发生的任何事情都束手无策。

我想澄清一下,人工智能开发人员并不是这些烫手山芋设计的唯一设计者。 有许多其他利益相关者为此而坐到了谈判桌前。 也许进行规范和需求分析的系统分析师曾表示这是人工智能应该做的。 相关的人工智能开发人员相应地制作了人工智能。 人工智能项目经理可能已经设计了这个。 监督人工智能开发的高管和管理层可能已经设计了这个。

整个 AI 开发生命周期中的每个人都可能继承了同样的烫手山芋设计。 是否有人注意到它,我们不能肯定地说。 如果他们确实注意到了,这些人可能会被贴上反对者的标签并被抛到一边。 其他人可能已经将此事引起了他们的注意,但他们并不理解其后果。 他们觉得这是一个技术细节,不在他们的范围内。

我将在这个非正式的“原因”列表中添加一个更邪恶的可能性。

AI Hot Potato Syndrome 有时会被故意使用,因为那些制造 AI 的人希望他们慷慨激昂地声称合理的否认。

为故事的这一部分做好准备。

在工厂机器失控的情况下,对于发生的事情谁应该负责,肯定会有很多指责。 在操作机器方面,我们有一个人工智能系统这样做,我们有一个人在循环这样做。 打个比方,这是我们的两个篮球运动员。

时钟快要倒了,机器快要开动了。 假设你和我都知道 AI 向人类在环中进行了切换,但没有足够的时间让人类采取任何足够的行动来纠正或避免灾难。 没有其他人意识到这就是发生的事情。

在任何情况下,制造人工智能的公司都可以立即声明他们没有过错,因为人类拥有控制权。 根据他们无可挑剔的记录,在大爆炸发生时,人工智能并没有受到控制。 人类是。 因此,很明显,人的过错是显而易见的。

AI公司在做出这种直言不讳的断言时基本上是在撒谎吗?

不,他们似乎在说实话。

当被问及他们是否确定人工智能不受控制时,该公司会大声而自豪地宣称人工智能根本不受控制。 他们已经记录了这一断言的证据(假设人工智能保留了事件的日志)。 事实上,人工智能公司的高管们可能会因为有人会在这一点上挑战他们的诚信而厌恶地扬起眉毛。 他们愿意以他们神圣的誓言宣誓人工智能是 不能 掌控之中。 人在环中有控制权。

我相信你明白这有多么误导。

是的,人类被交给了控制权。 理论上,人类处于控制之中。 人工智能不再控制。 但是缺乏可用的时间和通知几乎使得这是一个非常空洞的主张。

从 AI 制造商的角度来看,这样做的美妙之处在于,很少有人能够挑战所提出的主张。 AI 制造商可能不会发布事件的日志。 这样做可能会暴露被操纵的情况。 这些日志被认为是知识产权 (IP) 或其他专有和机密性质的。 该公司可能会争辩说,如果显示日志,这将展示他们 AI 的秘密武器并耗尽他们宝贵的 IP。

想象一下可怜的人在循环中的困境。 他们感到困惑的是,每个人都在指责他们让事情失控。 人工智能“做了正确的事”并将控制权交给了人类。 这可能是规范所说的(同样,规范在没有考虑时间和可行性因素方面是疏忽的)。 尚未发布但被 AI 制造商声称是铁定的日志证明了人类已被 AI 控制的绝对事实。

你可以宣布这是对几乎肯定会摔倒的困惑人类的一次可怜的灌篮。

很有可能,只有将这件事告上法庭,发生的事情的真相才会最终被揭露。 如果精明的合法小猎犬知道这种类型的演出,他们会尝试合法地获取日志。 他们需要找一位专家证人(我不时做的事情)来破译日志。 仅有日志可能还不够。 日志可能被篡改或更改,或者故意设计为不清晰地展示细节。 因此,人工智能代码可能也需要深入研究。

与此同时,在整个这个痛苦而漫长的法律发现过程中,人在循环中看起来真的很糟糕。 媒体会把这个人描绘成不负责任,失去理智,不勤奋,应该被追究责任。 可能几个月或几年,在这个过程中,那个人仍然是每个人都指责的那个人。 恶臭可能永远无法去除。

请记住,同样的情况很容易再次发生。 然后再次。 假设人工智能制造商没有改变人工智能,每当出现类似的最后一分钟情况时,人工智能就会进行无时间剩余交接。 人们希望这些情况不会经常发生。 在它发生的极少数情况下,人在循环中仍然是方便的堕落者。

这是一个魔鬼的把戏。

您可能想坚持认为 AI 制造商没有做错任何事。 他们说的是实话。 AI放弃了控制。 然后认为人类处于控制之中。 这些是事实。 争论它没有任何意义。

无论是否有人明智并提出棘手的问题,以及人工智能制造商是否以任何直接的方式回答这些问题,这似乎都很少发生。

问题包括:

  • 人工智能什么时候交接给了人在环?
  • 人工智能在什么程序基础上进行交接?
  • 是否有足够的时间来接管控制权?
  • 人工智能是如何为这些困境设计和设计的?
  • 等等。

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。 人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括(可能令人惊讶或具有讽刺意味地)评估 AI Ethics 如何被公司采用。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在这个重要讨论的关键时刻,我敢打赌,您希望获得一些可能展示该主题的其他说明性示例。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 你看,以我作为人工智能专家的身份,包括伦理和法律后果,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了有关人工智能热土豆综合症的任何信息,如果是这样,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能热土豆综合症

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

对于全自动驾驶汽车,可能没有任何机会在人工智能和人类之间发生切换,因为可能没有任何人在循环中开始。 当今许多自动驾驶汽车制造商的愿望是将人类驾驶员完全从驾驶任务中移除。 该车辆甚至不包含人类可访问的驾驶控制。 在这种情况下,人类驾驶员(如果存在)将无法参与驾驶任务,因为他们无法访问任何驾驶控制。

对于一些全自动驾驶汽车,一些设计仍然允许人类参与其中,尽管人类根本不必在场或参与驾驶过程。 因此,如果人愿意,人可以参与驾驶。 不过,人工智能绝不会依赖人类来执行任何驾驶任务。

在半自动驾驶汽车的情况下,人类驾驶员和人工智能之间存在手拉手的关系。 对于某些设计,人类驾驶员可以完全接管驾驶控制,从本质上阻止人工智能参与驾驶。 如果人类驾驶员希望让人工智能恢复驾驶角色,他们可以这样做,尽管这有时会迫使人类放弃驾驶控制。

另一种形式的半自动操作将需要人类驾驶员和人工智能以团队的方式一起工作。 人工智能在驾驶,人类在驾驶。 他们一起开车。 人工智能可能会服从人类。 人类可能会服从人工智能。

在某个时刻,人工智能驾驶系统可能会通过计算确定自动驾驶汽车正处于无法维持的境地,并且自动驾驶汽车将发生碰撞。

顺便说一句,一些权威人士四处声称自动驾驶汽车将是不可碰撞的,这纯粹是胡说八道,而且是无耻和错误的说法,请参阅我的报道 这里的链接.

继续自动驾驶汽车驶向碰撞或车祸的场景,人工智能驾驶系统可能会被编程为将驾驶控制权立即移交给人类驾驶员。 如果有足够的时间让人类驾驶员采取规避行动,这对人工智能来说确实是一件明智而恰当的事情。

但是假设人工智能在只剩下几分之一秒的时间内完成了交接。 人类驾驶员的反应时间远远不够快,无法做出充分反应。 另外,如果人类奇迹般地足够快,那么在坠机前剩余的有限时间内,很可能没有可行的规避行动可以采取。 这是一个双重原因:(1)人类驾驶员采取行动的时间不足,(2)如果人类驾驶员可以采取行动,则该行动可以在所提供的不足时间内执行的时间不足。

总而言之,这类似于我之前关于篮球蜂鸣器情况和工厂机器发狂情况的讨论。

让我们在其中添加邪恶的成分。

汽车制造商或自动驾驶技术公司不希望被贴上他们车队中发生的各种车祸的标签。 人工智能驾驶系统被编程为始终将控制权交给人类驾驶员,无论人类驾驶员是否有足够的时间对困境采取任何行动。 每当发生此类车祸时,汽车制造商或自动驾驶技术公司都能够口头坚称人类驾驶员在控制,而人工智能则不然。

他们在人工智能驾驶系统方面的记录似乎很出色。

对于这些车祸,人工智能驾驶系统一次都没有“过错”。 似乎总是那些该死的人类司机似乎并没有把眼睛放在路上。 我们可能倾向于接受这种废话,并相信完全精确的人工智能可能永远不会出错。 我们可能倾向于相信(因为我们根据经验知道)人类司机很马虎并且会犯大量的驾驶错误。 合乎逻辑的结论是,人类司机一定是罪魁祸首,而人工智能驾驶系统是完全无辜的。

在一些自动驾驶倡导者对这种特征感到不安之前,让我们绝对承认人类驾驶员很可能有过错,他们应该尽快采取行动,例如从人工智能手中接管驾驶控制。 当人工智能交出驾驶控制时,人类驾驶员也有可能做一些实质性的事情。 等等。

这里的重点是在人工智能被认为是车辆驾驶员的情况下,然后突然且很少注意人类驾驶员可能会做什么,将烫手山芋扔给人类驾驶员。 这也是为什么这么多人关注半自动驾驶汽车的双重驾驶角色的原因。 你可能会说有太多的司机在开车。 看来,目标是通过拥有完全自动驾驶的车辆来解决这个问题,这种车辆不需要人类驾驶,并且人工智能始终在驾驶车辆。

这就提出了一个相关的问题,即当人工智能驾驶时,由什么或谁负责,我在我的专栏中已经多次讨论过这个问题,例如 这里的链接这里的链接.

结论

在听到或阅读涉及半自动驾驶汽车的车祸时,我们需要小心。 警惕那些试图通过宣称他们的人工智能驾驶系统拥有完美记录来欺骗我们的人。 阴谋诡计 人工智能热土豆综合症 可能在混合。

对于那些试图在这些事情上狡猾的公司来说,也许我们可以牢记亚伯拉罕林肯的名言:“你可以有时愚弄所有人,也可以一直愚弄一些人,但你不能愚弄一直都是所有人。”

我试图在这里揭示隐藏在屏幕后面的 AI 魔法,有时隐藏在引擎盖下,我已经阐明了这一点,以便更多的人 不会 更多时候被愚弄。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employees-by-ai-makers-看似试图避免对他们的生活负责的自主系统/