人工智能伦理与人工智能算法单一文化的阴险相似的想法,包括自动驾驶汽车

让我们来看看一个令人费解的难题。

据说,伟​​大的思想是一致的。

毫无疑问,您已经多次听到这个方便的标语。 在一些闲聊中,如果你和一位同事或朋友设法在同一时刻达成了同一个想法,你们中的一个人一定会高兴地惊呼,伟大的思想都是一样的。 这无疑是对您和您的人类同胞的恭维声明。

我们可以在这种组合中添加另一条圣人智慧。

据说傻瓜很少有分歧。

我想稍微改一下这句格言。 看起来相当等价的说法是,傻瓜往往想法相同。 我知道你可能会对重铸著名的台词有点狡辩。 尽管如此,如果傻瓜很少有不同,你可以推断出傻瓜主要倾向于转向相似的想法,这似乎是相对准确的。 我希望这不会对神圣智慧的偏离改变造成太多的胃灼热或惊愕。

我们现在正处于这种两难境地的危险时刻。

假设我们公开承认伟大的思想通常是正确的,并且我们同时承认傻瓜倾向于想法一致的断言也是正确的。 当你遇到一群想法相同的人时,我必须问你一个简单的问题。

他们都是伟大的头脑还是都是傻瓜?

哎呀!

根据关于伟大思想的规则,他们可能是思想伟大的。 另一方面,按照关于傻子的规则,他们显然都是傻子。 我们好像有问题。 您可能会结结巴巴地说,也许这些志同道合的思想家既是思想家又是傻瓜。 你能同时成为两者吗? 好像你在试图乞求这个问题。

你可能会激烈地争辩说,相同的想法并不能传达任何关于聚会是在思考巨大还是愚蠢的信息。 我们可能无意中颠倒了逻辑。 任何想法相同的人都只是想法相同。 你不能试图用被贴上一群伟大的头脑或愚蠢的头脑的标签来掩盖他们的思维相似性。 他们可能头脑混乱。 他们可能被说服了。 从本质上讲,描述可能不一定会落入某种错误的二分法,即单纯地伟大或愚蠢。

有各种各样的见解与涉及具有相似想法的人的设置相关联。

据报道,圣雄甘地曾说过,一小群坚定而志同道合的人可以改变历史进程。 这无疑展示了拥有志同道合的巨大潜力。 柏拉图警告说,当谈到封闭的思想时,你可能会认为是一群志同道合的人可能是不屈不挠的,你可以得到这个:“只有这一点是值得恐惧的:封闭的思想,沉睡的想象力,精神死亡。”

带着一连串关于志同道合的好奇心,我要去哪里?

好吧,事实证明,人们担心人工智能正在逐渐让我们走上一条不可避免且不受欢迎的道路,让志趣相投的人工智能算法统治我们的日常活动。 这被概括地称为 人工智能算法单一文化.

我们正在走向这样一种情况,即社会依赖于普遍存在的人工智能系统,这些系统可能具有相同或几乎相同的基本算法能力。 从这个意义上说,我们很容易受到全球范围内大规模的志同道合的影响。

在我进一步讨论这个话题之前,我想马上澄清一下,我并不是在暗示有感知的人工智能。 正如我稍后将解释的那样,我们今天没有感知人工智能。 尽管那些狂野而睁大眼睛的头条新闻宣称我们拥有有感知的人工智能,但事实并非如此,应该完全无视。

我强调这一点的原因是,当我将 AI 描述为“志同道合”时,我不想让你得出今天的 AI 在某种程度上等同于人类思维的结论。 肯定不是。 请不要进行那种拟人化的联想。 我使用志同道合的措辞只是为了强调人工智能算法可能以这样一种方式组成,即它们以相同的方式工作。 尽管他们并没有像我们所理解的人类思维质量那样“思考”。 我将在此处简要说明这一点。

在算法单一文化结构方面“志同道合”的人工智能是我们可以评估为同时是坏和好的东西。 不好的一面是,如果这些常用和使用的相同性 AI 充斥着偏见和歧视性内容,那么 AI 很可能会被广泛使用并在各处传播这些令人讨厌的做法。 好的一面是,如果人工智能的设计和完成得当,没有偏见和歧视性的包含,我们希望能够广泛地注入公平性。 所有这些都具有示范性的 AI 伦理和 Ethical AI 含义。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接 这里的链接.

以下是我关于 AI 算法单一文化的七个实用的经验法则:

1)人工智能算法单一文化包括采用相同或几乎相同的基础算法,然后广泛用于做出影响人类的决策

2)这样的人工智能可以提供一致性和可靠性,尽管这是一把双刃剑

3)一方面是传达负面偏见的人工智能很容易以不良方式传播和反复使用(这很糟糕)

4)另一方面,体现公平性和其他正当需要的属性的人工智能可以被广泛传播(这很好)

5)当具有这种口径的人工智能同质性时,存在某种系统范围的漏洞,并且可能被破坏性冲击大大削弱

6) AI 异质性有时可能是首选,尽管这引发了对可能出现的巨大不协调的担忧

7)我们都需要思考、关注和抗衡人工智能算法的单一文化

在深入了解 AI 算法单一文化背后的狂野和毛茸茸的考虑之前,让我们建立一些关于深刻不可或缺的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到我们对 AI 算法单一文化的关注。

我们似乎都意识到,在当今互联的基于数字的世界中,我们甚至可以通过在数据库中拥有极少的数据并且似乎无论我们走到哪里都可以成为黑名单。 例如,假设存在一个数据库,其中包含一条数据,其中包含您不值得信赖的指标。 这对你来说可能是真的,也可能是完全错误的。 您可能知道数据库包含这条信息,或者您可能完全不知道它。 这是我们都沉浸其中的一个数据过剩的宇宙的一大堆废话。

包含该指标的数据库可以很容易地与其他地方的其他数据库共享关于您的重要方面。 眨眼之间,世界各地的电子连接数据库可能会有现在传输的标志,表明您不值得信赖。 如果您选择申请贷款,那么一些贷款审批应用程序很可能会访问其中一个数据库并检索表明您将被冷落的标志。 您可能会在世界某个地方尝试获得贷款并被立即拒绝。 去另一个地区旅行可能没有什么好处。 无论您走多远,数据库的相互联系都会吸引您。

幸运的是,有关数据和隐私的各种法律已经逐步颁布。 不同国家的法律明显不同。 它们也可能因州而异。 但至少人们意识到在能够快速传播有关您的信息的数据库中拥有数据所带来的危险。 希望您将有法律追索权来尝试防止虚假信息,或者至少知道它存在于您身上。 请参阅我的报道 这里的链接 关于隐私入侵和人工智能。

我想你可以说关于你的数据是一种众所周知的“标签,你就是它”的游戏(在这个游戏中,我们有时想成为被标记的人,而其他时候我们希望不被如此标记)。

深吸一口气。

假设我们挥动一根魔杖,可以奇迹般地确保这种关于你的数据的同质性​​不会发生。 我们能够让整个社会团结起来,制止这些行为。 您可能会假设您不再处于此类担忧的危险之中。

很抱歉,你会错过 AI 算法单一文化所带来的危险。

这就是为什么

我们将回到试图获得贷款的例子。 设想您去找贷方,他们正在使用具有特定算法的 AI 系统,我们将其称为算法 Y。在您的情况下,当您申请并提供您的详细信息时,算法 Y 的编写方式如下:它将在数学上即时确定您是否应该被拒绝贷款。 从本质上讲,这个算法可以“决定”你不值得信用。

请注意,在这种情况下,我们假装 AI 没有访问数据库来尝试获取您的信誉。 因此,人工智能不可能根据这里或那里的数据库中的一些数据做出拒绝。 关于所涉及的计算,整个选择是通过算法 Y 做出的。

AI 表示您被拒绝贷款。 我相信你会对这个结果感到失望。 你可能会耸耸肩,选择去不同的贷方。 同样,您肯定知道没有一个数据库可以让您退出竞争。 在您看来,您需要做的就是不断尝试不同的贷方,最终您将获得绿灯。

在去另一个贷方时,你又一次被拒绝了。 这令人不安。 你尝试了另一个贷方,但很快就被拒绝了。 一次又一次,每次尝试都会导致同样令人沮丧的结果。 你被激怒了。 你被激怒到无止境。

到底是怎么回事?

是否所有这些贷方都暗中密谋确保您无法获得贷款?

简短的回答是“不”,我们要说他们本身并没有密谋。 相反,他们都碰巧使用了算法 Y。他们并没有“密谋”聚集在幕后,并同意在他们的 AI 中使用算法 Y。 没有一个黑手党式的聚会说他们都将使用算法 Y。作为旁注,有人认为这确实可能发生,但为了讨论起见,我们暂时将这些替代方案放在一边.

有一个完全合理的理由是算法 Y 可能被所有这些独立且不同的贷方使用。 算法 Y 可能是开源的。 这些不同贷方中的每一个的人工智能开发人员可能在每种情况下都只是接触到一个开源库并将那段代码复制到他们的人工智能系统中。

这可能是完成工作的最简单和最快的方法。 无需从头开始尝试设计该算法 Y。在几分钟的在线访问中,编码已经为您完成并可以直接使用。 复制和粘贴。 此外,您也许可以避免对代码进行任何调试。 您的假设可能是代码已经经过充分测试,您无需重新发明轮子。

好的,所以贷方都无辜地选择使用算法 Y。算法 Y 很有可能被称为“黄金标准”,用于确定信用价值。 这将使该特定算法的采用更加流行。 AI 开发人员不仅通过使用它来节省时间,他们也在安全行事。 其他所有人都发誓该算法可以使用。 为什么要与群众的智慧作斗争? 这样做似乎很不谨慎。

欢迎来到人工智能算法单一文化的时代。

我们通过这个例子在这里发现,相同的算法可以很容易地在众多人工智能系统中一遍又一遍地使用。 没有特别的阴谋。 手头没有超级骗子策划的邪恶阴谋。 代替那些恶意方案,由于可以被描述为良性和有益的原因,特定算法变得占主导地位。

在过去的几年里,广泛使用相同算法的可能性已经存在,尽管需要克服更多的障碍。 今天,几乎可以毫不费力地访问算法存储集线器的使用。 开源比前几代更容易被接受。 等等。

以我们一直在探索的贷方的一个示例为例,我们最终可能会有两个贷方、二十个贷方、两百个贷方、两千个贷方,或者可能有数十万贷方都选择在他们的人工智能。 算法AI是肯定的。 它正在全球范围内被选中并根植于人工智能中。

没有人提出任何危险信号。 没有明显的理由这样做。 如果有的话,当一些贷方选择不使用算法 Y 时,可能会引发危险信号。嘿,这个问题可能会被劝告,你没有使用算法 Y。什么给出了? 你是否故意试图做一些卑鄙或肮脏的事情? 齐心协力,与其他人一起加入。

将这种相同的概念单一文化外推到各种 AI 系统和各种算法。

一项研究以这种方式描述了这一现象:“用于塑造社会选择的算法的兴起伴随着对单一文化的担忧——即在算法管理面前选择和偏好将变得同质化”(Jon Kleinberga 和 Manish Raghavana, 《算法单一文化与社会福利》 PNAS 2021)。 他们进一步指出:“即使算法在具体情况下更准确,但当算法发现自己​​处于不利条件时,每个人都使用相同算法的世界很容易出现相关故障。”

我们现在可以有效地重新审视我之前关于 AI 算法单一文化的七条规则:

1)人工智能算法单一文化包括采用相同或几乎相同的基础算法,然后广泛用于做出影响人类的决策

2)这样的人工智能可以提供一致性和可靠性,尽管这是一把双刃剑

3)一方面是传达负面偏见的人工智能很容易以不良方式传播和反复使用(这很糟糕)

4)另一方面,体现公平性和其他正当需要的属性的人工智能可以被广泛传播(这很好)

5)当具有这种口径的人工智能同质性时,存在某种系统范围的漏洞,并且可能被破坏性冲击大大削弱

6) AI 异质性有时可能是首选,尽管这引发了对可能出现的巨大不协调的担忧

7)我们都需要思考、关注和抗衡人工智能算法的单一文化

正如我在规则 2 中所指出的,人工智能算法的单一文化显然是一把双刃剑。

根据我的第 3 条规则,您最终可能会处于劣势。 如果你被一个又一个贷款人拒绝,无论你走到哪里,如果算法 Y 是基于偏见或其他不适当的基础这样做,那么你会很遗憾地被诅咒。 试图推翻这一点将更加困难。 在数据库中关于您的数据的情况下,您很可能有一些法律追索权,并且也普遍认识到不良数据可以做什么。 很少有人会理解一个糟糕的算法会跟随你到天涯海角。

根据我的第 4 条规则,人工智能算法单一文化有潜在的优势。 假设算法 Y 正确地阻止了你获得贷款。 您可能已经偷偷摸摸地尝试通过四处购物来欺骗事情。 由于相同的算法 Y 被广泛使用,因此您的购物不太可能一举成名。 虽然我们可能不喜欢算法公平的持久和普遍可能性的想法(如果有这样的事情,请参阅我的分析 这里的链接),当一件好事被广泛传播时,我们可能会感到高兴。

让我们接下来讨论冲击。

在我的规则 #5 中,我指出存在一种潜在的疑虑,即 AI 算法单一文化可能会受到大规模破坏。 这很容易解释。 想象一下,算法 Y 中存在软件错误。没有人注意到它。 千百年来,它一直隐藏在那里。 如果您怀疑这种情况是否会发生,即错误可能存在于开源代码中,但之前尚未发现,请参阅我的报道 这里的链接 的这种情况。

错误浮出水面并导致算法 Y 不再是每个人都认为它是美化的代码片段。 意识到这个错误存在于成千上万的人工智能系统中。 很快,这个错误可能会在全球范围内遇到,我们很快就会发现自己面临着可怕的混乱局面。 既然每个人都把鸡蛋放在一个篮子里,而且篮子现在完全错了,全世界都在发生同样的事情。

一场史诗般的灾难。

从理论上讲,如果贷方都在设计自己的专有算法,这将不会轻易发生。 很有可能,如果其中一个有错误,其他人不会。 如果它们都使用相同的基本代码,它们都有相同的错误。

做就该死,不做就该死。

我敢肯定,你们中的一些人正在抱怨关于单一文化环境中的错误的好消息是,如果有可用的修复程序,每个人都可以简单地进行相同的修复程序。 这似乎是看待此事的一种光明正大的方式。 是的,这可能会奏效。 但这里的要点是,全面中断的可能性增加。 即使解决方案可能更容易应对,但由于单一文化方面,您仍然面临着巨大的破坏。

除了可能引起震惊的错误实例之外,我们还可以大量提出许多其他令人不安的场景。 一个是网络骗子,他设计了一种邪恶的方式来篡夺一种普遍使用的算法。 恶人手里可能有大财。 他们可以从一个人工智能转到另一个人工智能,让人工智能做一些卑鄙的事情。 这一切都是因为同样的算法被一遍又一遍地使用。 巨大的规模可以被用来做善事,遗憾的是可能被用来做坏事。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了人工智能算法的单一文化,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能算法单一文化

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

我们将首先陈述一些重要的基础。 正在设计人工智能驾驶系统来尝试和安全地操作自动驾驶汽车。 一些汽车制造商和自动驾驶技术公司正在以专有方式进行编码。 其他人则依赖开源代码。

设想一些算法 Z 可以在开源存储库中使用,并且可以方便地用于 AI 驾驶系统。 汽车制造商或自动驾驶技术公司将算法 Z 整合到他们的人工智能驾驶系统中。 这将被整合到他们的人工智能驾驶系统中。

如果他们将十几辆自动驾驶汽车放在道路上,所有这些自动驾驶汽车都将包含算法 Z,作为人工智能驾驶系统车载软件的一部分。 逐渐地,假设自动驾驶汽车安全行驶,车队规模增加到二十辆自动驾驶汽车在道路上行驶。 决定进一步增加。 很快,这支车队的两千辆自动驾驶汽车现在就出现在街道和高速公路上。 等等。

另一家汽车制造商也在其驾驶系统中使用算法 Z。 他们也在部署他们的自动驾驶汽车。 他们的舰队规模扩大了。 很快,他们就有数千辆自动驾驶汽车来回徘徊。

我相信你可以看到它的发展方向。

随着基于人工智能的自动驾驶汽车的出现,我们可以发现自己处于人工智能算法的单一文化中。 许多品牌和型号的自动驾驶汽车都可能在其人工智能驾驶系统的某个地方使用了特定的算法。 在这件事上没有任何勾结。 没有什么大阴谋在起作用。

关于有一天我们的道路上可能会有多少辆自动驾驶汽车,关于这个话题存在着激烈的争论。 我们知道,仅在美国,今天就有大约 250 亿辆人类驾驶汽车。 一些人认为我们将需要大约 250 亿辆自动驾驶汽车,假设我们最终会淘汰人类驾驶的汽车,或者它们自然会被自动驾驶汽车抛弃并取而代之。

不要那么快,一些劝告。 人类驾驶的汽车大约有 90% 或更多的时间没有被使用。 总的来说,人类驾驶的汽车停在原地,等待人类司机驾驶它们。 基于人工智能的自动驾驶汽车几乎可以一直在驾驶。 除了在维护或其他所需的停机时间之外,您大概可以拥有一辆 24×7 的 AI 自动驾驶汽车。

在这种情况下,您似乎不需要 250 亿辆自动驾驶汽车来一对一地取代 250 亿辆人工驾驶汽车。 或许 200 亿辆自动驾驶汽车就足够了。 也许100亿。 没有人可以肯定地说。 关于我对这个问题的评估,请参阅 这里的链接.

我现在只想指出,我们可能会有数以百万计的自动驾驶汽车最终在我们的高速公路和小路上漫游。 就本文而言,我们最终将在道路上准确地拥有多少人并不是一个至关重要的问题。 毫无疑问将有数百万。 由于 AI 算法的单一文化和大规模遇到优缺点的关键特性,这种规模通常很重要。

这是转折点。

幸运的是,算法 Z 中存在一个以前没有人注意到的严重问题。 有一个错误会导致 AI 驾驶系统的其余部分出错。

坏消息。

对于那些在设计人工智能驾驶系统中苦苦挣扎的人,我意识到你通常不喜欢这种最坏的情况,虽然机会可能很小,但它们仍然值得讨论。 我们不能把头埋在沙子里。 最好睁大眼睛,努力防止或至少减轻这些类型的灾难。

从理论上讲,包含这个漏洞的人工智能自动驾驶汽车可能会试图撞上它所掌握的几乎所有东西并与之相撞。 人工智能只是按照它在这种环境中“设计”的方式去做。 这将是灾难性的。

你们中的一些人可能会认为,仅仅因为一辆 AI 自动驾驶汽车可能遇到这个错误,这本身似乎并不是什么大问题。 我这么说是因为一旦人工智能自动驾驶汽车撞到卡车或其他什么东西上,车辆本身很可能受到严重损坏,以至于人工智能无法再主动引导它进行任何进一步的混乱和破坏。 可以这么说,它已经死在水中了。

好吧,考虑一下所涉及的比例因子。

如果有数以百万计的自动驾驶汽车并且它们都依赖于相同的嵌入式算法 Z,它们可能会遗憾地执行相同的错误。

我知道并承认可以通过使用 OTA(空中下载)电子分发软件更新来修复或克服此错误。 作为快速背景,许多人滔滔不绝地谈论使用 OTA 的优势。 当需要更新软件时,您不必将 AI 自动驾驶汽车带到汽车维修店或经销商处。 OTA 几乎可以在自动驾驶汽车所在的任何地方(在限制范围内)完成。

同时,在我们找出漏洞和修复之前,在通过 OTA 发送之前,道路上的自动驾驶汽车仍然处于不稳定的状态。 有些人会遇到错误并出错。 其他人正处于这样做的边缘。

我们可能会选择坚持要求所有自动驾驶汽车目前都应该停在原地,并且在 OTA 修复被传送到 AI 驾驶系统之前不要进一步使用。 想象一下中断。 假设我们只剩下很少有人驾驶的汽车了。 自动驾驶汽车也很有可能不会配备人类驾驶控制装置。 从本质上讲,在我们修复错误的同时,您最终可能会停飞 200 亿辆(或任何数量)自动驾驶汽车。

如果社会已经变得依赖于自动驾驶汽车,那么从移动性的角度来看,你几乎已经关闭了社会,至少在错误修复被推出之前是这样。

现在,这将对系统造成有害且令人震惊的冲击。

我怀疑潜伏的虫子做出可怕的行为的想法似乎几乎无法想象,尽管同时我们不能完全排除这种可能性。 还有其他可能性,例如可能存在的网络犯罪漏洞。 例如,我已经讨论过一个流氓民族国家如何通过利用人工智能驾驶系统的弱点来尝试实施令人发指的行为,请参阅我的讨论 这里的链接. 此外,有关我如何恶意收购人工智能自动驾驶汽车的详细信息,请参阅我的报道: 这里的链接.

结论

志同道合既是福也是祸。

我们之前注意到甘地说过,志同道合的人可以取得伟大的成就。 “志同道合”的人工智能可能会取得伟大的成就。 柏拉图警告我们,封闭的思想可能是一种严重的危险。 如果我们周围都有志同道合的系统,我们可能会面临无意(或有意)颠覆因素的潜伏危险,这些因素可能会伤害我们中的一些人,也可能伤害我们所有人。

我们需要对人工智能算法单一文化持开放态度。 如果我们做对了,我们也许能够利用善,避免恶。

但前提是我们对这一切的想法是正确的。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-insidious-one-like-mind-of-ai-algorithmic-monoculture-including-for-自动驾驶汽车/