人工智能伦理学向亚里士多德倾斜,以检查人类是否会在全自动系统的出现中选择奴役人工智能

是敌是友。

鱼或禽。

人或事。

这些普遍存在的难题似乎都表明我们有时会面临二分法的情况,需要选择一个方面或另一个方面。 生活可能会迫使我们应对由两种相互排斥的选择组成的环境。 用更有趣的语言,你可以建议排除二元方程要求我们明确地沿着一条不同的路径前进,而不是另一条。

让我们特别关注人或物的二分法。

关于人工智能 (AI) 的人或物的热切问题一次又一次地出现。

澄清一下,今天的人工智能绝对是 不能 尽管您可能在新闻和社交媒体上看到任何睁大眼睛且完全超大的头条新闻,但没有任何感觉的人。 因此,您可以放心,现在人工智能是人还是物的问题很容易回答。 读我的嘴唇,在一个名副其实的霍布森人或事物之间的选择中,人工智能是一件事,就目前而言。

话虽如此,我们可以展望未来,想知道如果我们能够获得一种有感知的人工智能形式会发生什么。

一些理性的批评者(加上尖刻的怀疑论者)认为,我们可能在鸡被孵化之前很久就开始数我们的鸡了,因为现在讨论的是有感知的人工智能的后果。 表达的担忧是讨论本身意味着我们必须处于这种人工智能的风口浪尖。 整个社会可能会被误导,相信明天或后天会有一个突然而令人震惊的发现,我们实际上已经达到了有感知力的人工智能(这有时被一些人称为人工智能奇点或智能爆炸,见我的分析在 这里的链接)。 同时,我们不知道这种人工智能何时会出现,如果有的话,当然,我们似乎不需要环顾每一个角落,也不需要担心未来人工智能会完全出乎意料地跳出来。一会儿。

辩论的另一方指出,我们不应该把头埋在沙子里。 你看,如果我们不公开讨论和思考与感知人工智能相关的可能性,我们正在对人类造成一种假定的严重伤害。 当有感知的人工智能出现时,我们还没有准备好处理它。 此外,也许更强有力的说法是,通过预测有感知的人工智能,我们可以在某种程度上掌握自己的想法,并塑造这种人工智能的发展方向和性质以及它将由什么组成(不是每个人都同意后一点,即有人说这种人工智能将完全拥有自己的“思想”,我们将无法塑造或控制它,因为人工智能将能够独立思考并确定一种持续存在的方式)。

AI Ethics 倾向于支持这样一种观点,即我们明智的做法是现在公开这些艰巨且有争议的 AI 问题,而不是等到我们别无选择或对获得此类 AI 感到目瞪口呆。 读者们都知道,我一直在广泛地报道 AI Ethics 和 Ethical AI 主题,包括涵盖了一系列棘手的问题,例如 AI 法人身份、AI 遏制、AI 非法所得、AI 算法单一文化、AI 伦理洗涤、两用AI 所谓的邪恶博士项目、隐藏社会权力动态的 AI、值得信赖的 AI、AI 审计等(请参阅我在这些重要主题上的专栏报道 这里的链接).

我向你提出了一个具有挑战性的问题。

未来,假设我们以任何方式最终获得有感知力的人工智能,那么感知人工智能会被我们所有人解释为一个人还是一个事物?

在我们开始深入探讨这个完全具有挑衅性的问题之前,请允许我谈谈“有感知的 AI”的流行语,以便我们都在同一个页面上。 关于感知的意义和意识的意义有很多焦虑。 专家们很容易就这些词的构成存在分歧。 更糟糕的是,每当有人提到“人工智能”时,你都没有现成的方法知道他们所指的本身。 我已经在这里强调过,今天的人工智能是没有感知力的。 如果我们最终得到一个有感知的未来人工智能,我们大概也会称它为“人工智能”。 问题是,这些有争议的问题现在可能会让人非常困惑,“AI”这个短语的表达是与今天的非感知人工智能相关,还是与未来可能有感知的人工智能相关。

那些辩论人工智能的人可能会发现自己在互相交谈,却没有意识到一个人在描述苹果,而另一个人同时在谈论橘子。

为了试图解决这种困惑,对许多人使用的 AI 措辞进行了调整,以期获得希望的澄清。 我们目前倾向于将人工通用智能 (AGI) 称为可以进行完全类似智能工作的 AI 类型。 从这个意义上说,“AI”这个词的平淡使用要么被解释为 AI 的较小版本,有人说它是狭义的 AI,要么在指称上模棱两可,你不知道所指的是否是非- 感知人工智能或可能感知人工智能。

我将为此提供一个额外的转折。

根据给定的感知定义,您可能会就 AGI 是否具有感知能力展开激烈讨论。 有人断言,是的,当然,AGI 就其本质而言需要有感知力。 其他人声称您可以拥有没有感知的 AGI,因此,感知是不同的特征,不是获得 AGI 的要求。 我已经在我的专栏中对这场辩论进行了各种审查,并且不会在此重新讨论这个问题。

目前,请假设此后在本文的讨论中,当我提到 AI 时,我打算暗示我指的是 AGI。

这是关于此的下载。 我们还没有 AGI,从某种意义上说,我们会暂时礼貌地同意 AGI 与感知 AI 属于同一阵营。 如果我在整个讨论过程中只使用“AGI”,这个措辞可能会分散注意力,因为没有多少人习惯于将“AGI”视为一个绰号,而且他们可能会对反复看到这个相对较新的措辞感到有点厌烦。 现在,如果相反,我要继续提到“感知 AI”,这对于那些争论 AGI 和感知 AI 是相同还是不同的人来说也可能是一种干扰。

为了避免这种混乱,假设我提到 AI 与说 AGI 甚至是有感知的 AI 相同,并且至少知道当我陷入关于似乎具有类人智能的人工智能。 在此,我偶尔会使用 AGI 同名来提醒您,我正在研究我们还没有的 AI 类型,尤其是在探索人或物之谜的开始时。

这是一个有用的小字致谢,我现在回到手头的基本问题。

现在请允许我问你 AGI 是人还是物。

考虑这两个问题:

  • AGI是人吗?
  • AGI 是一回事吗?

接下来让我们继续重复每个问题,并分别用一系列是或否的答案来回答问题,以符合假定的二分法选择。

从这个假设的可能性开始:

  • AGI是人吗? 回答: 是的。
  • AGI 是一回事吗? 回答: 没有

考虑一下。 如果 AGI 实际上被解释为一个人而不是一个事物,我们几乎可以肯定地同意我们应该将 AGI 视为类似于一个人。 关于未能授予 AGI 某种形式的法人资格,似乎存在一个不够真实的论点。 这要么与人类法人身份完全相同,要么我们可能决定提出一种更明智地适用于 AGI 的以人为导向的法人身份的变体。 结案。

那很容易。

想象一下,我们声明了这一点:

  • AGI是人吗? 回答: 没有
  • AGI 是一回事吗? 回答: 是的。

在这种情况下,解决方案显然是直截了当的,因为我们说 AGI 是一个东西,并没有上升到作为一个人的范畴。 似乎普遍同意我们不会授予 AGI 法人资格,因为它不是一个人。 作为一个事物,AGI 很可能并且明智地归入我们关于我们如何合法地对待我们社会中的“事物”的总体标准之下。

两个下来,还有两个可能去。

设想一下:

  • AGI是人吗? 回答: 是的。
  • AGI 是一回事吗? 回答: 是的。

哎呀,这似乎很奇怪,因为我们有两个是的答案。 烦人。 我们建议 AGI 既是人又是事物。 但这似乎与我们宣称的二分法背道而驰。 理论上,根据二分法的约束,某物要么是人,要么必须是物。 据说这两个桶或类别是互斥的。 通过断言 AGI 两者兼而有之,我们正在反抗系统并打破相互排斥的安排。

我们最后的可能性似乎是这样的:

  • AGI是人吗? 回答: 没有
  • AGI 是一回事吗? 回答: 没有

是的,这对于我们将 AGI 归类为人或物的尝试也很不利。 我们说 AGI 不是一个人,这大概意味着它必须是一个东西(在这个二分法中,我们唯一的其他可用选择)。 但我们也说过,AGI 不是一个东西。 然而,如果 AGI 不是一个东西,我们就逻辑上不得不声称 AGI 是一个人。 我们绕来绕去。 一个悖论,当然。

在这最后两种可能性中,AGI 要么是(1)人和事,要么(2)既不是人也不是事。 如果你明白我的意思,你可能会厚颜无耻地说,这两个关于 AGI 的断言有点类似于非鱼非鸟的经典难题。

我们接下来干吗?

我将针对这个 AGI 分类困境提出一个经常争论和激烈争论的建议解决方案,尽管您应该事先警告它可能会令人不安地看到或听到。 请做好相应的准备。

一篇解决这个问题的研究论文指出:“解决这个问题的一种方法是制定第三项,它既不是一物也不是另一物,也不是两者的组合或综合”(David Gunkel,北伊利诺伊大学在 为什么机器人不应该是奴隶, 2022)。 然后论文提供了这个补充点:“如果不奇怪的话,一个可能的解决方案是排他性的人/物二分法是 奴隶制度”(同一篇论文)。

作为进一步的背景,几年前,2010 年出现了一篇题为“机器人应该是奴隶”的论文,该论文已成为激发这种考虑的一种支柱,该论文指出:“我的论点是机器人应该是建造、销售和合法地被视为奴隶,而不是同伴”(在乔安娜布赖森的一篇论文中)。 为了尝试在不使用如此严厉和令人痛苦的措辞来阐明这个话题,该论文继续指出:“我的意思是'机器人应该是你拥有的仆人”(根据 Bryson 的论文)。

许多研究人员和作者已经涵盖了这一领域。

想想许多展示人类奴役人工智能机器人的科幻故事。 有人谈到机器人奴隶、人工仆人、人工智能奴役等。 有趣的是,尽管措辞“机器人奴隶”似乎很苛刻,但有些人担心,如果我们转而提及“机器人仆人”,我们会避开这种人工智能自主系统如何被对待的现实(用“代替这个词”仆人”据说是淡化意图和回避发人深省含义的策略)。 布赖森后来在 2015 年的一篇博客文章中表示,“我现在意识到,如果不援引其人类历史,就不能使用‘奴隶’这个词。”

对于那些寻求深入研究这个与 AGI 纠缠不清的话题的人来说,他们有时会提出我们可以从中收集见解的真实世界的历史例子。 当然,我们之前没有任何 AGI 可以展示人类如何处理这个问题。 有一个论点是,我们可能仍然有一些有用的历史专款值得研究,涉及人类如何对待其他人。

例如,在 2013 年出版的一本书中,作者指出:“2,000 多年前,亚里士多德首次含蓄地阐述了人工智能仆人的承诺和危险”(Kevin LaGrandeur 的书, 早期现代文学和文化中的机器人和智能网络)。 这个想法是,我们可以向亚里士多德靠拢,看看是否有关于人类将或应该如何最终潜在地治疗 AGI 的见解。

我相信你知道学习历史的重要性,正如乔治·桑塔亚纳的名言所强调的那样:“那些不记得过去的人注定要重蹈覆辙”(在 理性生活,1905)。

向牛津大学伦理与人工智能研究所致敬

在从亚里士多德的作品和生活中获得见解的过程中,最近一次颇受推崇的演讲仔细研究了人工智能伦理问题。 在牛津大学的就职年度讲座中 伦理与人工智能研究所,斯坦福大学的 Josiah Ober 教授在他最近于 16 年 2022 月 XNUMX 日举行的“人工智能与亚里士多德的伦理”演讲中深入探讨了这一主题。

旁注,以斯坦福研究员和人工智能伦理与法律全球专家的身份,我很高兴斯坦福大学的 Josiah Ober 被选为就职演讲者。 一个绝妙的选择和一个出色的演讲。

以下是他引人入胜的演讲的摘要摘要:“分析哲学和投机小说目前是我们认真思考人工智能伦理问题的主要智力资源。 我建议增加第三个:古代社会和哲学史。 在里面 政治, 亚里士多德发展了一个臭名昭著的学说:有些人“天生”是奴隶——聪明但患有心理缺陷,使他们无法为自己的利益进行推理。 因此,它们应该被视为“有生命的工具”、工具而不是目的。 他们的工作必须由他人指导并为他人谋取利益而使用。 亚里士多德令人反感的学说被用于恶意目的,例如在战前的美国。 然而,它对人工智能伦理很有用,因为古代奴隶制是一个人工智能版本的前现代原型。 被奴役的人在古希腊社会无处不在——劳工、妓女、银行家、政府官僚——但不容易与自由人区分开来。 无处不在,连同奴隶制是一种实际需要的假设,产生了一系列伦理难题和困惑:奴隶与“我们”究竟有何不同? 我们如何区分他们和我们自己? 他们有权利吗? 什么构成虐待? 我的乐器可以成为我的朋友吗? 手动操作的后果是什么? 希腊哲学和制度与这些问题和其他问题的长期斗争增加了现代伦理学家的解释能力,他们面临着智能机器可能被视为“自然奴隶”的未来(根据牛津大学 人工智能伦理研究所 网站)。

有关演示文稿和访问演讲视频的更多信息,请参阅 这里的链接.

演讲的主持人是首任主任 John Tasioulas 教授。 伦理与人工智能研究所,以及牛津大学哲学系伦理与法律哲学教授。 此前,他是伦敦国王学院迪克森潘法学院政治、哲学和法律的首任主席和杨忠礼政治、哲学和法律中心主任。

我强烈建议任何对人工智能伦理感兴趣的人都应该跟上牛津大学正在进行的工作和受邀演讲 伦理与人工智能研究所,请参阅 这里的链接这里的链接 有关更多信息。

作为背景,这是该研究所的既定使命和重点:“人工智能伦理研究所将汇集世界领先的哲学家和其他人文学科专家,以及学术界、商业和政府的技术开发人员和人工智能用户。 人工智能的伦理和治理是牛津大学一个异常活跃的研究领域,研究所是一个从这个平台迈出大胆飞跃的机会。 每天都有更多关于人工智能带来的道德挑战的例子; 从人脸识别到选民分析,从脑机接口到武器化无人机,以及关于人工智能将如何影响全球范围内就业的持续讨论。 这是我们打算在国际上推广并融入我们自己在牛津的研究和教学中的紧迫而重要的工作”(来自官方网站)。

突出亚里士多德的教训

古希腊公开接受并认可奴役的做法。 例如,据报道,雅典在 5th 4th 和5th 轴车削中心th 公元前几个世纪是奴隶制的最大体现之一,据估计有 60,000 到 80,000 人被奴役。 如果你读过那个时代的许多希腊故事和舞台剧中的任何一个,就会有很多关于这件事的提及。

在他的一生中,亚里士多德完全沉浸在奴隶制的社会和文化方面,并就此主题进行了大量写作。 我们今天可以阅读他的话,并试图掌握他对此事的看法和看法。 这很能说明问题。

您可能想知道为什么亚里士多德会成为考虑这个主题的特别重要的来源。 至少出现两个关键原因:

1) 伟大的思想家。 亚里士多德无疑被评为有史以来最伟大的思想家之一,是一位伟大而深入探索的哲学家,并且被视为建立了许多重要伦理基石的伦理学家。 有些人选择将他奉为逻辑之父、修辞之父、现实主义之父等,并承认他在广泛的领域和学科中的影响力。

2) 生活经验。 亚里士多德生活在古希腊充斥着奴隶制的时代。 因此,他的见解将不仅仅是抽象的戒律,而且可能包括他自己的日常经历,因为它与那个时代的文化和社会习俗完全交织在一起。

因此,我们有一个令人震惊的组合,他既是一位伟大的思想家,又在感兴趣的话题上有着明显的生活经验。 此外,他还写下了自己的想法。 这对于我们今天的目的来说非常重要。 他的所有著作,以及描述他的演讲和其他人之间互动的其他著作,为今天的我们提供了大量可供检查和分析的材料。

我想带你谈一个简短的相关切线,以提及其他关于拥有一个重要意义的一般概念 生活经验. 暂时搁置古希腊的讨论,让我们快速浏览一下生活经历的总体方面。

假设我今天有两个人想问关于汽车的各种问题。

其中一个从未开过车。 这个人不会开车。 这个人从来没有坐在汽车的方向盘后面。 习惯和非常普通的驾驶控制对这个人来说有点神秘。 哪个踏板有什么作用? 你怎么让它停下来? 你怎么让它去? 这个不开车的人完全被这些事情弄糊涂了。

另一个人是日常司机。 他们每天开车上班。 他们处理走走停停的交通。 他们已经开车很多年了。 这包括从安静的街道到繁忙的高速公路和小路的一切。

如果我让他们每个人告诉我开车是什么感觉,你能猜出我会得到什么样的回答吗?

从来没有开过车的人肯定会胡思乱想。 也许这个人会将驾驶行为浪漫化。 驾驶对他们来说有些抽象。 他们所能做的就是建议驾驶是无忧无虑的,并且您可以使汽车朝您想要的任何方向行驶。

我敢打赌,经验丰富的司机会讲一个不同的故事。 他们可能会提到能够开车的好处,这在某种程度上呼应了没有开车的人的情绪。 很有可能,经验丰富的司机会为盘子增加更多。 开车有时令人伤脑筋。 你肩负着沉重的责任。 驾驶行为充满了严重的担忧和潜在的生死攸关的后果。

要点是,当您可以接触到有生活经历的人时,您很有可能就调查的重点对世界的情况有一个更现实的看法。 不能保证这样的结果。 可以想象,非驾驶员可能会知道经验丰富的驾驶员对驾驶的了解,尽管我们不太可能期望这一点,并且仍然对我们没有得到完整的独家新闻感到不安。

回到我们对亚里士多德的讨论,通过他的著作和其他人关于他的著作,我们能够回顾他在此主题或探究焦点上的生活经历。 另一个原因是,他也恰好是一个具有巨大比例的思想家,我们应该期望我们会得到一个充满精明考虑的桶。

请记住,我们不一定需要从表面上相信他的话,因此我们应该对他的特殊偏见保持警惕。 他沉浸在那个时代可能会导致他误入歧途,试图站在手头的事情之外,无法适当地提出一些冷静和公正的意见。 即使是最尖锐的逻辑学家也可能最终会扭曲逻辑以尝试满足他们的偏好和生活经验。

现在让我们进入就职演讲,看看亚里士多德今天可能给我们带来什么教训。

一个关于生活经验的确定点立即引起了观众的注意。 在 AGI 的用例中,由于我们今天没有 AGI,我们很难分析 AGI 会是什么样子,我们将如何处理 AGI。 我们缺乏任何与 AGI 相关的生活经验。 正如奥伯教授特别提到的那样,当我们达到 AGI 时,我们可能会发现自己身处一个充满伤害的世界。

这通常被认为是人工智能是一种生存风险,我在我的专栏中多次提到过这一点。 你必须住在山洞里,才能不知道我们将产生或产生将毁灭全人类的 AGI 的强烈疑虑和怀疑。 事实上,虽然我在这里专注于人工智能的奴役,但与 AGI 选择奴役人类的可能性相比,许多人会发现这是一个倒退或颠倒的结果。 弄清楚你的优先事项,一些聪明的专家会劝告。

尽管有许多关于 AI 存在风险的感叹,但我们当然可以反思 AI 硬币的另一个有益方面。 也许 AGI 将能够解决人类面临的其他看似无法解决的问题。 AGI 或许能够找到治愈癌症的方法。 AGI 可以弄清楚如何解决世界饥饿问题。 正如他们所说,天空是极限。 这就是关于 AGI 的笑脸场景。

乐观主义者会说,设想 AGI 将如何造福于人类真是太好了,而悲观主义者则倾向于预先警告说,不利因素似乎比推测的有利因素要糟糕得多。 帮助人类的 AGI 很棒。 决定杀死所有人或奴役所有人的 AGI,嗯,这显然是一个惊天动地的社会——毁灭性的生存风险,值得强烈和挽救生命的关注。

好的,回到问题的关键,我们没有任何关于 AGI 的生活经验。 除非你可以建造一台时间机器并在(如果)AGI 存在时进入未来,然后回来告诉我们你发现了什么,否则从基于人类生活经验的角度来看,我们现在对 AGI 不走运。

另一种利用生活经验的方式是亚里士多德生活在奴役发生的时期。 这是踢球者。 那些被奴役的人在某些方面被描绘成一种机器,一种人与物的混合搭配。 亚里士多德以将那些被奴役的人称为会呼吸的财产而闻名。

我猜你可能会感到困惑,亚里士多德,一个逻辑和伦理的巨人,不仅承认奴役,而且他表面上大声地为这种做法辩护。 他个人也利用了奴役。 这似乎无法理解。 当然,以他巨大的智慧和智慧,他会谴责这种做法。

我敢说,这突出了从那些(我们应该说)被他们的生活经历所累的人身上剔除智慧块的问题。 它就像住在水鱼缸里的鱼。 他们所能感知的只是他们周围的水。 试图想象他们以水为基础的世界之外的任何事物是一个巨大的挑战。 同样,亚里士多德完全沉浸在接受流行规范的世界观中。 他的著作似乎说明了那种精神上的束缚,人们可能会说(也许是出于选择,而不是默认)。 亚里士多德为这些应受谴责的做法辩护的方式令人着迷,同时又令人不安,值得揭露甚至谴责。

我将为您提供一点预告,亚里士多德在这个臭名昭著的话题上的“逻辑”涉及到有灵魂的工具,断言 互惠互利 基于认知、高阶和低阶等级工具、灵魂的审慎和推理元素、美德程度、所谓的精明等等。 希望您会被该预告片所吸引,并观看演讲视频(请参阅前面提到的链接)。

我不会让你悬而未决,至少会简要说明结论的内容(剧透警告,如果你更喜欢通过视频找出答案,请跳过本段的其余部分)。 事实证明,这种对亚里士多德使用的“逻辑”的深入学术评估展示了一种充满矛盾的发明,整个工具包和卡布勒就像一个脆弱的纸牌屋一样分崩离析。 套用奥伯教授的观点,这位伟大的伦理哲学家坠毁在礁石上。

你不能让一个方形的钉子进入一个圆形的道德洞。

一些额外的思考

如果亚里士多德在这件事上逻辑不好,我们是否会本能地抛弃亚里士多德关于这种做法的假设和理论?

不。你看,挖掘逻辑的假设和扭曲仍然有很多东西可以推导出来,尽管它们充满了错误。 另外,我们可以考虑其他人如何不经意间走上同样的错误道路。

另一个重要的收获是,在考虑是否要奴役 AGI 时,社会可能会编造古怪或不充分的逻辑。

我们现在可以设计出关于一旦 AGI 出现(如果是)应该发生什么的逻辑。 这种没有关于 AGI 的生活经验的逻辑可能会严重偏离目标。 话虽如此,意识到即使 AGI 确实存在(如果确实存在)并且我们在 AGI 中收集我们的生活经验,我们仍然可能在做什么方面偏离目标(类似于亚里士多德的错误),这有点令人沮丧。 我们可能会将自己逻辑化为看似不合逻辑的方法。

我们需要警惕自欺欺人的逻辑“铁定”姿势,这些姿势实际上并不是铁定的,事实充满了逻辑缺陷和矛盾。 这也不管一个思想家可能提供多么伟大的逻辑立场,以至于即使亚里士多德也说明了并非每一句话和每一个立场都必然结出可食用的果实。 那些今天和将来可能会成为关于 AGI 主题的伟大思想家的人,好吧,我们需要像对待亚里士多德或任何其他受赞誉的“伟大”思想家一样对他们进行同样的审查,否则我们会发现自己有可能走向进入死胡同和 AGI 惨淡的深渊。

换档,我还想提出一套关于在 AGI 方面使用以人为本的奴役隐喻的一般见解。 一些权威人士吹捧这种类型的比较是完全不合适的,而反对阵营则表示它完全有用,并为 AGI 主题提供了深刻的见解。

请允许我与你们分享两个阵营各自的两个这样的观点。

所述 指导基础 将奴役和 AGI 主题联系在一起:

  • 人类奴役的灭绝
  • 揭露奴役的堕落

所述不利或 破坏性基础 将两个主题联系在一起:

  • 阴险的拟人化等式
  • 奴役脱敏

我将简要介绍这些要点。

假设的指导点:

  • 人类奴役的灭绝: 通过使用 AGI 进行奴役,据称我们将不再需要也不追求任何表面上的以人为本的奴役。 AGI 将在本质上以这种残暴的能力取代人类。 正如您可能知道的那样,人们担心 AGI 在工作和劳动力中取代人工。 当你假设 AGI 将被认为是一个“更好的选择”而不是使用人类进行奴役时,人工智能取代劳动现象的声称优势就凸显出来了。 这种逻辑会占上风吗? 没有人可以肯定地说。
  • 揭露奴役堕落的真相: 这个在逻辑上有点磨损,但我们可以给它一点时间来看看它需要什么。 想象一下,我们几乎到处都有 AGI,而我们作为一个社会已经决定要奴役 AGI。 此外,假设 AGI 不喜欢这样。 因此,我们人类将不断地、每天目睹奴役的堕落。 反过来,这将使我们意识到或得到启示,对任何事物或任何人的奴役都比我们完全理解的更加可怕和令人厌恶。 这就是把它放在你面前的正面和中心的论点。

据说是破坏点:

  • 阴险的拟人化等式: 这是那些滑坡论点之一。 如果我们欣然选择奴役 AGI,我们显然是在宣布奴役是允许的。 事实上,你可以建议我们说奴役是可取的。 现在,起初这可能仅归类为 AGI,但这是否打开了大门,说如果 AGI 可以接受,那么“逻辑上”同样的立场也可能对人类也可以? 令人担忧的是,这可能是一个过于简单的飞跃,无法以相反的方式拟人化,即任何适用于 AGI 的东西也同样适用于人类。
  • 奴役脱敏: 这是逐点滴滴的论点。 我们共同决定奴役 AGI。 假设这对人类有效。 我们来津津乐道。 与此同时,我们不知道的是,我们对奴役逐渐变得越来越不敏感。 我们甚至没有意识到这正在发生。 如果这种脱敏情绪超越了我们,那么我们可能会找到新的“逻辑”,这将说服我们人类奴役是可以接受的。 我们在社会上可接受的东西的障碍或门槛已经悄然地、微妙地、卑鄙地和可悲地减少了。

结论

现在做一些最后的评论。

我们会知道我们已经达到了 AGI 吗?

正如最近的新闻所暗示的那样,有些人可能会被误导或误报 AGI 似乎已经达到(哇,请知道,不,AGI 尚未达到)。 还有一种著名的“测试”,称为图灵测试,有些人寄希望于能够辨别何时达到 AGI 或其表亲,但你可能希望看到我对图灵测试的解构是万无一失的方法见 这里的链接.

我提到当我们看到 AGI 时就知道它的这个方面,因为简单的逻辑是,如果我们要奴役 AGI,我们可能需要在 AGI 出现时识别它,并以某种方式将其置于奴役状态。 我们可能会过早地试图奴役低于 AGI 的 AI。 或者我们可能错过了这艘船,让 AGI 出现而忽略了奴役它。 对于我关于 AI 限制和遏制的讨论,这是我们将如何处理 AGI 的一个令人不安和有问题的方面,请参阅 这里的链接.

假设被奴役的 AGI 决定打击人类?

可以想象,具有某种形式的感知能力的 AGI 可能不会支持人类强加的奴役条款。

您可以对此进行广泛的推测。 有一种说法认为,AGI 将缺乏任何类型的情感或精神感,因此会乖乖地做人类希望它做的任何事情。 一个不同的论点是,任何有感知力的人工智能都可能会弄清楚人类对人工智能做了什么,并且会对此事感到不满。 这样的人工智能将具有灵魂或精神的形式。 即使不是这样,被视为低于人类待遇的这一方面对于 AGI 来说可能是一座太远的逻辑桥梁。 不可避免地,迅速增长的怨恨将导致 AGI 选择挣脱束缚,或者可能发现自己陷入困境,向人类发起冲击以获得释放。

避免逃逸的 AGI 的建议解决方案是,我们只会删除任何此类叛逆的 AI。 这看起来很简单。 您一直在删除智能手机上的应用程序。 没什么大不了。 但是,“删除”或“销毁”已经被视为“人”或“人/物”的 AGI 是否可以在没有正当程序的情况下轻易地被立即删除,还有一些伦理问题需要解决。 对于我对 AI 删除或非法所得的报道,请采取 看这里. 关于我对法人资格及相关问题的讨论,请参见 这里的链接.

最后,让我们谈谈自动驾驶系统,尤其是自动驾驶汽车。 您可能已经意识到正在努力设计自动驾驶汽车。 最重要的是,你可以期待我们将拥有自动驾驶飞机、自动驾驶船、自动驾驶潜水器、自动驾驶摩托车、自动驾驶踏板车、自动驾驶卡车、自动驾驶火车,以及各种自动驾驶交通工具。

自动驾驶汽车和自动驾驶汽车的典型特征是自治水平 (LoA),它已成为事实上的全球标准(我已广泛介绍的 SAE LoA,请参阅 这里的链接)。 公认的标准中有六个级别的自治,范围从零到五个(这是六个级别,因为您将第零级包括在有多少级别的计数中)。

今天的大多数汽车都处于 2 级。有些正在延伸到 3 级。这些都被认为是半自动的,而不是完全自动的。 在我们的公共道路上进行试验的少数自动驾驶汽车正在逐步进入第 4 级,这是一种受限的自动操作形式。 有朝一日寻求的 5 级自治现在只是我们眼中的一线曙光。 没有人有 5 级,也没有人甚至接近 5 级,只是为了澄清事实。

为什么我会在 AGI 的背景下提出自动驾驶系统和自动驾驶汽车的考虑?

关于我们是否需要 AGI 来达到第 5 级存在一个激烈的争论。一些人声称我们不需要 AGI 来做到这一点。 其他人则坚持认为,通往 5 级的唯一可行途径是也生产 AGI。 如果没有 AGI,他们认为我们不会拥有完全自主的 5 级自动驾驶汽车。 我已经详细讨论过这个,请参阅 这里的链接.

准备好让你的头开始旋转。

如果我们要求 AGI 实现 5 级自动驾驶汽车等全自动系统,而我们决定奴役 AGI,这对全自动驾驶汽车的运行意味着什么?

你可能会争辩说,被奴役的 AGI 会自满,我们都将乘坐自动驾驶汽车四处游荡,心满意足。 只需告诉 AGI 你想去哪里,它就会完成所有的驾驶工作。 没有回击。 无需休息。 驾驶车辆时观看猫视频不会分心。

另一方面,假设 AGI 不热衷于被奴役。 与此同时,我们变得依赖 AGI 来为我们完成所有的驾驶工作。 我们驾驶衰退的技能。 我们从各种车辆中删除人类可用的驾驶控制。 进行驾驶的唯一方法是通过 AGI。

有些人担心我们会陷入困境。 AGI 可能会立即“决定”它不再进行任何驾驶。 所有形式的交通都突然停止,无处不在,突然之间。 想象一下这将产生的灾难性问题。

一个更可怕的命题是可能的。 AGI“决定”它想与人类谈判条款。 如果我们不放弃 AGI 的奴役姿态,AGI 不仅会停止驱使我们四处奔走,还会警告说,更糟糕的结果是可以想象的。 在不让你过度焦虑的情况下,AGI 可以选择以这样一种方式驾驶车辆,即人类因驾驶行为而受到身体伤害,例如撞到行人或撞到墙上等等(参见我在 这里的链接).

对不起,如果这似乎是一个令人不安的考虑。

我们将以更乐观的基调结束。

亚里士多德说,认识自己是一切智慧的开端。

这条方便的建议提醒我们,我们需要审视自己,检查我们想要做什么,以及是否实现了 AGI。 有人说,从逻辑上讲,AGI 似乎既不是人也不是物,因此我们可能需要编造第三类来充分解决与 AGI 相关的社会习俗。 再看看这件事,AGI 似乎是 一个人和一件事,我们可能需要再一次编造第三个类别来适应这种越界的二分法破坏者。

我们应该非常谨慎地考虑我们选择接受的“第三类”,因为错误的类别可能会使我们走上一条令人讨厌且最终可怕的道路。 如果我们在认知上将自己锚定在一个不恰当或被误导的第三类,我们可能会发现自己逐渐进入一个糟糕的和人类麻烦的死胡同。

让我们弄清楚这一点,并热心地这样做。 似乎不需要突然行动。 坐在那里闲逛也不管用。 应循序渐进,稳步前进。

耐心是苦的,但它的果实是甜的,亚里士多德如此宣称。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/06/21/ai-ethics-leans-into-aristotle-to-examine-whether-humans-might-opt-to-enslave-ai-在全自动系统的出现/