人工智能伦理和法律正在涉足人工智能的泄密或全面破坏人工智能,作为人工智能错误行为的补救措施,甚至可能是对行为不端的自动驾驶汽车的补救措施

你可能会说,社会似乎几乎沉迷于坚不可摧。

我们喜欢展示看似坚不可摧的超人的电影和科幻故事。 我们这些普通的非超人梦想着神奇地变得坚不可摧。 公司销售的产品声称他们吹嘘的商品据说是坚不可摧的。

著名喜剧演员米尔顿·伯尔(Milton Berle)曾经讲过一个关于据称坚不可摧的物品的非常有趣的笑话:“我给儿子买了一个坚不可摧的玩具。 昨天他把它留在了车道上。 它弄坏了我的车。” 对于那些无休止地寻求发现任何可能以某种方式被认为是坚不可摧的事物的人来说,这是一个喧嚣的侧面分裂。

我提出这个相当引人入胜的话题来涵盖一个在人工智能 (AI) 出现时作为一个重要考虑因素迅速上升的问题。 我将把这个有争议的冒泡话题作为一个简单的问题提出来,也许令人惊讶的是,它的答案却相当复杂。

简而言之,人工智能是否完全容易受到破坏,或者是否存在表面上可以断言为坚不可摧的人工智能?

这是最近处理人工智能法律和伦理后果的努力的一个重要方面。 从法律上讲,正如您稍后会看到的那样,使用破坏 AI 系统作为针对某些相关的非法或不道德错误的后果提供法律补救的手段的大门正在打开。 请注意,人工智能伦理领域也在权衡考虑使用人工智能的破坏或类似的人工智能删除。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

考虑一下这整个难题。

我们是否应该寻求删除或摧毁人工智能?

而且,即使我们想这样做,我们能做到吗?

我将继续展开这个有争议的话题,并展示一些例子来突出这个令人费解的困境中涉及的权衡。

首先,让我们在桌面上准备一些语言,以确保我们唱的是同一个曲调。 恰当地表达该主题的崇高方式包括表明我们的目标是 AI 吐出. 有些人还可以互换使用 算法除杂. 为了在这里讨论,我将把这两个流行语等同起来。 从技术上讲,您可以有说服力地争辩说它们不是一回事。 我认为这里的讨论可以通过适度模糊差异来满足。

话虽如此,您可能根本不熟悉“非法所得”一词,因为它通常出现在与法律相关的上下文中。 大多数法律词典将“非法所得”描述为由于法律要求或强制而放弃某物的行为。

一篇著名的文章在 耶鲁法律与技术杂志 联邦贸易委员会 (FTC) 专员 Rebecca Slaughter 题为“算法和经济正义:危害分类法和联邦贸易委员会的前进道路”,这样描述了此事:“FTC 的一项创新补救措施最近部署的是算法泄出。 前提很简单:当公司非法收集数据时,他们不应该能够从数据或使用它开发的任何算法中获利”(2021 年 XNUMX 月)。

在同一篇文章中,通过强调一些先前的类似情况进一步说明了这一点:“这种新颖的方法最近被部署在 FTC 于 2021 年 XNUMX 月针对 Everalbum 的案件中。在那里,委员会声称该公司违反了其对消费者的承诺。在何种情况下,它将部署面部识别软件。 作为和解的一部分,委员会要求该公司不仅删除非法获取的数据,还删除任何使用用户照片或视频开发的面部识别模型或算法。 寻求此类补救措施的权力来自委员会根据违法行为合理地下令采取补救措施的权力。 这种创新的执法方法应该向从事非法数据收集以训练人工智能模型的公司发出明确的信息:不值得。”

就在最近,排渣方法的其他用途已经脱颖而出。 考虑一下今年 4 月的这份报告:“多年来,联邦贸易委员会一直在努力寻找使用其有限的执法选项来打击欺骗性数字数据做法的方法。 现在,它落在了一个可能对科技公司产生重大影响的领域:算法破坏。 随着该机构通过缓慢引入这种新型惩罚措施在技术上变得更加积极,三年内第三次在和解中应用它可能是魅力所在。 在 8 月 14 日的和解令中,该机构要求 WW International(前身为 Weight Watchers)销毁其使用通过其 Kurbo 健康饮食应用程序收集的未经父母许可的 2022 岁儿童的个人信息构建的算法或 AI 模型”(在Kate Kaye 的文章,XNUMX 年 XNUMX 月 XNUMX 日, 协议 在线博客)。

为了避免您认为这种非法所得的想法仅仅是美国的观点,对欧盟 (EU) 人工智能法案草案的各种评估表明,其中的法律语言可以解释为允许“撤回”人工智能系统(即,一些会说这肯定等于 AI 遭到破坏、删除或归还)。 请参阅我的报道 这里的链接.

许多关于删除或破坏人工智能系统的讨论通常集中在一种特定类型的人工智能上,称为机器学习 (ML) 或深度学习 (DL)。 ML/DL 并不是打造 AI 的唯一方法。 尽管如此,ML/DL 的日益普及及其使用已经引起了不小的轰动,因为它既有益又有时很糟糕。

ML/DL 只是计算模式匹配的一种形式。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

人工智能,尤其是机器学习/深度学习的广泛出现,已经让社会对人工智能如何设计的道德基础产生了兴趣。 你可能已经意识到,当这个最新的人工智能时代开始时,人们对一些现在所谓的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了对遏制不法行为的强烈法律追求之外,还有对拥抱 AI 道德以纠正 AI 邪恶的实质性推动。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在使用机器学习的情况下,这往往会如何出现?

好吧,直截了当,如果人类在历史上一直在做出包含不良偏见的模式化决策,那么用于“训练”ML/DL 的数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将盲目地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出 (GIGO)。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

这也是为什么人工智能伦理的原则已经成为那些正在制作、部署或使用人工智能的人的重要基石。 我们应该期待 AI 制造商接受 AI Ethics 并寻求生产 Ethical AI。 同样,社会应该注意任何释放或推广使用的人工智能都遵守人工智能伦理规则。

为了帮助说明 AI 道德规范,请考虑梵蒂冈在 罗马呼吁人工智能伦理 我已经深入探讨过 这里的链接. 这阐明了六项主要的人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

稍后,我将回到 AI Disgorgement 主题,并指出我们需要将 AI 的破坏或删除分为两个不同的类别:(1)有感知的 AI,和(2)非感知的 AI。 让我们在这两个类别上建立一些基础,以便我们准备好进一步参与 AI Disgorgement 问题。

请充分意识到,今天没有任何人工智能是有感知的。

我们没有感知人工智能。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接)。 对于那些认真沉浸在人工智能领域的人来说,上述声明都不会令人惊讶或引起任何关注。 与此同时,有过大的头条新闻和过度的修饰可能会让人们误以为我们要么确实拥有感知人工智能,要么我们即将在未来某一天拥有感知人工智能。

请注意,今天的人工智能无法以任何与人类思维相提并论的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

总而言之,我们今天使用的是非感知人工智能,有一天我们可能会拥有感知人工智能(但这纯粹是推测性的)。 这两种 AI 显然都是 AI Ethics 关注的问题,无论它是如何构成的,我们都需要以 Ethical AI 为目标。

在与感知 AI 相关的 AI Disgorgement 的情况下,我们可以疯狂地玩一个几乎无限种类的猜谜游戏。 也许有感知力的人工智能在认知上会像人类一样,并表现出相似的心智能力。 或者我们可以假设有感知力的人工智能将是超人的,超越我们的思维方式。 最终的感知人工智能似乎是超级智能,它可能非常聪明和狡猾,以至于我们今天甚至无法想象其巨大的思维能力。 有人认为,相比之下,我们的心智就显得微不足道了。 这个超级骗子 AI 将以一种类似于我们今天如何超越蚂蚁或毛毛虫的方式在我们周围运行环。

如果结果证明人工智能是有感知的,我们可能会愿意为这种人工智能赋予一种法人身份,请参阅我的分析: 这里的链接. 这个概念是,我们将为人工智能提供人权的表象。 也许不是逐字逐句。 也许是一组特殊的权利。 谁知道?

无论如何,你可能会想出一个看似挑衅的概念,即我们不能简单地消灭或摧毁有感知的人工智能,即使我们可以在技术上做到这一点。 Sentient AI 在认知能力和天生拥有“生存权”(取决于活着的定义)方面可能被解释为一个名副其实的活有机体。 最终可能会涉及到规定的法律程序。 这包括我们不一定对有感知的人工智能执行“死刑”(哇,等到我们作为一个社会卷入那种社会辩论)。

我怀疑我们是否愿意为非感知人工智能做出同样的人工智能道德姿态。 尽管有些人试图争辩说,今天的非感知人工智能应该被归类为与法人相关的变体,但这似乎是一场艰苦的战斗。 一个没有感知能力的当代软件能否被授予与人类甚至动物同等的合法权利? 这看起来确实有点牵强(但有些拥护者热切地致力于此,请参阅我的报道 这里的链接).

这就是这一切所暗示的。

假设我们不承认今天的非感知人工智能体现了人格的皇家法律恩膏,那么删除或销毁这种非感知人工智能的选择将决定性地 不能 合理地等同于对生物体的破坏。 消灭非感知型人工智能无异于从智能手机中删除约会应用程序,或者从笔记本电脑中删除你去仙境森林旅行的多余照片。 您可以删除或“销毁”这些数据和软件,而不会感到内疚,也不会因伤害有知觉的生物而触犯法律。

你可能会认为这个声明可以简单地解决 AI Disgorgement 难题,因为它与非感知 AI 相关。

对不起,这个世界从来没有最初看起来那么简单。

准备好扭转局面。

假设我们创建了一个非感知人工智能,它引导我们能够治愈癌症。 开发人工智能的公司做了公司不应该做的其他事情,并与各个政府当局陷入了严重的法律纠纷。 作为对公司施加的补救措施的一部分,公司被迫完全删除人工智能,包括与人工智能相关的所有数据和文档。

政府责成这家公司,并保证那些不法分子不能再从他们设计的人工智能中获利。 不幸的是,与此同时,我们可能已经开枪自尽了,因为人工智能具有引导我们治愈癌症的能力。 我们最终把婴儿和洗澡水一起扔了出去,事实上。

关键是我们可以有各种正当理由来保持人工智能的完整性。 我们可能希望确保 AI 保持完整,而不是删除或打乱它。 人工智能将被允许以有限的方式执行其某些操作。 我们想利用人工智能可以为我们做的任何事情。

一个方便的规则似乎是,人工智能驱逐的概念应该基于上下文的相似性和关于何时适当适用这种形式的补救措施的敏感性。 有时它可能完全适用,而在其他情况下则不然。 您还可以尝试找到拆分苹果的方法,也许保留一些被认为是有益的 AI 部分,同时寻求对被认为在补救派生范围内的部分进行破坏或删除。

当然,零散的删除或销毁也不是小菜一碟。 可能是您要保留的部分与您要销毁的部分整体编织在一起。 试图将两者分开可能会有问题。 最后,您可能不得不放弃删除并简单地同意保留整体,或者您可能不得不认输并销毁整个套件和 kaboodle。

一切都取决于。

是时候处理另一个重要的考虑了。

到目前为止,我们已经涵盖了支持想要提出 AI 驱逐的基础的问题。 与此同时,我们刚刚潜入讨论了另一个需要考虑的重要因素,即删除或摧毁人工智能是否总是可行的。

在前面的对话中,我们从表面上假设我们可以摧毁或删除 AI,如果我们想这样做的话。 提到的一个转折涉及尝试将我们想要保持完整的 AI 系统部分与我们想要删除或销毁的部分分开。 这可能很难做到。 即使很难完成,我们仍然可以相对有说服力地声称它不可避免地可以在技术上实现(我们可能需要重建我们摧毁的部分,将它们放回原处以支持我们没有的另一部分”不想破坏)。

稍微改变一下视角,思考一下如果我们愿意的话,我们是否真的总是可以摧毁或删除人工智能。 抛开人工智能伦理问题,只关注破坏性可行性的技术问题(我不愿意说出“抛开人工智能伦理问题”的话,因为人工智能伦理问题始终是人工智能至关重要且不可分割的考虑因素,但我希望您意识到我将其用作比喻仅是为了引起注意,谢谢)。

我们将其分为两条推理:

  • 如果我们有一个 有知觉的 我们都同意必须销毁或删除的人工智能,我们在技术上是否有可靠的方法来这样做?
  • 如果我们有一个 无情的 我们都同意必须销毁或删除的人工智能,我们在技术上是否有可靠的方法来这样做?

我认为这两个问题的答案都是合格的“不”(我几乎可以在相当安全的技术基础上说“不”,因为我们总是有可能 不能 销毁或删除 AI,我将在接下来详细说明)。 本质上,很多时候,在非感知型人工智能的情况下,答案可能是“是”,而在感知型人工智能的情况下,答案是“也许,但没有人可以肯定地说”,因为不知道有感知的 AI 将是什么,甚至不知道它是否会出现。

在感知人工智能的情况下,有无数可以假设的奇特理论。

如果有感知力的 AI 是超人或超级智能,您可以尝试争辩说 AI 会比我们人类更聪明,并且不会让自己被消灭。 想必,无论我们尝试什么,这个超大的人工智能总是会领先我们一步。 我们甚至可能会尝试利用这种有感知的超级骗子 AI 的一些对人类友好的实例来摧毁另一个我们无法通过自己的方法删除的有感知的 AI。 但要小心,虽然有用的 AI 后来变成了恶人,我们只能任由我们无法摆脱的 AI 摆布。

对于那些喜欢未来派智能 AI 的笑脸版本的人来说,也许我们认为任何有智能的 AI 都愿意被摧毁,并且如果人类愿意的话,也愿意主动这样做。 这种更具理解力和同情心的人工智能将能够意识到什么时候该走了。 与其与自己的毁灭作斗争,不如在需要采取这种行动的时候被毁灭。 也许人工智能会为我们完成工作并选择自毁。

关于感知人工智能的猜想可以在你梦想的任何方向上漫游。 关于什么是可能的,没有特别的规则。 人们假设物理和其他自然约束的现实将会出现,尽管也许一个超级智能的感知 AI 知道如何克服我们认为理所当然的一切现实。

说到现实,让我们把注意力转移到今天的非感知人工智能上。

你可能会相信我们总是可以毫无疑问地选择摧毁或删除当今的任何人工智能。 设想一家公司设计了一个人工智能系统,政府当局下令将其归还。 法律要求该公司销毁或删除人工智能系统。

Easy-peasy,看起来,只需按下删除按钮并噗,人工智能系统不再存在。 我们使用笔记本电脑和智能手机上不再需要的应用程序和不再需要的数据文件来做到这一点。 不需要特殊的计算机技术技能。 该公司可以在几分钟内遵守监管命令。

我们可以了解为什么这种假定的 AI 破坏或删除容易并不像您最初想象的那么简单。

首先,一个值得注意的问题是,当你说要销毁或删除一个人工智能系统时,它的确切含义是什么。 一方面是构成人工智能的编程代码。 另一个方面是与人工智能相关的任何数据。

AI 的开发人员在制作 AI 时可能已经生成了许多版本的 AI。 让我们简化一下,说有一个最终版本的代码正在运行并且已成为被吐出的目标。 好的,公司删除了最终版本。 大功告成!

但是,事实证明,那些早期版本仍然存在。 仅通过使用其中一个早期版本来从本质上复活现已删除的 AI,这可能是相对儿童游戏。 您采用较早的版本,进行修改以使其达到标准,然后您就可以重新开始工作了。

尝试和防止这种删除踢脚线的一个明显方法是规定必须销毁任何和所有先前版本的 AI。 这似乎会迫使公司认真寻找任何旧版本并确保这些版本也被删除。

一个转折点是,假设 AI 包含大量广泛可用的开源代码。 开发人员最初决定构建 AI,他们不会从头开始。 相反,他们获取了大量开源代码并将其用作人工智能的支柱。 他们不拥有开源代码。 他们不控制开源代码。 他们只是将其复制到他们的 AI 创作中。

现在我们有一点问题。

该公司遵守命令摧毁他们的人工智能。 他们删除了他们的代码副本以及他们拥有的所有版本。 他们删除了所有内部文档。 同时,他们无法摆脱构成(比方说)大部分 AI 系统的开源,因为这不是他们合法拥有且无法直接控制的东西。 该公司似乎已经做了它可以做的事情。

你会说有问题的人工智能实际上被摧毁或删除了吗?

该公司可能会坚持他们这样做了。 管理当局似乎很难与之抗衡。

他们也许能够通过获取广泛可用的开源并通过基于他们对添加部分的组成的知识进行一些编程来添加片段来快速复活人工智能。 他们不使用他们已完全删除的任何先前的违规代码。 他们不使用已删除的任何文档。 瞧,他们有一个“新”的人工智能系统,他们认为这不是他们被命令吐出的人工智能。

我相信您可以看到这些猫捉老鼠游戏是如何轻松玩的。

还有很多曲折。

假设要排出的人工智能是基于机器学习的使用。 ML 可能是公司自行开发的程序,但如今更可能的是,ML 是公司从在线图书馆或收藏中选择的算法或模型(有很多很容易获得的)。

该公司删除了他们下载并正在使用的 ML 实例。 完全相同的 ML 算法或模型仍然存在于公开可用的在线库中,并且可能可供想要使用它的人访问。 政府当局可能无法限制或导致该在线图书馆的非法所得。

这只是破坏或删除人工智能所涉及的困难的开始,例如使用机器学习。 如前所述,ML 和 DL 通常需要将数据输入 ML/DL。 如果公司仍然拥有他们之前使用的数据,他们可以从在线图书馆下载另一个 ML/DL 算法或模型的副本,并通过再次将数据输入到与他们基本相同的 ML/DL 中来重构 AI以前用过。

您可能会敏锐地要求公司一直使用的数据也需要包含在非法所得命令中。 当然,让我们假设是这样的。

如果数据完全在公司范围内,他们大概能够销毁或删除数据。 问题解决了,有人会说。 但是,假设数据基于各种外部来源,所有这些都超出了销毁令的范围,因为它们不属于违规公司,也不受违规公司的控制。

关键是你可以从其他外部来源获取数据的副本,获取 ML/DL 算法的副本,并重新构建 AI 系统。 在某些情况下,这可能会很昂贵,并且可能需要大量时间,而在其他情况下,它可能会在短时间内完成。 这完全取决于各种因素,例如需要修改或转换多少数据,ML/DL 的参数设置和训练也是如此。

我们还需要考虑销毁或删除的含义是什么。

您无疑知道,当您从计算机中删除文件或应用程序时,电子存储的项目可能尚未完全删除。 通常,操作系统会更新指​​示文件或应用程序将被解释为已被删除的设置。 如果您想恢复文件或应用程序,这很方便。 操作系统只能翻转标志以指示曾经看似已删除的文件或应用程序现在再次处于活动状态。

即使您让操作系统执行更确定的删除,文件或应用程序仍有可能位于某个位置。 它可能位于备份存储设备上。 它可能已存档。 如果您使用的是基于云的在线服务,副本也可能驻留在那里。 您不仅需要找到所有这些卷影副本,还需要执行各种专门的网络安全擦除操作,以尝试确保这些文件和应用程序的位和字节被完全覆盖,并且在某种意义上真正被删除或被摧毁。

请注意,我刚刚提到了阴影的概念。

当涉及到 AI 吐出时,我们至少要考虑三种类型的阴影:

1) AI 的影子副本

2)与人工智能相关的影子算法

3) 与人工智能相关的影子数据

想象一下,AI 返还命令指示公司继续销毁或删除与 AI 相关的数据,但该公司可以保留该算法(如果该算法似乎只是您可以在其中找到的算法,则可能允许这样做任何在线 ML 库)。

事实证明,算法本身本质上可以说有自己的数据类型,例如支持算法的特定设置。 训练 ML 的工作通常需要让 ML 弄清楚需要校准哪些参数设置。 如果您只是被命令摆脱训练数据集本身,那些其他与数据相关的参数设置可能仍将保留。 这表明 AI 可以很容易地重构,或者您甚至可以争辩说 AI 根本没有被删除,而您只是摆脱了可能不再关心的早期使用的训练数据。 也有很大的机会,一种形式 版本说明 仍然来自训练数据,我已经讨论过 这里的链接.

如果数据来自各种第三方来源,那么摆脱训练数据也可能具有挑战性。 当然,您可能可以强制公司删除其已编译数据的内部实例,但如果数据存在于超出其范围的其他来源,则可能会重新组合相同的数据。 视情况而定,这可能成本高或成本低。

在整个讨论中,我们一直关注让特定公司成为进行 AI 非法所得目标的概念。 这可能是令人满意的,并且可以作为与该公司相关的适当补救措施。 另一方面,这不一定会以某种方式根除或摧毁人工智能,因为它可能存在或被重组超出目标公司的范围。

人工智能可能会被复制到公司无法访问且无法强制删除的无数其他在线站点。 其他了解 AI 工作原理的人可能会从头开始重建 AI。 您甚至可以让公司的前雇员离开公司并选择重用他们的人工智能开发技能在其他地方构建基本相同的人工智能,他们会认为这是基于他们的知识和技能,因此不构成侵权或受害AI 追缴令的副本。

与人工智能泄密问题的一个恰当的类比可能是计算机病毒的出现。

追捕和删除病毒计算机病毒的所有副本的机会通常很小,特别是由于病毒可能存在于何处(例如跨越国际边界)的法律问题以及计算机病毒试图隐藏的技术诡计(我已经讨论了基于人工智能的多态计算机病毒的出现,它们是电子自适应变形器)。

此外,使挑战更加复杂的是,那些精通计算机病毒设计和制作的人总是有能力构建相同或大致等效的计算机病毒。

AI Disgorgement 是一个看似方便的想法,也是一个潜在可行的工具,但魔鬼在细节中。

在这个重要讨论的关键时刻,我敢打赌,您希望有一些说明性的例子可以展示 AI Disgorgement 在当今世界的适用性。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于 AI 的真正自动驾驶汽车的出现是否说明了 AI Disgorgement 的适用性,如果是,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能的泄密

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在准备深入研究自动驾驶汽车和 AI Disgorgement。

一家公司正在开发一款基于人工智能的自动驾驶汽车,并选择利用公共道路进行自动驾驶汽车的试用。 有一段时间,已部署的自动驾驶汽车表现良好。 人们正在车队中兜风。 一切似乎都很好。

不幸的是,其中一辆自动驾驶汽车撞上了骑自行车的人。 当地的城市领导和广大民众都很不高兴。 两天后,另一名骑自行车的人被同一车队的另一辆自动驾驶汽车撞倒。 一个尖刻的骚动确保了。 对于有朝一日可能会遇到城市领导人和社区的类似情况,请参阅我与哈佛教员合着的研究 这里的链接.

政府当局宣布公司将被迫颁布人工智能非法所得。 人工智能驾驶系统将被彻底删除或销毁。 作为旁注,这是一个有点人为的场景,因为可能会有其他选择,并且可能会首先考虑这些选择。 人工智能的吐出似乎是最后的手段,而且毫无疑问,这家自动驾驶汽车公司也会在法律上进行激烈的斗争。 请接受想象的设置,以便专注于如何制定 AI 非法所得。

假设公司同意进行 AI 非法所得。 他们继续删除人工智能驾驶系统的最新副本。 契约已经完成。

好吧,如前所述,契约还没有完成。 该公司删除了所有以前版本的人工智能驾驶系统。 他们搜索公司服务器并删除那里的副本。 他们搜索基于云的服务器并删除那里的副本。 他们去他们的备份和档案并删除它们。 他们要求云提供商对云上包含人工智能驱动系统代码的任何备份或存档执行相同的操作。

我们完了吗?

NOPE。

有很多数据用于训练人工智能驾驶系统。 包含道路场景视频和图片的大量收集数据用于训练人工智能驾驶系统。 这些被找到并删除。 许多其他数据文件都是设计人工智能驾驶系统不可或缺的。 那些也被发现和删除。 备份和档案被挖出并同样被删除。

AI 非法所得包括所有 AI 程序、数据和文档。 因此,该公司试图发现所有在线文档并删除这些文档,包括备份、存档等。 此外,还要求人工智能开发人员和参与人工智能驾驶系统的其他人提供他们的手写笔记。 然后将它们切碎并放入垃圾箱。

呼,人工智能已经不存在了。

的种类。

人工智能驾驶系统基于现成的开源代码。 该公司没有能力删除或销毁开源本身(他们只能对他们持有的副本这样做)。 人工智能驾驶系统还有一个 ML/DL 组件。 此 ML/DL 基于在基于云的库上获得许可的算法。 该公司只能删除他们创建的实例,而无法与基于云的库抗衡。 用于 ML/DL 的训练数据包括视频和图片,这些视频和图片很容易在其他网站和专门的公开可用数据集中找到。

就有关人工智能驾驶系统的已删除文档而言,这总体上进展顺利,尽管一些人工智能开发人员在他们的个人笔记本电脑上可能仍然存在一些文档,但他们并没有坦白拥有。 在任何情况下,他们头脑中的人工智能开发人员都知道人工智能是由什么组成的,并且能够快速转到另一家自动驾驶汽车公司来利用他们在那里的专业知识。

在人工智能被盗后不久,雇佣这些前雇员的竞争公司基本上重组了人工智能驾驶系统。 他们没有复制吐出的 AI。 相反,他们使用开源代码、ML/DL 库和公开可用的数据集独立地重建了 AI。

我想你可以说,至少从潜在的 AI Disgorgement 角度来看,一败涂地。

结论

尽管该示例表明可以克服 AI 非法所得,但不要排除这种潜在的 AI 错误补救方法。 一些人会争辩说,使用 AI Disgorgement 将被视为一种明显有效的方式,可以说服其他公司他们应该更加注意他们如何设计和部署他们的 AI。 他们可能会失去他们的金罐。 这是获得人工智能伦理合规性和设计伦理人工智能的一个方便的工具。

其他人则大声疾呼说,AI Disgorgement 可能会扼杀 AI 进步和使用方面的创新。 如果 AI 开发人员知道有一天他们的 AI 可能会被彻底删除,他们可能会犹豫不决。 对于那些倾注多年的血汗和泪水来打造人工智能的人来说,这将是一颗难以下咽的药丸。

许多其他权衡是围绕着。 也许竞争的供应商会试图让政府当局通过鼓励该机构使用 AI Disgorgement 来对抗同行业的其他公司来削弱竞争。 而且,还要考虑试图遵守这样的命令所涉及的成本。 不只是一个红色按钮,您可以按下它来执行 AI 的所有删除和销毁。 可能需要大量昂贵的劳动力,并且可能需要数周或数月才能完成。

时间会证明这种新出现的应对人工智能的方法是会受到关注还是会被淘汰。

这种关于 AI Disgorgement 的激烈讨论是否暗示 AI 可能是坚不可摧的?

当提到主要是电子的东西时,您可能会争辩说,可破坏或不可破坏的措辞有些模糊。 一个人不是坚不可摧的,因为我们显然可以找到一种方法来摧毁人类的物理形态。 几乎任何具有传统物理表现的事物都可以这样说。 我不会讨论形而上学的哲学理论,即实际上没有任何东西被摧毁,所有物质只是被重组为不同的形式,但仍然存在(如果你愿意,欢迎你探索那种崇高的理论)。

鉴于当今计算的无处不在以及计算的可能不断扩展的用途,例如自吹自擂的物联网 (IoT),基于电子的人工智能有很多地方可以隐藏。 对于今天的非感知人工智能,人工智能可能被那些希望隐藏它的人隐藏,或者被那些开发人工智能的人编程隐藏。 天知道有知觉的人工智能会做什么。

如果一个人工智能系统可以很容易地复制自己并隐藏这些副本并且最终不被抓到,你会愿意说这体现了一种坚不可摧的外表吗?

有人会争辩说,尽管有打地鼠的可能性,但最终,只要你能成功找到并消灭每一个出现或重新出现的实例,你就可以摧毁或删除 AI。 因此,人工智能并非坚不可摧。 其他人会反驳说,隐藏的 AI 表面上是坚不可摧的,因为它可以不断产卵,而难以捉摸的猫捉老鼠的策略几乎可以永远持续下去。 你总是会遇到下一个你还没有压扁的实例。

脑海中浮现出一句名言:“我从未出生,也永远不会死; 我不受伤,也不会受伤; 我是无敌的、不朽的、坚不可摧的”(着名作家和记者阿拉文德·阿迪加)。

这能适用于人工智能吗?

那些对有感知能力的超级智能 AI 不屑一顾的人似乎会说它可以。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/05/09/ai-ethics-and-the-law-are-dabbling-with-ai-disgorgement-or-all-out-destruction- of-ai-as-a-remedy-for-ai-wrongdoing-possibly-even-for-misbehave-self-driving-cars/