人工智能伦理和人工智能法权衡实施最近发布的人工智能权利法案的关键方法,包括彻底使用人工智能

毫无疑问,我们在日常生活中需要蓝图。

如果您要建造您梦想已久的梦想之家,首先制定一个可用的蓝图是明智的。

蓝图以有形和记录的方式展示了您可能锁定的任何睁大眼睛的远见卓识。 那些将被要求建造您珍爱的家园的人将能够参考蓝图并确定如何完成工作的细节。 蓝图很方便。 对于处理任何类型的复杂杂务或项目,缺乏蓝图必然会成为问题。

让我们将这种有点感伤但真诚的对蓝图的致敬转移到人工智能 (AI) 领域。

那些实质上对人工智能感兴趣的人可能会模糊地意识到一个重要的政策导向 蓝图 最近在美国发布,显然与人工智能的未来有关。 非正式地称为 人工智能权利法案,宣布的白皮书的正式标题是“人工智能权利法案蓝图:让自动化系统为美国人民服务”,并且可以在线获取。

该文件是科学和技术政策办公室 (OSTP) 长达一年的努力和认真研究的结果。 OSTP 是一个联邦实体,成立于 1970 年代中期,负责就具有国家重要性的各种技术、科学和工程方面向美国总统和美国行政办公室提供建议。 从这个意义上说,你可以说这个 AI 权利法案是由现有的美国白宫批准和认可的文件。

人工智能权利法案描述了 人权 就人工智能在我们日常生活中的出现而言,人类应该拥有这一点。 我强调这一点很重要,因为起初有些人感到困惑,这可能是对人工智能具有法人资格的某种承认,这是对有知觉的人工智能和类人机器人的一连串权利。 不,我们还没有。 正如您稍后会看到的那样,尽管横幅标题似乎告诉我们并非如此,但我们离感知 AI 还很远。

好的,那么我们是否需要一个蓝图来阐明人工智能时代的人权?

是的,我们肯定会这样做。

你几乎需要被锁在一个山洞里,并且无法访问互联网,才能不知道人工智能已经并且越来越多地侵犯我们的权利。 最近的人工智能时代最初被认为是 永远的人工智能,这意味着我们可以使用人工智能来改善人类。 紧随其后 永远的人工智能 意识到我们也沉浸在 坏的人工智能. 这包括被设计或自我改变为具有歧视性的人工智能,并在计算选择中灌输不正当的偏见。 有时人工智能是这样构建的,而在其他情况下,它会转向那个令人讨厌的领域。

有关我对 AI 法律、AI 伦理和其他关键 AI 技术和社会趋势的持续和广泛的报道和分析,请参阅 这里的链接这里的链接,仅举几例。

解开 AI 权利法案

我之前讨论过 AI 权利法案,将在这里快速回顾一下。

顺便说一句,如果您想了解我对最近发布的 AI 权利法案的深入利弊,我在 法学家,请参阅 这里的链接。 该 法学家 是一个著名的法律新闻和评论在线网站,以屡获殊荣的法律新闻服务而广为人知,由全球法律学生记者、编辑、评论员、通讯员和内容开发团队提供支持,总部位于匹兹堡大学匹兹堡的法律,始于 25 年前。 向优秀而勤奋的团队致敬 法学家.

在 AI 权利法案中,有五个关键类别:

  • 安全有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知及说明
  • 人类的选择、考虑和回退

请注意,我没有将它们从 XNUMX 编号为 XNUMX,因为这样做可能意味着它们处于特定的顺序中,或者其中一项权利似乎比另一项更重要。 我们将假设它们是各自的优点。 他们在某种意义上都同样值得称道。

作为每个组成部分的简要说明,以下是官方白皮书的摘录:

  • 安全有效的系统: “应该保护您免受不安全或无效系统的侵害。 自动化系统的开发应与来自不同社区、利益相关者和领域专家的协商,以识别系统的关注点、风险和潜在影响。”
  • 算法歧视保护:“你不应该面临算法和系统的歧视,应该以公平的方式使用和设计。 当自动化系统基于种族、肤色、民族、性别(包括怀孕、分娩和相关的医疗状况、性别认同、双性人身份和性取向)、宗教、年龄而导致不合理的不同待遇或影响不利于人们时,就会发生算法歧视、国籍、残疾、退伍军人身份、遗传信息或任何其他受法律保护的分类。”
  • 资料私隐: “您应该通过内置保护措施免受滥用数据做法的影响,并且您应该对如何使用有关您的数据拥有代理权。 您应该通过确保默认包含此类保护的设计选择来保护您免受侵犯隐私的侵害,包括确保数据收集符合合理预期,并且只收集特定上下文所必需的数据。”
  • 通知及说明: “您应该知道正在使用自动化系统,并了解它如何以及为什么会产生影响您的结果。 自动化系统的设计人员、开发人员和部署人员应提供一般可访问的简明语言文档,包括对整个系统功能和自动化所扮演角色的清晰描述,注意此类系统正在使用中,负责系统的个人或组织,以及对以下方面的解释明确、及时和可访问的结果。”
  • 人类选择、考虑和后备:“您应该能够在适当的情况下选择退出,并且可以联系能够快速考虑和解决您遇到的问题的人。 在适当的情况下,您应该能够选择退出自动化系统,转而使用人工替代方案。”

总的来说,这些是在人工智能伦理和人工智能法的背景下已经流传了很长一段时间的人类权利的各个方面,请参阅我的报道,例如 这里的链接. 白皮书似乎并没有神奇地把兔子从帽子里拉出来,因为一些新发现或发掘的权利迄今尚未在人工智能时代的背景下得到阐明。

没关系。

您可以断言将它们编译成一个整齐打包和形式化的集合提供了一项重要的服务。 另外,通过被任命为广受赞誉的 人工智能权利法案,这进一步将整个问题公开而巧妙地置于公共领域的意识中。 它将现有过多的不同讨论合并成一个单一的集合,现在可以在各种利益相关者之间大肆宣传和传达。

请允许我提供这份对已宣布的 AI 权利法案的有利反应列表:

  • 提供基石原则的基本汇编
  • 作为蓝图或基础
  • 充当发声的行动号召
  • 激发兴趣并表明这些是认真的考虑因素
  • 汇集了众多不同的讨论
  • 激发并促进道德 AI 采用工作
  • 无疑将有助于人工智能法律的建立
  • 其他名称

我们还需要考虑不太有利的反应,考虑到还有很多工作需要完成,而这只是在艰难的人工智能治理道路上漫长旅程的开始。

因此,对 AI 权利法案提出的有些严厉或应该说建设性的批评包括:

  • 不具有法律效力且完全不具约束力
  • 仅供咨询,不考虑政府政策
  • 与其他已发表的作品相比不太全面
  • 主要由宽泛的概念组成,缺乏实现细节
  • 将其转化为切实可行的实用法律将具有挑战性
  • 似乎对在某些情况下可能禁止人工智能的迫在眉睫的问题保持沉默
  • 勉强承认使用精心设计的人工智能的优势
  • 其他名称

也许最突出的尖酸评论集中在这样一个事实,即这项 AI 权利法案在法律上不具有强制执行力,因此在建立明确的球门柱时站不住脚。 有人说,虽然白皮书很有帮助,也很鼓舞人心,但它显然缺乏说服力。 他们质疑一套据说是空心的漂亮戒律会带来什么。

我稍后会谈到这些尖刻的言论。

同时,白皮书大量阐述了这项人工智能权利法案的局限性:

  • “人工智能权利法案的蓝图不具约束力,也不构成美国政府的政策。 它不会取代、修改或指导对任何现有法规、法规、政策或国际文书的解释。 它不构成对公共或联邦机构具有约束力的指导,因此不需要遵守此处描述的原则。 这也不能决定美国政府在任何国际谈判中的立场。 采用这些原则可能不符合现有法规、法规、政策或国际文书的要求,或执行它们的联邦机构的要求。 这些原则无意也不禁止或限制政府机构的任何合法活动,包括执法、国家安全或情报活动”(根据白皮书)。

对于那些迅速削弱 AI 权利法案不具有法律约束力的人,让我们对这一令人痛心的指控进行一些思想实验。 假设白皮书发布并具有法律的全部效力。 我敢说,结果将是灾难性的,至少在法律和社会对公告的反应程度上是这样。

立法者会因为在制定此类法律时没有采取规范程序和法律程序而感到愤怒。 企业会被激怒,这是理所当然的,因为在没有足够的通知和了解这些法律是什么的情况下出现了新的法律。 各种各样的惊愕和愤怒将接踵而至。

在人工智能时代,这不是一个加强人类权利的好方法。

回想一下,我早些时候通过提出蓝图的价值和活力来开始这个讨论。

想象一下,有人跳过了制作蓝图的步骤,立即开始建造你梦想中的房子。 你觉得房子会是什么样子? 看来这所房子不会特别符合您的想法,这似乎是一个公平的赌注。 由此产生的宅基地可能一团糟。

要点是我们确实需要蓝图,我们现在有一个蓝图,以便继续制定明智的 AI 法律并赋予合乎道德的 AI 采用权。

因此,我想谈谈如何将这个 AI 权利法案蓝图变成一座房子。 我们将如何利用蓝图? 合适的后续步骤是什么? 这份蓝图是否足够,还是需要更多的骨头上的肉?

在我们开始讨论这些重大问题之前,我想首先确保我们都对人工智能的本质以及今天的现状有什么看法。

直接记录当今的人工智能

我想发表一个非常强调的声明。

你准备好了吗?

今天没有任何人工智能是有感知的。

我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

现在我已经奠定了有用的基础,我们准备进一步深入研究 AI 权利法案。

实施 AI 权利法案的四种基本方法

有人递给你一张蓝图,告诉你开始工作。

你会怎么做?

以 AI 权利法案为蓝图,请考虑以下四个向前迈进的基本步骤:

  • 作为制定 AI 法律的输入: 使用该蓝图来帮助制定人工智能法律,希望在联邦、州和地方各级保持一致(也许也有助于国际人工智能法律工作)。
  • 帮助更广泛地采用人工智能伦理: 使用该蓝图来制定 AI 道德规范(有时称为“软法律”,而不是具有法律约束力的“硬法律”),以此激励和引导企业、个人、政府实体和其他支持者实现更好、更一致的道德人工智能成果。
  • 塑造人工智能发展活动: 使用蓝图来推动人工智能开发方法和培训方面的创建,这样做是为了让人工智能开发人员以及那些从事或使用人工智能的人更加认识到如何按照理想的人工智能道德准则和预期设计人工智能即将颁布的人工智能法律。
  • 激发人工智能的出现以协助控制人工智能: 使用该蓝图来设计 AI,该 AI 将用于尝试和制衡其他可能进入不利领域的 AI。 这是宏观观点之一,我们可以利用我们发现表面上令人担忧的事物来(具有讽刺意味的是,有人可能会说)帮助保护我们。

在我的专栏文章中,我已经讨论了上述四个步骤中的每一个。

对于本文的讨论,我想重点关注列出的第四步,即人工智能权利法案可以作为人工智能出现的动力,以帮助控制人工智能。 对于许多尚未完全进入这个人工智能推进领域的人来说,这是一个有点令人震惊或令人惊讶的步骤。

请允许我详细说明。

一个简单的类比应该可以解决问题。 如今,我们都习惯了网络安全漏洞和黑客入侵。 几乎每天我们都会听到或受到我们计算机中一些最新漏洞的影响,这些漏洞将使邪恶的作恶者窃取我们的数据或在我们的笔记本电脑上放置一个卑鄙的勒索软件。

与这些卑鄙企图作斗争的一种方法是使用专门的软件来阻止这些入侵。 几乎可以肯定,您在家或工作的计算机上安装了防病毒软件包。 您的智能手机上可能有类似的东西,无论您是否意识到它在那里。

我的观点是,有时您需要以火攻毒(请参阅我对此的报道,例如 这里的链接这里的链接).

在人工智能进入禁区的情况下 坏的人工智能,我们可以寻求使用 永远的人工智能 与恶意抗衡的 坏的人工智能. 这当然不是灵丹妙药。 如您所知,在试图闯入我们计算机的作恶者与网络安全保护方面取得的进步之间,一直存在着猫捉老鼠的游戏。 这是一场几乎没完没了的游戏。

我们可以使用 AI 来尝试处理走上禁忌道路的 AI。 这样做会有所帮助。 它不会特别是灵丹妙药,因为几乎可以肯定会设计出针对不利的 AI 来避免任何此类保护。 这将是 AI 与 AI 的持续猫鼠游戏。

无论如何,我们用来保护自己的 AI 将提供一定程度的保护,防止不良 AI。 因此,我们无疑需要设计可以保护或保护我们的人工智能。 我们还应该寻求制作保护性 AI,以便在不良 AI 调整时进行调整。 将会出现闪电般的猫捉老鼠的凶猛外表。

并不是每个人都喜欢人工智能角色的这种扩大。

那些已经将 AI 视为同质的无定形集团的人,会在这种假装的 AI 与 AI 的博弈中起鸡皮疙瘩和噩梦。 如果我们试图以火对抗火,也许我们只是在制造更大的火。 人工智能将变成一场巨大的篝火,我们不再控制它,它将选择奴役人类或将我们从地球上抹去。 当谈到将 AI 视为一种生存风险时,我们通常被引导相信所有 AI 都会联合起来,请参阅我对这些问题的讨论 这里的链接. 你看,我们被告知,每一个AI都会抓住它的兄弟AI,成为一个大霸王单一家族。

这就是感知人工智能作为无缝的一体式和一体式黑手党的可怕且绝对令人不安的场景。

尽管你可以自由地做出这样的推测,即这可能有一天会发生,但我向你保证,就目前而言,我们今天拥有的 AI 由大量不连贯的不同 AI 程序组成,这些程序没有特定的方式相互勾结。

话虽如此,我相信那些狂热地相信人工智能阴谋论的人会坚持认为我故意这么说是为了隐瞒真相。 啊哈! 也许今天的人工智能已经在计划大规模的人工智能收购,我得到了回报(是的,陛下,一旦人工智能霸主统治,我将沐浴在财富中)。 或者,我当然不赞成另一个角度,也许我一味地不知道人工智能是如何在我们背后暗中谋划的。 我想我们将不得不等待,看看我是否是 AI 政变的一部分,还是 AI 的可怜虫(哎呀,这很痛)。

回到世俗的考虑,让我们简要探讨一下如何利用当代人工智能来帮助实施人工智能权利法案。 我将方便和概括地把它称为 好人工智能.

我们将使用 AI 权利法案中体现的五个基石:

  • 用于推广的好 AI 安全有效的系统: 每当您受制于或使用 AI 系统时,Good AI 都会尝试确定所使用的 AI 是否不安全或无效。 检测到此类后,Good AI 可能会提醒您或采取其他措施,包括阻止 Bad AI。
  • 提供良好的人工智能 算法歧视保护: 在使用可能包含歧视性算法的 AI 系统时, 好人工智能 试图确定对您的保护是否不足,并试图确定正在使用的人工智能中是否确实存在不当偏见。 好的 AI 可以通知您,也可能会按照 AI 法律和法律要求的规定自动向各个机构报告其他 AI。
  • 用于保存的好 AI 数据隐私: 这种类型的 Good AI 试图保护您免受数据隐私侵犯。 当另一个 AI 试图向您请求可能并不真正需要的数据时,Good AI 会让您意识到越界行为。 Good AI 还可以潜在地掩盖您的数据,这种方式在被提供给其他 AI 后仍会保留您的数据隐私权。 等等。
  • 建立良好的人工智能 通知及说明: 我们都可能会遇到严重缺乏提供适当和适当通知的 AI 系统,并且遗憾地未能对其行为进行充分解释。 好的 AI 可以尝试解释或询问其他 AI,这样做可能会识别应该提供的通知和解释。 即使在特定情况下这不可行,Good AI 至少会提醒您其他 AI 的故障,并可能根据规定的 AI 法律和法律要求向指定当局报告该 AI。
  • 提供良好的人工智能 人类选择、考虑和后备: 假设您使用的是人工智能系统,而人工智能似乎无法胜任手头的任务。 您可能没有意识到事情正在恶化,或者您可能有些警惕并且不确定如何处理这种情况。 在这种情况下,优秀的 AI 会默默地检查其他 AI 正在做什么,并可以警告您对该 AI 的重大担忧。 然后,系统会提示您请求 AI 的人工替代方案(或者 Good AI 可以代表您这样做)。

为了进一步了解这种 好人工智能 可以开发和部署,请参阅我流行且评价很高的 AI 书籍(很荣幸地说它已被称为“前十名”)关于我通常所说的 AI 守护天使,请参阅 这里的链接.

结论

我知道你在想什么。 如果我们有设计用来保护我们的好 AI,假设好 AI 被破坏成为坏 AI。 著名或臭名昭著的拉丁流行语似乎与这种可能性完全相关: Quis custodiet ipsos custodes?

这句话归功于罗马诗人尤维纳尔,可以在他的作品中找到,题为 讽刺,并且可以粗略地翻译为谁将守卫或看守自己的意思。 许多电影和电视节目,例如 星际迷航 反复利用这条线。

那肯定是因为这是一个很好的观点。

果然,任何制定的人工智能法律都需要包含坏人工智能,甚至是坏人工智能。 这就是为什么编写明智而全面的人工智能法律至关重要的原因。 只是试图将随机的法律术语扔在墙上并希望它遵守人工智能法律的立法者会发现自己深深地错过了目标。

我们不需要那个。

我们既没有时间也无法承担社会费用来应对设计不充分的人工智能法律。 我曾指出,令人遗憾的是,我们有时会看到新的人工智能相关法律,这些法律结构很差,并且充斥着各种法律弊端,例如,请参阅我对纽约市 (NYC) 人工智能偏见审计法的探索性分析,网址为 这里的链接.

让我们确保我们适当地使用我们现在掌握的关于 AI 的 AI 权利法案蓝图。 如果我们忽视蓝图,我们就失去了加强我们的游戏。 如果我们错误地执行了蓝图,我们会为篡夺一个有用的基础而感到羞耻。

受人尊敬的罗马诗人 Juvenal 说了其他一些我们可以在这种情况下利用的东西: 体萨诺中的阿尼玛萨那。

一般来说,这转化为一种断言,即同时拥有健全或健康的头脑和健全或健康的身体是明智的。 根据 Juvenal 的说法,这使我们能够忍受任何形式的辛劳,并且肯定是通往和平或美德生活的唯一道路。

是时候让我们使用健全的思想和健全的身体来确保我们正在确保人类在无处不在且有时令人不快的人工智能的新兴世界中保护和巩固我们的人权。 这是罗马人提出的合理建议,在当今人工智能混乱的时代和充满好坏人工智能的未来,我们应该遵守这一建议。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai-完全使用人工智能的权利法案,包括和惊人地/