AI 伦理和 AI 法律将法律推理植入 AI 可以巧妙地实现人类价值的一致性

在今天的专栏中,我将把无数看似完全不同的 AI 相关主题编织在一起,编织得很好。

你准备好了吗?

想象一下,您正在使用 AI 驱动的应用程序来帮助您执行某种重要任务。 也许这件事是财务上的,或者可能与健康有关。 本质是你依赖人工智能做正确的事情并以假定的安全和可靠的方式执行。

假设人工智能转向不道德的领域。

你可能没有意识到人工智能正在这样做。

例如,AI 可能依赖于潜在的隐藏歧视因素,例如种族或性别,尽管您可能没有任何可行的方法来辨别不良用法。 在那里,你独自一人,通过人工智能获得了短板,这个人工智能要么是从一开始就以有问题的方式设计的,要么已经设法转向冒险和边缘道德危害(我会说更多关于稍后)。

对于选择走不道德道路的 AI,您能做些什么或能做些什么?

除了尝试预先构建 AI 以使其不会执行这种阴险的操作外,我之前也详细说明了人们对嵌入 AI 的兴趣越来越大。 人工智能道德检查 成为狂野西部蓬勃发展的泥沼的一部分,任何东西都被扔进市场的人工智能系统。 我们的想法是,为了尝试防止注入 AI 的应用程序超出道德范围,我们可以使用额外的 AI 来进行制衡。 这个添加的 AI 可能在目标 AI 应用程序之外,或者可能是嵌入或直接植入到我们想要进行双重检查的 AI 中的组件。

正如我之前所说,请参阅 这里的链接:“最近出现的趋势包括尝试在 AI 中建立道德护栏,当 AI 系统的其余部分开始超越预设的道德界限时,这种护栏将会赶上。 从某种意义上说,目标是利用人工智能本身来防止自己在道德上出现偏差。 你可以说我们的目标是让 AI 自我修复”(Lance Eliot,“制作道德 AI 来监控不道德的 AI 并试图阻止坏 AI 的行为”, “福布斯”,28年2022月XNUMX日)。

您可能还会对我的书感兴趣 AI守护机器人,有时被称为守护天使,涵盖了这种最先进的 AI 内嵌 AI 嵌入式双重检查器的技术基础,请参阅 这里的链接.

最重要的是,你的培根可能会幸运地通过使用嵌入式人工智能双重检查道德衡量元素来保存,该元素已经设计并植入你正在使用的人工智能应用程序中。 但这是否足以真正确保 AI 不会让您完全僵硬并冒险进入甚至更有害的领域?

你看,人工智能应用程序表面上可以执行 非法 行为。

让人工智能进入我们认为道德或不道德行为的灰色地带是一回事。 同样令人不安的行为和可能恶化的担忧需要 AI 跳入鲨鱼,并陷入完全非法行为的劣质黑暗中。

非法人工智能是坏事。 允许非法人工智能无人看管是不好的。 一些法律学者公开担心人工智能的出现和普及将逐渐地、可怕地削弱我们的外表 法治,请参阅我的分析 这里的链接.

等一下,你可能会说。

你可能会想 AI 开发者会 决不要 对他们的 AI 进行编程使其违法。 难以想象。 只有邪恶的恶棍才会这样做(顺便说一句,请记住,有些人故意设计和使用 AI 用于邪恶目的,犯罪分子和其他希望将 AI 用于邪恶活动的人越来越感兴趣)。

抱歉,假设所有非邪恶的 AI 开发人员都将严格确保他们的 AI 完全守法是一厢情愿的想法。 可能是人工智能自我调整并误入非法活动。 当然,也有可能 AI 开发人员希望 AI 进行非法行为,或者他们在制作 AI 时并没有意识到什么是非法行为,什么是合法行为(是的,这很有可能,即低头的全技术 AI 团队可能不知道他们的 AI 的法律恶作剧,这是不可原谅的,但发生的频率惊人)。

关于这个还能做什么?

再一次,除了试图确保 AI 的安全和合法之外,另一种获得动力的方法涉及嵌入或植入一个 AI 组件,该组件对 AI 应用程序的其余部分进行合法的双重检查。 这个增加的 AI 静静地坐着并且经常无人问津,它正在观察 AI 的其余部分,以试图辨别 AI 是否会变得无赖或至少跨过法律或监管施加的限制的限制。

我们现在有两种可能嵌入到 AI 应用程序中的 AI 双重检查:

  • 人工智能道德双重检查器: 该组件或 AI 插件实时评估 AI 的其余部分是否存在 AI 表现出的道德和不道德行为
  • AI 法律双重检查器: 该组件或 AI 插件实时评估 AI 的其余部分,以确保保持在合法基石范围内,并通过 AI 捕获新出现的非法活动

澄清一下,这些是相对较新的概念,因此您今天使用的人工智能可能处于以下任何一种现状:

  • 完全不包含双重检查器的 AI
  • 包含 AI 道德双重检查器但没有其他双重检查器的 AI
  • 包含 AI Legal 双重检查器但没有其他双重检查器的 AI
  • 同时具有 AI 道德双重检查器和 AI 法律双重检查器的 AI
  • 其他名称

让 AI 道德双重检查员和 AI 法律双重检查员作为亲兄弟姐妹在 AI 应用程序中并肩工作有一些明显棘手的方面。 这是一种二元论,可能比你想象的更难协调(我想我们都知道兄弟姐妹可以有最紧密的联系,尽管他们有时也可以像狄更斯一样战斗并强烈反对意见)。

我已经详细讨论了这种艰巨的 二元论:“一种被忽视的二元论正在为社会公益而存在的人工智能中出现,涉及在先进的人工智能系统中缺乏包含人工道德代理和人工法律推理的作用。 AI 研究人员和 AI 开发人员的努力往往集中在如何制作和嵌入人工道德主体以在 AI 系统在该领域运行时指导道德决策,而没有关注和耦合人工法律推理能力的使用,这对于稳健的道德和法律结果同样必要”(Lance Eliot,“AI 中被忽视的人工道德代理和人工法律推理的二元论造福于社会,”哈佛大学 CRCS 2020 年年会, 哈佛研究与计算中心)

如果您想了解为什么 AI 道德双重检查员和 AI 法律双重检查员之间可能存在紧张关系,您可能会发现这句令人费解的概念价值的名言:“法律可能允许某些特定行为,即使该行为是不道德的; 法律可能会禁止某种行为,即使这种行为在道德上是允许的,甚至是道德上需要的”(Shelly Kagan, 道德的界限,1998)。

让我们稍微转移一下我们的注意力,看看这些双重检查器如何与另一个高度审查的 AI 主题相吻合,即 负责任的AI 或协调一致地考虑人类价值观和人工智能的一致性。

一般的观念是,我们希望 AI 遵守适当和可取的人类价值观。 有些人将此称为 负责任的AI. 其他人也有类似的讨论 负责任的人工智能, 值得信赖的AI人工智能对齐,所有这些都触及相同的基石原则。 有关我对这些重要问题的讨论,请参阅 这里的链接 这里的链接,仅举几例。

我们如何才能让人工智能与人类价值观保持一致?

如前所述,我们希望 AI 开发人员能够认识到开发 AI 以实现 Responsible AI 的遵守。 遗憾的是,根据前面阐明的原因,它们可能不会。 此外,他们可能会尝试这样做,但尽管如此,人工智能最终还是会自我调整,超出道德行为的显着领域,或者可能进入非法水域。

好吧,然后我们需要考虑我们得心应手的花花公子双重检查器作为支撑这些风险和风险的一种手段。 使用精心设计的 AI 道德双重检查器可以极大地帮助使 AI 与人类价值观保持一致。 同样,使用精心设计的 AI 法律双重检查器可以极大地帮助使 AI 与人类价值观保持一致。

因此,寻求实现负责任的 AI、可信赖的 AI、负责任的 AI、AI 对齐等的关键且尚未广为人知的方法将涉及使用 AI 双重检查器,例如 AI 道德双重检查器和AI Legal double-checker 会不知疲倦地工作,作为对其嵌入的 AI 的双重检查。

在此讨论中,我想进一步详细介绍可能嵌入 AI 中的 AI 法律双重检查器的性质和构造。 为此,与您分享关于整个主题的一些额外背景可能会有所帮助 人工智能与法律.

有关 AI 和法律如何相互混合的严肃检查,请参阅我的讨论 这里的链接. 在我挑剔的目光中 人工智能与法律 耦合,我提供了将 AI 和法律相互关联的两种主要方式的简单概念:

  • (1) 适用于人工智能的法律: 适用于我们社会中人工智能的监管或治理的法律的制定、颁布和执行
  • (2) 人工智能应用于法律: 人工智能技术被设计并应用到法律中,包括基于人工智能的法律推理 (AILR) 被注入到 LegalTech 高科技应用程序中,以自主或半自主地执行律师任务

第一个列出的观点包括考虑现有的和新的法律将如何管理人工智能。 第二个列出的观点与将人工智能应用于法律有关。

后一类通常涉及在律师使用的各种在线工具中使用基于 AI 的法律推理 (AILR)。 例如,AI 可能是合同生命周期管理 (CLM) 包的一部分,该包通过识别对起草新合同有用的合同语言来帮助律师,或者可能检测到合同中的法律含糊不清的语言会导致事故或法律漏洞(关于我对 AI 可以识别的所谓“法律气味”的看法,请参阅 这里的链接).

我们将不可避免地将 AI 应用于可供公众使用且不需要律师参与的法律。 目前,由于包括 UPL(未经授权的法律实践)在内的各种限制,提供基于 AI 的法律咨询应用程序是一个棘手且有争议的问题,请参阅我在 这里的链接.

我提出了关于 AI 和法律的介绍,以指出将 AI 应用于法律的另一种工具性用途是创建 AI Legal double-checkers。

是的,将 AI 应用于法律所涉及的同类技术实力能够通过使用 AI 作为嵌入式或植入的 AI 法律双重检查器来充当双重职责。 AI Legal double-checker 是一个必须精通法律方面的组件。 当 AI 应用程序的其余部分执行各种操作时,AI Legal 双重检查器正在衡量 AI 应用程序是否合法并在合法限制范围内这样做。

AI Legal 双重检查器组件不一定需要涵盖有关法律的全部知识。 根据 AI 应用程序的性质以及 AI 的整体目的和行为,AI Legal 双重检查器在其包含的法律专业知识方面的范围可能要窄得多。

我已经确定了一个有用的框架,用于展示法律领域中的 AI 如何跨越一系列自主能力,称为自主水平 (LoA)。 有关概述,请参阅我的 “福布斯” 21 年 2022 月 XNUMX 日的专栏文章,“为什么律师需要了解人工智能和法律的严肃而全面的令人信服的案例”在 这里的链接,有关详细的技术描述,请参阅我在 麻省理工学院计算法杂志 7 年 2021 月 XNUMX 日,见 这里的链接.

该框架阐明了在法律工作中使用的五个级别的人工智能:

  • 0 级:基于 AI 的法律工作没有自动化
  • 级别 1:基于 AI 的法律工作的简单辅助自动化
  • 级别 2:基于 AI 的法律工作的高级辅助自动化
  • 级别 3:基于 AI 的法律工作的半自主自动化
  • 第 4 级:基于 AI 的法律工作的领域自治
  • 第 5 级:基于 AI 的法律工作完全自主

我将在这里简要描述它们。

级别 0 被认为是非自动化级别。 法律推理和法律任务通过人工方法进行,主要通过纸质方法进行。

级别 1 包括用于 AI 法律推理的简单辅助自动化。 此类别的示例包括使用基于计算机的日常文字处理、使用基于计算机的日常电子表格、访问以电子方式存储和检索的在线法律文件等等。

第 2 级包括用于 AI 法律推理的高级辅助自动化。 此类别的示例包括使用查询式基本自然语言处理 (NLP)、机器学习 (ML) 的简单元素、用于法律案件预测的统计分析工具等。

第 3 级包括用于 AI 法律推理的半自主自动化。 此类别的示例包括使用先进的基于知识的系统 (KBS) 进行法律推理、使用机器学习和深度学习 (ML/DL) 进行法律推理、高级 NLP 等。

第 4 级由用于人工智能法律推理的域自治计算机系统组成。 此级别重用了操作设计域 (ODD) 的概念概念,该概念用于自动驾驶汽车,但也适用于法律领域。 法律领域可以按功能领域分类,例如家庭法、房地产法、破产法、环境法、税法等。

第 5 级由完全自主的基于计算机的人工智能法律推理系统组成。 从某种意义上说,就涵盖所有可能的法律领域而言,第 5 级是第 4 级的超集。 请意识到这是一项艰巨的任务。

在讨论自动驾驶汽车和自动驾驶车辆时,您可以将这些自治级别与类似用途相提并论(也基于官方 SAE 标准,请参阅我的报道 这里的链接). 我们还没有 SAE 5 级自动驾驶汽车。 我们正在逐步进入 SAE 4 级自动驾驶汽车。 大多数传统汽车都处于 SAE 2 级,而一些较新的汽车正在进入 SAE 3 级。

在法律领域,我们还没有 5 级 AILR。 我们正在触及一些 4 级,尽管 ODD 非常狭窄。 3 级开始出现,而今天 AILR 的支柱主要在 2 级。

最近一篇关于人工智能应用于法律的研究文章提出了一种被称为 法律通知代码。 研究人员指出:“该研究的主要目标之一 法律通知代码 议程是教 AI 遵循法律精神”(John J. Nay,“Law Informs Code:A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, 西北技术与知识产权杂志,第 20 卷,即将出版)。 有一些基本的考虑因素 法律通知代码 咒语出现了,我将带您了解其中的几个关键戒律。

在深入探讨该主题之前,我想首先奠定一些关于 AI 的基本基础,尤其是 AI 伦理和 AI 法律,这样做是为了确保讨论在上下文中是合理的。

对道德 AI 和 AI 法的认识不断提高

最近的人工智能时代最初被认为是 永远的人工智能,这意味着我们可以使用人工智能来改善人类。 紧随其后 永远的人工智能 意识到我们也沉浸在 坏的人工智能. 这包括被设计或自我改变为具有歧视性的人工智能,并在计算选择中灌输不正当的偏见。 有时人工智能是这样构建的,而在其他情况下,它会转向那个令人讨厌的领域。

我想非常确定我们在当今人工智能的本质上是一致的。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

我最近还检查了 人工智能权利法案 这是美国政府官方文件“人工智能权利法案蓝图:让自动化系统为美国人民服务”的官方文件,这是科学和技术政策办公室(OSTP)一年努力的结果)。 OSTP 是一个联邦实体,负责就具有国家重要性的各种技术、科学和工程方面向美国总统和美国行政办公室提供建议。 从这个意义上说,你可以说这个 AI 权利法案是由现有的美国白宫批准和认可的文件。

在 AI 权利法案中,有五个关键类别:

  • 安全有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知及说明
  • 人类的选择、考虑和回退

我已经仔细审查了这些戒律,请参阅 这里的链接.

既然我已经为这些相关的 AI 伦理和 AI 法律主题打下了有用的基础,我们就可以进入令人兴奋的 AI 法律双重检查器和领域 法律通知代码.

AI 法律双重检查器嵌入 AI 以实现人类价值对齐

我有时会提到 人工智能法律双重检查器 通过 AI-LDC 的缩写。 对于那些不熟悉首字母缩略词的人来说,这在视觉上有点刺耳。 因此,我不会在本次讨论中使用这个特定的首字母缩略词,但想提醒大家注意一下。

为了解开 AI Legal 双重检查器的一些复杂性,让我们解决以下要点:

  • 使用 AI Legal double-checkers 作为 AI 人类价值观对齐机制
  • 更广泛的 AI 将相应地需要更强大的 AI Legal double-checkers
  • AI Legal double-checkers 制定法律,特别是不制定法律(大概)
  • AI Legal 将法律体现为规则与标准之间的微妙平衡
  • 在人工智能遵守法律方面需要布丁证明

由于篇幅所限,我现在只介绍这五点,但请留意我的专栏中的进一步报道,包括关于这些快速发展和向前发展的问题的其他同样值得注意的考虑因素。

现在,系好安全带,准备好开始一段充满活力的旅程。

  • 使用 AI Legal double-checkers 作为 AI 人类价值观对齐机制

有许多方法可以尝试实现人工智能与人类价值观之间的和谐统一。

如前所述,我们可以制定和颁布 AI 道德规范,并努力让 AI 开发人员以及那些部署和操作 AI 的人员遵守这些基石。 不幸的是,仅此一项并不能解决问题。 你有一些设计者不可避免地不会得到消息。 你有一些发明者会炫耀道德人工智能并试图规避有些松散的规定原则。 等等。

使用涉及 AI 伦理的“软法”方法几乎必须与“硬法”途径结合使用,例如通过法律和法规,这将向所有创造或使用 AI 的人发出强烈信号。 如果你没有明智地利用人工智能,法律的长臂可能会来找你。 监狱门的叮当声会引起强烈的注意。

不过,一个大问题是,有时谷仓门已经让马出去走动了。 投入使用的 AI 可能会产生各种非法行为,并且会继续这样做,直到不仅被抓获,而且还会在某些执法部门最终采取行动阻止非法行为的发生时发生。 所有这些都需要时间。 与此同时,人类正以一种或另一种方式受到伤害。

AI Legal double-checker 进入了这次尝试。

通过驻留在 AI 应用程序中,AI 法律双重检查员能够立即检测到 AI 似乎在违反法律。 AI 法律双重检查员可能会阻止 AI 在其轨道上。 或者该组件可能会提醒人们注意已识别的非法活动,及时这样做可能会促使监督者采取紧急纠正措施。 该组件还可以创建经过深思熟虑的正式日志记录,提供一种有形的审计跟踪表象,用于编纂 AI 的不利行为。

据说我们的法律是一种多主体联合体形式,因此法律不可避免地是社会试图在对适当和不适当的社会行为的可能相互冲突的观点之间寻求平衡的混合物。 因此,基于我们法律的 AI Legal 双重检查器体现了这种混合。

值得注意的是,这不仅仅是编制一份明确的法律规则清单。 法律往往更具可塑性,并力求制定总体标准,而不是规定最细微的微观规则。 复杂性很多。

回到之前提到的研究论文,以下是关于 AI 对齐追求的这些考虑因素:“法律,多代理对齐的应用哲学,独特地满足了这些标准。 对齐是一个问题,因为我们不能 事前 指定完全且可证明地指导良好 AI 行为的规则。 同样,法律合同的当事人不能预见他们关系中的每一个偶然事件,立法者也不能预测他们的法律将适用的具体情况。 这就是为什么很多法律都是标准的集合”(同上)。

将法律融入 AI 法律双重检查器比您最初想象的要困难得多。

随着人工智能的进步,我们将需要相应地利用这些进步。 事实证明,对鹅有好处的东西对公鹅也有好处。 我们这些在适用于法律的 AI 方面取得进展的人正在推动 AI 的发展,并且无疑会取得新的进展,最终可以共同推动 AI 的进步。

  • 更广泛的 AI 将相应地需要更强大的 AI Legal double-checkers

一个猫捉老鼠的策略面对这个话题。

很有可能随着人工智能的进一步发展,任何人工智能法律双重检查组件都会发现越来越难处理的问题。 例如,正在接受审查的 AI 应用程序可能新设计了超级偷偷摸摸的方法来隐藏 AI 正在采取的非法行动。 即使 AI 没有走阴险的路线,AI 的整体复杂性本身也可能成为寻求 AI Legal 双重检查评估的艰巨障碍。

这就是这变得特别重要的原因。

假设 AI 开发人员或某些使用 AI 的公司宣称有一个 AI Legal 双重检查器已嵌入到基于 AI 的应用程序中。 瞧,他们现在似乎已经不再担心任何进一步的问题了。 AI Legal 双重检查员将处理一切。

但事实并非如此。

对于所涉及的 AI 应用程序的性质,AI Legal 双重检查器可能是不够的。 AI Legal 双重检查器也有可能过时,可能没有更新与 AI 应用程序相关的最新法律。 可以预见的原因有很多,为什么仅仅存在 AI 法律双重检查员不会成为灵丹妙药。

考虑一下前面引用的研究的这些见解:“随着 AI 的最新技术进步,我们可以反复设置更高的法律理解能力标准。 如果开发人员声称他们的系统在任务上具有先进的能力,他们应该展示人工智能相应的高级法律理解和法律、推理能力,在考虑跨时间、先例和管辖范围的法律法规泥潭时,这些能力几乎没有难度上限”(同上)。

  • AI Legal double-checkers 制定法律,特别是不制定法律(大概)

我敢肯定,你们中的一些人对拥有这些 AI Legal 双重检查员的想法感到震惊。

一个经常表达的担忧是,我们显然将允许人工智能为我们决定我们的法律。 天哪,你可能在想,某种自动化将取代人类。 那些该死的嵌入式 AI 法律双重检查员将成为我们法律的默认国王。 无论他们做什么,都将是法律所认为的那样。

人类将被人工智能统治。

而这些 AI Legal 双重检查器是让我们到达那里的滑坡。

一种反驳认为,这种谈话是阴谋论的内容。 您正在疯狂地假设并让自己陷入困境。 现实情况是,这些 AI 法律双重检查员没有知觉,他们不会接管地球,大肆宣传他们存在的风险显然是荒谬的,而且被夸大了。

总而言之,保持冷静和理性的姿态,我们确实需要注意 AI Legal 双重检查器的作用是适当地反映法律,而不是有意为之,也不是偶然地进一步以某种方式默认进入受人尊敬的制作领域法律。 撇开感知外推不谈,我们当然可以同意,人工智能法律双重检查器可能最终会歪曲特定法律的真实性质,这是一个真正且紧迫的担忧。

反过来,您可以声称,因此,特定的“歪曲”​​法律实际上是在重新制定,因为它不再恰当地表示实际法律的意图。 我相信你能坦率地看到这是一个微妙但有说服力的考虑。 在任何时候,AI 法律双重检查员都可以在虚拟的基础上通过制定或我们应该说“幻觉”新法律,简单地通过 AI 组件如何解释 AI 中最初规定或体现的法律(对于我的报道所谓的AI 幻觉,请参阅 这里的链接).

必须严格注意这一点。

在这个话题上,上述研究在寻求避免越过那条神圣的界线方面提出了这种平行的想法:“我们的目标不是让人工智能具有制定法律、树立法律先例或执行法律的合法性。 事实上,这会破坏我们的方法(我们应该投入大量精力来防止这种情况发生)。 相反,Law Informing Code 最雄心勃勃的目标是对现有法律概念和标准的普遍性进行计算编码并将其嵌入到经过验证的 AI 性能中”(同上)。

  • AI Legal 将法律体现为规则与标准之间的微妙平衡

法律是混乱的。

对于几乎任何一本书上的法律,在实际实践中可能对法律规定的内容有多种解释。 用 AI 领域的说法,我们将法律称为语义模糊的。 这就是使开发适用于法律的人工智能如此令人兴奋但同时又令人烦恼的挑战的原因。 与您可能会在面向金融的 AI 应用程序中看到的精确数字运算不同,将我们的法律体现到 AI 中的愿望需要处理语义歧义的海啸。

在我基金会关于 AI 法律推理基础知识 (AILR) 的书中,我讨论了之前仅仅将法律编纂成一组有界规则的尝试如何没有让我们达到我们想要进入法律领域的程度(见 这里的链接). 今天的 AILR 必须包含规则的使用与法律所代表的所谓总体标准之间的整合。

这种重要的平衡可以用这种方式来表达:“在实践中,大多数法律规定介于纯规则和纯标准之间,法律理论可以帮助估计“规则性”和“标准性”的正确组合在指定 AI 系统的目标时”(同上)。

  • 在人工智能遵守法律方面需要布丁证明

想要某样东西与拥有某样东西是不同的。

当提出虽然我们可能希望拥有 AI Legal 双重检查器,但我们非常需要确保它们正常工作并且正常工作时,这种智慧就出现了。 请注意,这提出了另一个艰难而艰苦的障碍。 我之前介绍过 AI 验证和确认方面的最新进展和挑战,请参阅 这里的链接.

正如研究论文中指出的那样:“为了解决这一差距,在人工智能模型以越来越多的代理能力部署之前,例如主要道路上的全自动驾驶汽车,部署方应展示系统对人类目标、政策和法律标准的理解。 验证程序可以说明人工智能对法律概念“含义”的“理解”(同上)。

结论

我敦促您考虑加入我这个建立和部署 AI 法律双重检查器的崇高任务。 我们需要更多的关注和资源投入到这种美好的追求中。

如前所述,这也提供了双重职责,以实现 AI 法律推理 (AILR),可用于协助律师并可能直接由公众使用。 事实上,一些人强烈争辩说,实现更充分的诉诸司法意识 (A2J) 的唯一可行方法是通过打造具有法律能力并可供所有人使用的 AI。

现在有一个快速的最后一点。

到目前为止的讨论都强调人工智能法律双重检查器将嵌入或植入人工智能。 这确实是那些研究和从事这一新兴领域的人的主要关注点。

这是一个值得深思的问题。

戴上你的思考帽。

为什么不在所有软件中使用 AI Legal 双重检查器?

要点是,与其在 AI 中专门使用 AI Legal double-checkers,不如拓宽我们的视野。 各种软件都可能合法地误入歧途。 由于 AI 通常的使用方式,例如做出影响人类日常生活的令人痛心的决定,AI 无疑获得了最大的关注。 你可以很容易地认为有很多非人工智能系统也这样做。

从本质上讲,我们不应该让任何软件搭便车来逃避或规避法律。

还记得之前我提到过人工智能和法律相结合的两个范畴。 我们在此重点关注人工智能在法律中的应用。 硬币的另一面是法律对人工智能的应用。 假设我们制定了要求使用 AI Legal 双重检查器的法律。

这可能最初仅限于人工智能系统,尤其是那些被评为特别高风险的系统。 逐渐地,相同的 AI Legal 双重检查器要求也可以扩展到非 AI 软件。 同样,没有免费乘车。

当你对上述考虑不以为然时,我会把事情作为结束预告片来调味。 如果我们要尝试要求 AI 法律双重检查员,我们不妨也对 AI 道德双重检查员做同样的事情。 使用 AI 法律双重检查器只是故事的一半,我们也不能忽视或忘记 AI 道德问题。

我将用我最喜欢的名言之一来结束这个活泼的演讲。 用曾任美国首席大法官的著名法学家厄尔·沃伦 (Earl Warren) 的名言来说:“在文明生活中,法律漂浮在道德的海洋中。”

如果我们想让我们的头脑远离可能威胁到我们安全的不良 AI 和阴暗的非 AI 系统,那么最好将那些崭露头角和冒泡的 AI 法律双重检查器和 AI 道德双重检查器投入狂热的使用中.

它们可能是人类的救生衣。

来源:https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics-和艾法律/