为什么律师需要了解人工智能和法律的严肃综合令人信服的案例

手套已经扔了。

你看,我是一个重要的法律行业会议的受邀主题演讲者,我的主题完全是在我的驾驶室里,即人工智能 (AI) 和法律(通常被称为 人工智能与法律).

与其完全被宣传,或许更恰当的措辞是说这个话题受到了一些人的兴奋和另一些人的彻底怀疑。 数百名律师事务所合伙人和同事齐聚一堂,低声嘀咕着,微妙地质疑人工智能和法律是否特别需要他们了解。 人工智能通常被认为是一个天上掉馅饼的话题。 最重要的是,当人工智能与法律相结合时,它同样甚至更远超出了日常辛勤工作的辛勤工作的律师们所思考的范围。

我热切地冒险进入这个有点双臂交叉的展示我的坩埚。

我很高兴地说,我的发言得到了很好的接受,并且反应非常积极,包括这是他们中的许多人第一次听到一个严肃的、令人信服的、全面的案例,说明为什么律师应该了解人工智能和法律。 讨论让那些具有法律意识的一流装备开始了,与会者有很多值得思考的地方。

让我们看看对于那些可能感兴趣或至少对 人工智能与法律 主题。

在这里,我们走了。

首先,要知道的一个重要方面是 人工智能与法律 由两个相互交织的概念组成。

简单地说,它们是:

  • (1) 适用于人工智能的法律: 适用于我们社会中人工智能的监管或治理的法律的制定、颁布和执行
  • (2) 人工智能应用于法律: 人工智能技术被设计并应用到法律中,包括基于人工智能的法律推理 (AILR) 被注入到 LegalTech 高科技应用程序中,以自主或半自主地执行律师任务

我想明确指出,这些都是人工智能和法律结合的真正且迅速扩展的方式。

许多律师只熟悉这两种观点中的一种,或者常常不熟悉这两种观点中的任何一种。

根据您的律师偏好,专注于两者中的一个而不特别关注另一个是完全可以的。 总的来说,似乎不太倾向于对技术感兴趣的律师必然会密切关注适用于人工智能的法律,在这种情况下,你不一定需要接触技术本身。 那些似乎喜欢将高科技注入法律领域的律师更倾向于将人工智能领域应用于法律领域。

欢迎您拥抱这两个方面,并昂首挺胸地这样做。

法律适用于 AI 的注意事项

我将首先在这里对适用于 AI 的法律进行一些深入的解读。

当提到适用于 AI 的法律时,您应该立即考虑正在出现的一系列新法律,旨在管理 AI 系统的出现。 法律如野火般涌现。 国际法即将出台 人工智能与法律、联邦法律、州法律和大量地方法律,请参阅我的持续报道 这里的链接这里的链接,仅举几例。

为什么我们会突然目睹与人工智能相关的法律迅速出现?

这很容易回答。

就在几年前,人工智能的最新时代被称赞为提供 永远的人工智能. 这意味着人工智能被认为是为了社会的利益而提供的。 那并没有持续很长时间。 例如,人们开始发现基于 AI 的面部识别技术很容易产生错误的指示并以看似歧视性的方式执行(请参阅我在 这里的链接)。 用于招聘目的的人工智能也是如此。 担忧开始不断增加。

坏的人工智能 已经到了(嗯,它一直都在那里,但现在很明显)。

我们该如何应对 坏的人工智能?

快速反应是确定 软法 由 AI 道德准则组成。

这些关于人工智能设计和人工智能部署的道德人工智能指南在某种程度上是权宜之计,而更多的努力则在努力制定 硬法. 我不想留下这样的印象,即一旦存在大量的书面法律,人工智能伦理和道德人工智能将不再需要。 一点也不。 我们将持续且始终需要人工智能伦理作为正式法律的必要补充伴侣。 AI Ethics 现在发生的一切都必须保持原样,并成为最终的粘合剂,以使 AI 朝着正确的方向前进。

以下是我之前在专栏文章中密切探讨过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接. 我还深入研究了许多国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

将我们的讨论转移到硬法律的舞台上,正在发生很多事情。

在美国, 算法责任法 正在通过国会一次一寸地徘徊,而欧盟及其提议的 人工智能法 (友邦保险)正以看似更加尖锐的速度前进。 您可能还感兴趣的是所谓的 人工智能权利法案 最近由现有的美国白宫政府公布,旨在定义人工智能时代的人权,请参阅我的分析 这里的链接 (请注意,该声明不具约束力且缺乏法律效力)。

一位普通的律师可能会耸耸肩,说所有这些与人工智能伦理相关的能量以及关于人工智能的逐渐落地的法律都是无趣的。 整个事情当然有点有趣,但对他们现有的努力没有显着影响。

让我们来谈谈这个。

假设您的客户是一家大型企业,并且您正在向该客户提供外部法律服务。 事实证明,该客户一直在采用多种人工智能系统来提高他们的业务效率和效率。 对他们有好处,你可能会想,尽管这与你无关。

真的吗?

客户采用了这些人工智能应用程序,但在使用了一段时间后,发现自己卷入了客户的诉讼,这些客户声称人工智能以歧视性或不当偏见的方式行事。 此外,让我们继续设想,地方、州和联邦层面的几项针对人工智能的法律已经颁布。 客户不仅面临民事诉讼,而且现在还因采用和部署人工智能而犯下的潜在犯罪行为而受到追捕。

当这一切发生时,你在哪里?

显然,一点也不关心人工智能以及人工智能和法律是否即将到来。

你太无耻了。 更糟糕的是,您可能会立即被客户抛弃。 更糟糕的是,您可能会因为在公司跳入人工智能泥潭时没有及时、明智地合法地为公司提供建议而面临法律渎职的指控。

你在合法的轮子上睡着了。

精通人工智能的律师很快指出,美国律师协会 (ABA) 已经就人工智能使用和法律实践的主题提供了官方建议。 根据 2019 年 3 月通过的 ABA 决议(是的,你没看错,这发生在 XNUMX 年前),这是关于 AI 的交易:

  • “已解决,美国律师协会敦促法院和律师解决与在法律实践中使用人工智能 (“AI”) 相关的新出现的道德和法律问题,包括 (1) 自动化决策的偏见、可解释性和透明度由人工智能制造; (2) 人工智能的道德和有益使用; (3) 对人工智能和提供人工智能的供应商的控制和监督。”

从这个意义上说,可以提出一个有点说服力的论点,即律师有责任了解人工智能并确保他们为客户提供相应的法律建议(有关我对此的详细分析,请参阅 这里的链接).

如果您仔细阅读上述声明,那么它无疑是空洞的,因此您可以依赖它只是“敦促”您解决 AI 问题而不是强迫您这样做的措辞。 这可能让人松了一口气。

但这可能是短暂的喘息。

首先,可以说你被 ABA 通知了人工智能在法律中的重要性。

其次,如果您完全忽略了该指导,那么一位聪明的渎职律师可能会代表您的脾气暴躁且财力雄厚的客户追捕您,这可能会对您不利。

第三,尽管您显然会试图反驳说,所主张的规则在其措辞宽松的情况下是不具有约束力的,但法院可能不会这样认为,陪审团也可能不会特别同情您试图扼杀的话. 他们可能会解释决议的精神,并权衡宣言的准确措辞。

转动轮子,看看它是怎么回事。

另请注意,尽管该场景涉及您作为外部法律顾问的法律服务,但请记住,首席法律官 (CLO)、总法律顾问 (GC) 或其他公司法律顾问等内部法律顾问也与此密不可分。 对于那些提供内部法律顾问的人来说,让人工智能在公司内部被大肆设计或采用会卷土重来并困扰着你。 这是一个有保证的不祥预兆的结果。

对这种人工智能考虑治理的最常见反应是,它肯定必须 不能 申请你,因为你不为科技公司做法律工作(假设是这样)。 当然,如果你沉浸在一家科技公司,所有这些都可能是相关的。 但您是非科技公司的法律顾问或在其中担任法律顾问。 该公司不生产人工智能。 他们不是面向技术人员的。

返回并仔细重新阅读场景的内容。

鉴于对人工智能的关注最初涉及高科技公司,这些公司 运筹帷幄 人工智能,更大的图景是几乎每家任何规模或形状的公司都在逐步增加 采用 人工智能系统。 他们是人工智能的用户。 反过来,他们的产品和服务也依赖于人工智能。

我猜你会尝试争辩说,由于这些公司只采用人工智能,所以当人工智能出现问题时,它们会神奇地摆脱困境。 你需要做的就是告诉任何敲门的人,他们应该沿着街道走到设计人工智能的公司。

很好的尝试,但毫无疑问是行不通的。

使用人工智能的公司很有可能会卷入任何法律纠纷,特别是如果他们是一家大公司而人工智能制造商是一家小公司。 把你的脚放在试图起诉的律师的立场上。 大公司有大笔钱。 抓住小公司,追赶大公司。 当然,关于许可和其他方面的各种争论都会发生。 尽管如此,大公司是多汁的目标,没有一个称职的律师会放弃追求它。

火上浇油的是,大公司有可能选择进行定制或让人工智能“训练”以利用大公司的数据。 哎呀,您不再与 AI 制造商公司相距甚远。 你引入了人工智能,基本上把它变成了你自己的。 你是无辜的表面上的保护已经一去不复返了。 你的公司故意修改或定制了人工智能,人工智能现在是你大公司的一部分。

与它一起生活,拥有它。

还有更多可以让您的头进一步旋转。

像飞机在主要机场的飞行模式中一样不断增加的新法律将嵌入各种混乱的法律问题。 立法者正在通过立法管道干扰这些法律混乱的噩梦。 每个人都想成为第一个展示他们正在压制的人 坏的人工智能. 荣耀在等待,同时帮助那些受到恶意 AI 伤害的人。

但问题在于这种香肠制作。 法律语言通常设计得不好。 漏洞是存在的。 错误的措辞盛行。 等等。

您可以将其解释为合法的泥潭或合法的头奖,这取决于您在寻求解释这些法律时可能站在哪一边。 例如,请参阅我对纽约市 (NYC) 关于人工智能偏见审计的模糊且令人不安的法律的分析,该法律计划于今年 XNUMX 月生效,这将成为纽约成千上万家企业(无论大小)的一个巨大问题市,见 这里的链接.

因此,我们看到大量专注于人工智能的法律。

那不是全部。 我们将有看似专注于人工智能的法律,此外,人工智能也将在看似与人工智能相切的法律中被深刻或谦虚地提及。 如果你认为你不必担心 人工智能与法律 因为它是一个非常狭窄的法律领域,我建议你重新调整这种短视的想法。

另一个转折是,我们将制定新的法律,其中包含一些关于人工智能的合法胡言乱语,这几乎肯定会与未提及人工智能的现有法律相冲突。 简而言之,您可能对某些现有法律完全满意,对它了如指掌。 接下来发生的事情是一些晦涩的新法律出现并提到了人工智能。 事实证明,新法律与您熟记的心爱的非 AI 法律相交。

您准备好应对包含人工智能的新法律与未提及人工智能的现有法律有何不同吗?

想象一下这个场景。

年复一年,您最喜欢的客户之一对您的法律服务感到满意。 您完全且没有任何资格地认真了解与该客户有关的法律。 你可以蒙着眼睛背诵法律。

一项新法律获得通过,其中包括与人工智能相关的各个部分。 您没有关注这项新法律,因为法律的主题或重点似乎与您认为与客户相关的法律没有直接关系。

一位仔细研究过这项新法律的聪明律师意识到,人工智能元素为您打开了通往法律领域的大门。 突然之间,令您震惊和惊讶的是,另一位律师设法找到了一个客户,该客户认为他们在法律上受到了您的客户的伤害。 连接这些点的通道就是这条新法律,它可以延伸到您通常沉寂的法律领域。

你从来没有看到它的到来。

如果你认为你的法律专业在某种程度上不受人工智能法律争论的入侵,那么在做出这种傲慢和最终错误的假设时要小心。 说出一个法律专业,我可以很容易地指出人工智能是如何进入那个城镇的。 刑法? 当然。 家规? 是的。 税收法? 明显地。 海商法? 是的。 名单还在继续。

抱歉,如果这看起来令人生畏并且有点不知所措。

毫无疑问,很少有律师知道这一点。

地震即将来临,但很少有人为此做准备。 有些人不知道地震开始隆隆作响。 其他人认为这不会影响他们。 当地震来袭时,人工智能法律导向的确认才会点亮一些灯泡。

好吧,到目前为止,我一直在锤击 硬法 方面。 我相信软法方面正在嫉妒。 这就是我的意思。

想象一下。 您一直在为其提供法律服务的客户选择接受 AI 道德规范。 让我们暂时假设没有任何硬性法律强制采用这种道德人工智能。 客户想做“正确的事”,因此决定向世界展示他们完全支持 AI 道德规范。

真好。

你可能不知道他们决定将 AI 道德融入他们的公司文化。 或者,您可能知道它,但认为它不是您感兴趣的东西。 这只是一种软法方法。 谁在乎它? 不是你。

几个月下来,公司倒闭了。 他们只是口头上支持那些道德人工智能原则。 这主要是一个宣传噱头。 与此同时,他们带入公司的人工智能充满了各种违反道德人工智能的行为。

这不好。

一位希望合法地处理您的客户的聪明律师可能会感谢他们的幸运星,因为 AI Ethics 所拥抱的事情发生了。 如果您的客户从未说过任何有关道德 AI 的事情,那么他们可能会玩弄不知道自己不知道的事情的机会。 相反,他们对了解人工智能伦理大惊小怪。 在某种程度上,他们对自己使用人工智能所做的事情承担了更高级别的责任。

你有没有在一开始就引起他们的注意,你有没有帮助他们合法地考虑人工智能伦理的性质以及他们作为一家公司将如何利用它们?

该死,不在你的管辖范围内。

我可以继续说下去,但我相信主题是响亮而清晰的。

处于警觉状态的律师事务所开始意识到提供围绕人工智能的法律服务所带来的财富。 他们开始在他们的律师事务所内建立新的实践, 人工智能与法律 作为专业。

那些在 人工智能与法律 专业能够就他们的人工智能采用向现有和潜在客户提供建议。 此外,具有人工智能意识的合作伙伴和同事试图在公司的所有其他法律领域或专业领域进行协作和提供信息,以确保这些其他领域不会被新的人工智能法律(包括相关法律)所蒙蔽。

内部法律顾问也在慢慢增加精通法律的人才 人工智能与法律 (主要是在意识到自己充斥着人工智能的公司中)或指派渴望获得训练有素的律师,这些律师成为人工智能法律主题的便捷内部资源。 他们可能仍会使用外部法律资源来处理更大规模的 AI 相关事务,尽管通过拥有内部人才,他们拥有值得信赖的法律团队内部成员,可以作为公司之间的重要联系以及外部法律顾问可能更深入的人工智能精通法律能力。

我不想暗示这是一夜之间发生的,就好像一根魔杖被挥动了一样。

律师事务所是著名的,或者我们应该说是因为改变缓慢而臭名昭著。

此外,直到市场要求 人工智能与法律 人才方面,大部分律所都会采取观望态度。 如果市场出现,瞧,他们可能会采取全面的方法并获得所需的任何新人才。 这是交易和交易法律服务的经典即时 (JIT) 策略。

规模较小的律师事务所或单独执业的律师事务所必然会发现自己陷入困境。 一方面,如果有钱可赚 人工智能与法律 域,这似乎很有吸引力。 如果市场还没有充分渗透,他们几乎承担不起冒险的代价。 你必须赚到足够的钱才能让事情继续下去。 保持你所知道的任何现有法律领域的摇钱树,并在市场对喧嚣的要求开放时做好准备 人工智能与法律 法律服务。

它是某种 Catch-22。

律师事务所和律师不会将精力和注意力花费在 人工智能与法律 除非他们的客户和市场对它的需求旺盛。 问题是,大多数客户不太可能意识到他们需要 人工智能与法律 相关法律服务。 他们在 AI 肉汁列车和 AI 潮流中疾驰而过,完全不知道前方的法律坑洼和陡峭的悬崖。

也许是先有鸡还是先有蛋。

那些陷入各种法律困境的客户理所当然地因为没有得到关于他们使用人工智能的法律建议而感到厌烦,然后相应地愤怒地与他们的法律服务提供商对抗。 或者我们是否应该让精明的律师站在即将到来的海啸面前,并尝试让他们的客户参与肯定很难进行的讨论,因为许多客户会对人工智能法律的警钟充耳不闻?

这就提出了一个值得考虑的相关概念。

请注意,一些权威人士坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们进一步警告说,如果我们真的制定了这些人工智能法律,我们将扼杀人工智能的进步,因为它可以带来巨大的社会优势。 有时,这种观点或观点被表示为被创造为 人工智能例外论 (这意味着我们应该允许在法律上限制人工智能方面有很大的自由度,因为人工智能提供了这样的 异常 对社会的重要利益)。

你肯定会听到你今天的许多客户说同样的话。

如果你盲目地与你的客户进行激烈的讨论,并试图解释他们采用人工智能的法律后果,这通常会被认为是法律方面再次阻止了好事。 哎呀,你会很快被告知,请停止所有那些狂野而睁大眼睛的法律噩梦般的场景。

我们会接受人工智能,他们会坚持的。 它将降低我们的成本,我们可以减少员工人数,我们最终可以扩大规模,为越来越多的消费者或客户提供我们的产品和服务。 其他人也在做同样的事情。 如果他们这样做,我们也必须这样做。 如果您的法律谨慎的话有任何意义,那么我们的那些竞争对手就不会采用人工智能,因为它是自切片面包以来最好的东西。

去过也做过。

确保尽可能以有利于业务的条款表达您的 AI 法律警告。 我发现指出高度宣传的 AI 失误很有用,这些失误已经通过失去商业声誉和/或通过代价高昂的诉讼来惩罚公司。 我想你也可以试试我们小时候都学过的那句老话,就是因为别人盲目地跳崖,那他们也应该这样做吗?

您将希望通过强调采用人工智能的正确方法和错误方法来构建人工智能讨论。 如果你给人留下的印象是,你正在把 kibosh 完全放在使用 AI 上,那么,这将是一个破坏政党的断言。 它似乎没有为利用人工智能留下空间。 这不是你会发现成功传达的信息。

更好的方法是阐明法律需要如何成为人工智能采用生命周期不可或缺的一部分。 对于 AI 开发、定制或采用的每个阶段,法律都应该参与进来。所有这些都不是迟到的事后要求法律在最后进行最终签字的事情。 为时已晚。 这匹马已经快要离开谷仓了。

接下来想到的是众所周知的胡萝卜加大棒。

您可以说胡萝卜是适用于人工智能的法律将成为律师的一大笔钱(促使许多宝贵的计费时间),而大棒是律师不注意可能会发现自己陷入困境客户在法律上被与人工智能相关的法律风险和责任压得喘不过气来(可能导致律师声誉价值的损失,并可能面临渎职或类似的判例弊病)。

如果可以的话,我想明智地在这堆胡萝卜中添加另一个胡萝卜。

一些律师的动机是未解决的法律挑战的新颖性。

这些类型的律师旨在探索新的法律领域。 他们希望在法律领域留下印记,而不仅仅是将相同的法律细节从一个法律场所推到另一个法律场所。 对他们来说,尽管计费时间无疑是至关重要的,但他们却以最真诚的方式充分地渴望利用他们来之不易的宝贵法律意识来解决特别令人烦恼或具有挑战性的法律难题。

对于那些冒险的法律寻求者,我真诚地欢迎您进入适用于人工智能的法律领域。

这笔交易。

我将从一个可能导致您吐槽的问题开始。 做好准备。

人工智能(AI)的定义是什么?

让我稍微但重要地改述一下这个问题:什么是 法律 人工智能(AI)的定义?

当提到我们称之为“人工智能”的东西时,你肯定会假设法律界已经确定了具体的定义和含义(顺便说一句,现在有些人更愿意说 人工智能 (AGI),试图带回实现真正人工智能的目标,而不是今天不那么令人印象深刻的非感知人工智能)。

但事实并非如此。

正如我已经广泛介绍的那样,人工智能的法律定义确实是一毛钱,请参阅我的分析 这里的链接.

这样想吧。

国际、联邦、州和地方各级所有那些闪亮的新人工智能法律可能都集中在人工智能上,但事实证明,没有任何完全一致的、完全标准化的、法律上完全固化的人工智能定义。 取而代之的是,每个人在制定一条法律时几乎都是在制定他们的人工智能定义,或者他们借用了别人的定义,即使没有人能具体说明它是否能够经受住时间的考验并经受住法庭斗争的严酷考验。

想一想。

如果您选择在新法律中使用过于狭窄的 AI 定义,那么所有本应属于该范围的 AI 都有可能逃脱该法律(尤其是精通 AI 的律师在法律上认为意识到漏洞的存在)。 另一方面,如果人工智能的定义过于宽泛,它可能会将大量软件和系统纳入新法律,而这些软件和系统可能没有真正的基础可以属于该法律的范围。 简而言之,适用于人工智能的法律混乱的部分原因在于,我们最终将获得一系列新法律,这些法律涵盖了被称为“人工智能”的模糊事物,但这将对截然不同的法律解释持开放态度。

律师会发现自己处于与人工智能法律定义变幻莫测的这些姿势:

  • 为声称法律不适用于他们所谓的公司设计的“人工智能”的客户辩护
  • 为声称法律不适用于公司正在使用或采用的所谓“人工智能”的客户辩护
  • 代表声称法律确实适用于设计了所谓的有害“人工智能”的公司的客户
  • 代表客户声称法律确实适用于使用或采用所谓的有害“人工智能”的公司
  • 其他名称

作为一名律师,您如何做一些事情来帮助应对这个迅速扩大的问题,并试图阻止肯定会随之而来的代价高昂和拜占庭式的法律下游纠纷?

帮助与立法者合作找出人工智能的定义细节。 如果您对此感兴趣,也许可以成为一名立法者。 成为找出有意义的人工智能法律的领导者,明确规定,可以无争议(嗯,没有这样的事情),或者至少减少争议出现的差异,并寻求防止法律漩涡一旦所有这些新的人工智能法律都被写入书籍并且马离开了谷仓,这种情况就会到来。

作为一个法律上有趣的提议,这如何让你印象深刻?

你们中的一些人可能会说,从您的角度来看,人工智能定义问题并不是一个特别有趣的挑战。 您可能想知道案卷上还有什么。 我有一蒲式耳装满了它们,但现在让我们再举一个例子。

两个字: 法人资格.

人工智能可以或应该被赋予某种形式的法人资格吗?

你必须承认这似乎是一个推动者和震动者。 假设我们共同决定让人工智能具有法人身份。 想想后果。 一些国家已经开始走这条路,例如争辩说人工智能可以拥有人工智能生产的人工制品的知识产权(IP)权利,如新发明、新艺术等。

有人说这很有道理,其他人则非常愤怒,并认为今天的人工智能根本不值得拥有一丁点法人资格。

这是一个巨大的争议。

到目前为止,在美国,与知识产权相关的一般法律落地是知识产权法规定合法所有者必须是人,请参阅我在此的报道 这里的链接. 从某种意义上说,这种通过简单地表明唯一适用的知识产权所有者必须具有人类法律地位,就默默地回避了人工智能法人资格的问题。

与法人问题有些相关的是一个紧密配对的主题,其中包含 人工智能的责任 (有时称为 人工智能的责任)。 问责制或责任是指试图合法地将 AI 与谁或什么应该负责或负责,当 AI 造成伤害时,请参阅我的分析 这里的链接.

简单的答案似乎是,设计人工智能的人应该受到指责。 人编写代码,因此人承担责任或义务。 但假设人工智能被编写为自我调整。 这样做可能是出于明显有益的原因。 与此同时,冒犯性的人工智能已经偏离了其最初设计的机械化。 我们还要追究程序员的责任吗?

浑浊出现。

例如,程序员编写了 AI,然后部署 AI 的其他人更改了 AI。

现在,谁负责? 更令人困惑的是,人工智能经过了几十只人的手,伴随着几十次自我调整的卷积,所产生的人工智能变体与之前的版本完全不同。 每个人都受到指责吗? 没有人受到责备吗? 你甚至可以追溯 AI 的血统,以明确规定哪些人参与其中,以及他们各自参与的内容是什么?

这是一个额外的踢球者,也许人工智能会受到指责。

如果我们要为人工智能提供一些法人资格,我们大概也可以合法地追究人工智能的责任。 但是,这是什么意思? 人工智能是否会合法拥有资产,并被受害者抢夺并获得应有的赔偿? 人工智能会被监禁吗? 我已经在 这里的链接这里的链接,在我关于这些主题的许多著作中。

我希望这些不同的预告片足以激起您的法律兴趣。

底线是,对于那些梦想有朝一日能够在法律上取得成功并正在努力沉浸在非凡的法律挑战和法律难题中的人来说,请考虑将法律应用于人工智能。

接下来是时候看看适用于法律的同盟兄弟人工智能了。

考虑人工智能的兴起适用于法律

我在本次讨论开始时说过,有两种主要方式可以将 AI 和法律互连起来(人工智能与法律),其中又包括:

  • (1) 适用于人工智能的法律: 适用于我们社会中人工智能的监管或治理的法律的制定、颁布和执行
  • (2) 人工智能应用于法律: 人工智能技术被设计并应用到法律中,包括基于人工智能的法律推理 (AILR) 被注入到 LegalTech 高科技应用程序中,以自主或半自主地执行律师任务

我们现在已经快速浏览了关于适用于人工智能的法律的第一项。

无论你做什么,请不要忽视或忽略另一个同样重要的支柱,即在法律中使用人工智能。 我向你保证,将人工智能应用到法律上的胡萝卜与讨论适用于人工智能的法律时一样多。 另外,虽然我不想显得阴沉,但也有与人工智能相关的棍子适用于法律领域,所以也要做好准备。

应用于法律的人工智能需要尝试利用人工智能的最新和持续进步来帮助执行法律任务。 其目的是提供可以在某种程度上类似于人类律师的技术,尽管目前以相当受限的方式。

总的来说,这是一个难题。

一个非常难的问题。

事实证明,设计能够尽职尽责地执行法律推理的人工智能比许多人想象的要困难得多。 你看,法律充满了语义上的歧义,到目前为止,各种常规的编程和数据结构表示方式都无法完全掌握人类律师在律师工作中所体现的认知。 对于寻求重大挑战的热心计算机科学家来说, 人工智能与法律 是明显肥沃的土地。 想要在法律史上取得飞跃的律师也将乐于成为这些努力的一部分。

许多人坚持认为这是一个登月类型的问题。 我同意。 好消息是,类似于人工智能自动驾驶早先被称为登月计划,并且已经取得了很大进展,基于人工智能的法律推理的目标也是如此。 有了足够的虔诚关注和资源,这个难题在计算上很容易解决,我们最终将登陆月球,就像它一样。

你可能会想说,我们永远无法让 AI 做律师所做的事情。 律师永远不能“自动化”是一种常见的说法。

正如您很快将在这里看到的那样,辩论往往集中在一个全有或全无的设计上。 断言是,人工智能要么完全取代人类律师和人类律师,要么它什么也不做,似乎没有增加价值。

有点古怪。

任何称职的律师都知道这些邪恶的论点。 你试图建立一个稻草人,然后将其击倒。 瞧,你赢了争论。 除非其他同样精通论证的人出现并指出稻草人是用来迎合弱论点的虚假技巧。

我们可以以特定的方式和特定的法律任务使用人工智能,而不必专门注册能够以所有想象的方式一次完成所有律师任务。

话虽如此,对于人工智能正在做什么以及它是否能够充分执行手头的任务,当然存在严重的担忧。 您可能很清楚,在美国执业的一个方面是 未经授权的法律实践 (UPL) 是一个相当严格的条件。 从表面上看,UPL 保护那些寻求法律建议的人,确保只有获得适当许可担任律师的人才会这样做。 一个迫在眉睫的问题是,蜿蜒从事法律任务的人工智能是否违反了 UPL,这是我在 这里的链接.

我相信你们中的一些人正在等待听到我们是否已经获得了完全取代人类律师的人工智能。 这是在法律行业会议上经常听到的scuttlebutt。 我们还在那里吗,这个问题在空气中挥之不去。

当然,取代人类律师是一个有争议的热点。

业内人士认为,与其专注于人工智能是否会“取代”人类律师,近期更现实的情况是人工智能武装的律师可能会“取代”没有人工智能的律师。

我将在讨论结束时对此进行更多说明。

适用于法律的人工智能领域中一个特别繁重的话题涉及到有一天会有机器人律师、机器人法官,甚至可能是机器人陪审员的各种故事。 我不是机器人标签的粉丝。 问题在于,与机器人标签相关的先入为主的包袱太多,以至于一旦机器人概念被混入其中,您就无法与某人进行认真的对话。 我会犹豫地将 Robo-trio 包括在这个讨论中,并要求你抛开你可能有的任何疯狂或疯狂的先入为主的观念。

感谢您愿意重新审视适用于法律的人工智能主题。

第一个也是最重要的基石包括让你的头脑围绕一个重要的框架,我以在自治水平 (LoA) 的背景下对人工智能法律推理 (AILR) 的看法而闻名,请参阅我的研究论文麻省理工学院计算法杂志 这里的链接.

我将暂时向您简要介绍该框架。

要点是,大多数律师似乎立即陷入了这样的心理陷阱:如果人工智能将用于法律推理目的,那么人工智能要么存在要么根本不存在。 这是一种错误的二分法。 这是一个假设,人工智能要么开启,要么关闭。 看起来,你要么有人工智能,要么没有人工智能。 但这不是事情的运作方式。

我将把这种开或关的谬误与自动驾驶汽车的出现进行比较,让您更清楚地了解为什么考虑不同级别的自主性至关重要。

您几乎可以肯定知道,在设计基于人工智能的自动驾驶汽车方面,人们正在进行大量努力,通过人工智能来进行驾驶,而不需要人类驾驶员来驾驶。 在美国的几个主要城市正在进行自动驾驶汽车的试验。在某些情况下,人类驾驶员仍在驾驶,作为安全或备用驾驶员。 同时,在有限的基础上,自动驾驶汽车在没有任何人类后备司机的情况下被使用。

我敢打赌,也许你隐约知道有各种各样的 各级 人工智能自动驾驶汽车。

存在一个标准,该标准建立了 0 到 5 的等级,表示 自治程度 那可能存在。

刻度的底部是零(0 级),基本上没有自动驾驶,驾驶完全由人类驾驶员手动操作。 量表的另一端是 5 分(5 级)的最高分。 最高分表示完全由人工智能驱动的车辆,没有人类驾驶员,并且可以在人类驾驶员可以处理的几乎任何驾驶环境中运行。

大多数人会考虑 0 和 5,但不会考虑最低和最高得分之间的重要级别。 今天的汽车通常被认为是 2 级,它们提供了一些自动化驾驶。 尽管如此,人类驾驶员在法律上仍被视为车辆的驾驶员。 3 级汽车刚刚出现,包括半自动驾驶安排。 人类驾驶员仍有望在需要时做好准备,尽管大部分驾驶可能由人工智能承担。

对于许多人来说,4 级是一个有点令人困惑的类别。 Level 4 被认为是完全自动驾驶的汽车,但它只能在特定的指定条件下驾驶,称为操作设计域 (ODD)。 例如,我可能会说我有一辆 AI 自动驾驶汽车,它只能在旧金山安全驾驶,只有在白天,而不是在大雨等恶劣天气时。 这是一个特殊的 ODD,它限定了 AI 驾驶系统能够正确驾驶自动驾驶汽车的范围或界限。

现在我们已经介绍了自治水平的基础知识,我们准备采用相同的方法,看看它如何也适用于法律推理行为。

以下是我声明的基于人工智能的法律推理的自治级别:

  • 0级:人工智能法律推理没有自动化
  • 级别 1:AI 法律推理的简单辅助自动化
  • 第 2 级:人工智能法律推理的高级辅助自动化
  • 第 3 级:人工智能法律推理的半自主自动化
  • 第 4 级:人工智能法律推理的领域自治
  • 第 5 级:完全自主的人工智能法律推理

级别 0 被认为是非自动化级别。 法律推理和法律任务通过人工方法进行,主要通过纸质方法进行。

级别 1 包括用于 AI 法律推理的简单辅助自动化。 此类别的示例包括使用基于计算机的日常文字处理、使用基于计算机的日常电子表格、访问以电子方式存储和检索的在线法律文件等等。

第 2 级包括用于 AI 法律推理的高级辅助自动化。 此类别的示例包括使用查询式基本自然语言处理 (NLP)、机器学习 (ML) 的简单元素、用于法律案件预测的统计分析工具等。

第 3 级包括用于 AI 法律推理的半自主自动化。 此类别的示例包括使用先进的基于知识的系统 (KBS) 进行法律推理、使用机器学习和深度学习 (ML/DL) 进行法律推理、高级 NLP 等。

第 4 级由用于人工智能法律推理的域自治计算机系统组成。 此级别重用了操作设计域 (ODD) 的概念概念,该概念用于自动驾驶汽车,但也适用于法律领域。 法律领域可以按功能领域分类,例如家庭法、房地产法、破产法、环境法、税法等。

第 5 级由完全自主的基于计算机的人工智能法律推理系统组成。 从某种意义上说,就涵盖所有可能的法律领域而言,第 5 级是第 4 级的超集。 请意识到这是一项艰巨的任务。

花点时间在您的法律服务和法律活动的背景下考虑这些自治级别。

今天的大多数法律实践都在使用某种形式的基于计算机的软件包来帮助他们开展法律工作。 这些应用程序的流行命名是它们被认为是 法律技术 (你可能知道医疗技术有 MedTech,金融技术有 FinTech,教育技术有 EdTech 等)。

我几乎每天都被问到 LegalTech 是否包括 AI 或不包括 AI。

我的回答是,这不是一个开或关的事情。 您需要考虑自治级别。

一些 LegalTech 软件包已将 AI 功能添加到其软件包中(或者,在某些情况下,首先使用 AI 作为核心),这样做的程度不同。 您需要仔细检查添加了哪些 AI 以及它完成了什么。 小心那些经常使用的关于人工智能的厚颜无耻和未经证实的说法。

最受欢迎的领域之一是使用人工智能处理法律合同。 您可能会获得合同生命周期管理 (CLM) 软件包,以在法律审查过程中跟踪和处理您的法律合同。 例如,如果人工智能可以识别合同草案中潜在的法律缺陷或狂笑,或者可能将拟定的给定合同的法律语言拼接在一起,那么添加人工智能可能会很有用。

进行电子发现时,人工智能的另一个重点出现了。 在发现过程中,您可能会遇到大量电子文档。 可以使用各种人工智能来搜索语料库并尝试识别相关项目。 此外,人工智能可能能够总结或以其他方式分析找到的材料对手头案件的价值。

等等。

如果 AI 仅进行最低限度的任何实质性法律推理或法律处理,您会将其归类为在我的规模上使用的 AI 级别 2。当 AI 设计得更稳健时,LegalTech 可能会在级别 3 上使用 AI。一般来说,级别4 现在只存在于相当狭窄的 ODD 中。 5 级是有抱负的,我们需要继续努力,看看我们是否能达到它(就像人工智能自动驾驶汽车领域存在同样的悬而未决的问题一样)。

所以,是的,我们今天确实在 LegalTech 中使用了人工智能,并且人工智能在它能做什么和不能做什么方面差异很大。

与此同时,正在努力推动人工智能的边界,并寻求将其结合到执行法律任务和执行各种范围和深度的法律推理中。 在我的研究实验室(见 这里的链接),我们正在利用大语言模型 (LLM) 的出现,并将这项最新的新技术应用于法律,同时汇集各种人工智能技术和技术,以尝试协同和整体破解如何实现的持续谜团提高基于人工智能的法律推理的自主性。

回到 Robo-lawyer 的绰号(我不想这样做,但为了完整起见,我觉得我必须这样做),这是一个需要考虑的问题:

  • “机器人律师”在范围和能力方面构成什么?

通常的回答是,Robo-lawyer 是一种基于人工智能的法律推理系统,可以做人类律师可以做的所有事情。 句号,句号。 如果是这样的话,我们似乎会说机器人律师必须是自治等级的 5 级。 当然,这有点争论,因为您可以质疑是否有任何选择 律师真的可以在法律的各个领域全面运作,这不是特别现实。 大多数律师通常属于特定的法律领域或专业,类似于 4 级 ODD。

让我们看一下 4 级上下文中的 Robo-Lawyer。

假设我们设计了一个人工智能系统,可以为合法地处理停车罚单进行“法律推理”。 人工智能能够执行类似的法律职能,就像受雇就传统停车罚单进行法律争论的律师一样。

这个类似停车罚单律师的 AI 是不是机器人律师?

从某种意义上说,是的,因为它正在承担一项律师任务,尽管它是在非常狭窄的法律领域或子领域内。 另一方面,如果您将其与基于 5 级自主人工智能的律师能力(我们还没有)进行比较,您可能会强烈地说这不是机器人律师。

你明白我为什么不喜欢机器人律师的名字吗?

这是模棱两可的。 它携带行李。 它暗示了不一定明确表达的事物。 标语很糟糕,最好不要使用它。 不幸的是,这句话很吸引人。 它具有粘性,不会轻易消失。 可悲的是,一些 LegalTech 供应商的广告试图利用 Robo-lawyer 标签,因此,名称很快就会过期或被删除似乎值得怀疑。

换档,我们应该检查适用于法律的与人工智能相关的胡萝卜和大棒。

如果法律实践采用基于 AI 的 LegalTech 软件包,由于 AI 能够显着提高人类律师的生产力,这似乎是一件好事。 律师事务所普遍欢迎提高其人力劳动的生产力。

一个反驳的观点是,生产力增强器将减少计费时间。 您的律师原本需要 20 小时才能完成一项特定的法律任务,现在可以在 15 小时内完成。 哎哟! 这意味着您刚刚放弃了 5 小时的计费时间。 当然,这是对这种情况的狭隘观点,忽略了寻求生产力助推器的商业敏锐度。

例如,您可以通过使用律师来获得新客户或更快地完成其他现有客户的工作(可能会提高对这些客户的满意度),从而利用这些“节省的”时间。 还有竞争的角度需要考虑。 如果您的律师事务所效率较低,那么寻求法律服务的公司很可能会对此有所了解。 他们是选择以高效着称的律师事务所还是效率较低的律师事务所?

您还应该超越生产力并查看其他关键指标,例如 质量 的法律建议。

如果基于人工智能的法律推理元素引发法律选择或引发法律争论,那么使用这种人工智能的人类律师很可能会识别出更高质量的法律解决方案。 从某种意义上说,这就像有一位资深合伙人担任导师一样。 合作伙伴和同事能够在白天或晚上的任何时间、任何地点利用人工智能,促使他们更加谨慎地考虑更全面的法律途径。

这些是一些胡萝卜。

棍子的一面可能很明显。

提出的一个挑衅性论点是,不采用这种人工智能的律师将篡夺他们对客户的职责。 作为律师,他们没有利用最好的方式为客户提供建议。 他们正在削弱作为法律服务提供者的宣誓义务。

您可能还看到了所谓的 沙箱 在法律领域。 一些人认为,这可能是让人工智能进入法律游戏的关键手段。 争论的焦点是,如果传统律师事务所不愿意更积极地转向人工智能,也许需要另一种途径。

有人认为,与那些使用人工智能的律师相比,不使用人工智能的律师似乎处于劣势。 这尤其令一些法律行业协会感到担忧。 令人担忧的是,小型律师事务所或独立律师将无法负担人工智能法律推理工具。 他们将被拥有进行此类投资的资金的大法进一步黯然失色。

一个反驳的观点是,如果人工智能法律推理工具的成本足够低,这可能会使小型律师事务所和独立律师与 Big Law 更具竞争力。 否则,可能会通过人工智能增强来说服那些认为小型律师事务所或个人没有足够法律资源的客户。

最大的启示之一涉及这样一种假设,即如果可以以可承受的价格广泛使用具有自主性的人工智能法律推理,这将可能有助于解决 A2J(诉诸司法)的压倒性问题。 大量的人没有现成的律师和律师服务。 他们不知道如何应对法律生态系统。 想象一下,一个 24×7 的基于人工智能的法律推理系统可以做些什么来使法律民主化并增强对法治的感知。

最后几点触及了一些令人兴奋的法律难题或法律挑战,等待那些可能选择参与适用于法律的人工智能的出现。

更有趣的是,我们可以使用人工智能来帮助准备或起草法律。 这是想法。 很多时候,法律的组成很差。 法律语言的缺陷导致对法律的混淆。 这削弱了法治。 人工智能正被用于分析拟议的法律,并试图找出可能不那么明显的差距和问题。 除了检测这些问题(有时称为 法律气味),人工智能可以建议重新措辞以减少歧义。

另一个头脑扭曲者援引了以下论点: 法律就是代码.

换句话说,如果您查看大多数法律,它们与计算机编码有些熟悉的相似之处。 正在努力将法律自动转换为纯编程代码或其等效代码。 这反过来可能允许与我们的法律相关的计算和数学导向的证明。

你也可以在意念上拉面 法典.

如果法律将基于某种计算机算法,那么您可以建议程序代码本身就代表法律。 代码就是法律。 设想去法庭争论一段被合法地视为法律的逐字指示的编程代码。

思考这些诱人的问题:

  • 我们可以通过什么方式最好地设计出更全面地包含法律推理的人工智能?
  • 人类律师与人工智能法律推理系统之间的哪种类型的在线交互最有利于使用?
  • AI 法律推理需要 XAI(可解释 AI),但机器学习和深度学习如何提供合适的可解释性?
  • 我们如何让没有足够 A2J 的人可以使用 AI 法律推理?
  • 当涉及到基于人工智能的法律推理时,我们能否弄清楚 UPL 问题?
  • 我们的法院也会采用人工智能吗?如果是,这将如何影响全面的裁决?

一些律师认为自己本质上是企业家。

LegalTech 领域有很多初创公司,其中有许多正在尝试发明人工智能或将人工智能应用于法律任务。 您可能已经看到最近的招聘广告要求 法律知识工程师 或简单地列为 法律工程师.

一些律师是进入这个领域的技术人员。

一些律师不是进入应用于法律领域的人工智能的技术人员,他们为此提供法律领域的专业知识来帮助开发人工智能法律推理系统。 我提到这一点是因为许多律师和法学院学生的假设是,他们必须是技术人员才能进入这个领域。 这本身不是要求。 在与技术人员坚定地合作工作的同时,以迄今为止您尚未检查和这样做的方式探索法律的意愿是最近的上升路径。

结论

你一直坚持到这篇论文的结尾。

对你有好处。

我真诚地希望你会发现这个讨论内容丰富,甚至可能是适度的鼓舞人心的。

为什么律师不冲 人工智能与法律?

很少有人知道你现在知道的。

大部分律师对什么一无所知或知之甚少 人工智能与法律 由组成。 这是法学院很少涉及的主题,尽管我已经预测,一旦 人工智能与法律 海啸来袭,我们很可能会看到发生在哪里的重大变化 人工智能与法律 需要覆盖。

我之前也提到过,有一只鸡或一只鸡蛋 人工智能与法律. 客户还不知道 人工智能与法律 将是一个重大的法律问题。 律师事务所倾向于等到客户开始要求提供法律服务。 目前,只有一些律师事务所看到了墙上的文字。 同样,只有一些客户看到墙上的文字。 通常很少有人知道地震,而为地震做准备的人更少。

颠覆即将来临。

我意识到这些天“颠覆”这个词被广泛流传。 尽管过度使用,但我确实认为法律领域正处于与人工智能相关的颠覆的风口浪尖。 这不会是一夜之间。 你不会在一天早上醒来,而在晚上,一场彻底的转变莫名其妙地发生了。 我会说这将是一个稳定的前进。 一次一只脚,一次一步。

千里之行始于足下。

根据威廉·伦道夫·赫斯特 (William Randolph Hearst) 的名言:“你必须把注意力放在目标上,而不是障碍上。”

资料来源:https://www.forbes.com/sites/lanceeliot/2022/10/21/the-no-nonsense-comprehensive-compelling-case-for-why-lawyers-need-to-know-about-ai-和法律/