人工智能伦理和人工智能法称,大规模酝酿“信任衰退”旨在削弱负责任的人工智能

我相信您对这句老话很熟悉,即水涨船高。 这枚硬币还有另一面,也许不那么为人所知,即退潮会使所有船只沉没。

归根结底,有时潮汐决定了你是上涨还是下跌。

潮水会做它做的事。 在这件事上你可能没有任何特别的发言权。 如果您的船在潮汐中停靠或抛锚,您就会随波逐流。 关键是要意识到潮汐的存在,并预测它的走向。 运气好的话,您可以渡过难关而毫发无损。

让我们考虑一下所有这些关于船只和潮汐的航海话题如何与人工智能 (AI) 相关联。

首先给大家介绍一下现在越来越流行的流行语 负责任的AI. 一般的观念是,我们希望 AI 遵守适当和可取的人类价值观。 有些人将此称为 负责任的AI. 其他人也有类似的讨论 负责任的人工智能, 值得信赖的AI人工智能对齐,所有这些都触及相同的基石原则。 有关我对这些重要问题的讨论,请参阅 这里的链接 这里的链接,只是我在福布斯专栏中对 AI 伦理和 AI 法律的持续和广泛报道中的几个例子。

引发 AI 对齐难题的一个关键因素是表面上的信任。 我们能相信 AI 会安然无恙吗? 我们能相信那些设计人工智能的人会以负责任和适当的方式寻求这样做吗? 我们可以信任那些从事人工智能领域并从事人工智能运维的人吗?

这是很大的信任。

AI Ethics 和 AI Law 一直在努力增强对 AI 的信任感。 人们相信,通过建立合适的“软法”,将其规定为一套指导方针或道德人工智能戒律,我们可能有机会让人工智能开发者和人工智能运营商遵守道德规范。 此外,如果我们制定和制定足够细心的法律法规来监督或管理 AI,由于被列入官方法律书籍而被视为“硬法”,则很有可能引导 AI 走上一条法律允许的直接道路。

如果人们不信任 AI,他们将无法获得优秀 AI 带来的好处。 我会暂时指出有 永远的人工智能 遗憾的是还有 坏的人工智能. 糟糕的人工智能会以无数不利的方式影响人类。 有些人工智能以歧视性的方式行事,并表现出不当的偏见。 有人工智能可以间接或间接地伤害人。 等等。

所以,我们有 永远的人工智能 我们热切地希望被设计出来并投入使用。 同时,有 坏的人工智能 我们想要减少并试图阻止。 坏的人工智能 往往会削弱对人工智能的信任。 永远的人工智能 通常会增加对人工智能的信任。 一场艰苦的斗争接踵而至,不断增加的信任不断被残酷破坏的信任所削弱。

AI 信任向上,随后被击垮。 然后,较低水平的 AI 信任会再次提升。 来来回回,人工智能信任的水平在拉锯。 这几乎足以让你头晕目眩。 你的胃在搅动,类似于晕船,就像在海中摇晃的船上一样。

当这场战斗正在进行时,您可能会断言还有另一个宏观因素对信任扩展进程起到更大的作用。 有更重要的事情在起作用。 人工智能信任的起伏是海怪浪潮的一时兴起。 是的,AI 信任就像漂浮在一个领域中的小船,最终比两者之间发生的战斗和小冲突更为明显 永远的人工智能 坏的人工智能.

我到底指的是什么,您可能会疑惑地问?

我指的是 大规模的“信任衰退” 我们的社会目前是持久的。

请允许我解释一下。

今天媒体上有很多关于经济衰退的讨论。

在经济意义上,衰退被认为是经济收缩,通常与经济活动下降有关。 我们通常会看到或经历经济衰退,例如实际收入下降、GDP(国内生产总值)下降、就业疲软和裁员、工业生产下降等。 我不打算深入讨论经济衰退,因为关于什么构成真正的衰退与声称的或有争议的衰退有很多争论(你可以找到很多会谈的人就这个话题展开激烈的辩论)。

“衰退”的概念已经扩大到包括社会的其他方面,而不仅仅是经济焦点。 您可以将某件事或另一件事的任何放缓称为可能陷入衰退。 这是一个有多种应用的方便的词。

为一种您可能还没有特别听说过的用法做好准备。

信任衰退。

没错,我们可以谈论一种被称为 信任衰退.

要点是整个社会可能正在经历信任的放缓或下降。 你无疑已经感觉到了这一点。 如果您使用任何类型的社交媒体,那么您对我们的主要机构(例如我们的政府或主要实体)的信任肯定会急剧下降。 事情肯定是这样的。

您并不是唯一一个感受到全社会信任度下降的令人毛骨悚然的人。

一篇文章 大西洋 去年题为“信任的终结”的文章提出了以下关于我们社会前进方向的重要发现:

  • “我们可能正处于信任衰退之中”
  • “信任螺旋,一旦开始,就很难逆转”
  • “未见其衰,先隐见其衰”

信任衰退悄悄降临到我们所有人身上。 一英寸一英寸,信任减弱。 建立信任的努力越来越难实现。 怀疑主义至高无上。 我们怀疑是否应该给予信任。 我们甚至不相信可以特别赚取信任(从某种意义上说,信任是一个幽灵,一个谎言,无法具体化和可靠化)。

问题是,我们需要信任我们的社会。

根据同一篇文章:“信任。 没有它,亚当·斯密那只看不见的手就会留在口袋里; 凯恩斯的“动物精神”是无声的。 诺贝尔经济学奖得主肯尼思·阿罗 (Kenneth Arrow) 在 1972 年写道:“实际上,每笔商业交易本身都包含信任因素”(引自“信任的终结”,《大西洋月刊》,24 年 2021 月 XNUMX 日,杰里·尤西姆)。

研究表明,经济绩效与社会信任因素之间存在近乎直接的联系。 这也许是一个有争议的说法,尽管它在直觉上似乎确实站得住脚。 考虑一下这个值得注意的论点:“经济学家保罗·扎克和斯蒂芬·纳克在 1998 年发表的一项研究中发现,一个国家对‘大多数人都可以信任’的信念每增加 15%,每年的经济增长就会增加整整一个百分点” (同上)。

花点时间反思一下您自己对信任的看法。

今天,您对以下各个领域的信任程度更高还是更低:

  • 信任政府
  • 对企业的信任
  • 信任领导者
  • 对国家的信任
  • 信任品牌
  • 相信新闻媒体
  • 信任个人

如果您真的可以说您对所有这些方面的信任度都比以往更高,那么您将得到一个令人震惊的帽子尖(您生活在一个毫不掩饰的幸福世界中)。 总的来说,我敢说地球上的大多数人会表达相反的看法,因为他们相信那些神圣的标志性元素已经消失。

很明显。

数据似乎支持信任在我们的社会中受到侵蚀的说法。 选择上述任何领域。 就我们对政府能力的信念而言:“根据皮尤研究中心的说法,“对政府的信任从 1964 年的高峰期急剧下降,并且,除了少数例外,此后一直在下降”(同上)。

您可能会争辩说,对个人的信任不应该列在清单上。 当然,我们仍然相互信任。 我们不再信任那些大的坏机构。人与人之间,我们的信任必须与以往一样。

很遗憾地告诉你:“关于美国人之间信任的数据更难获得; 据皮尤研究中心称,调查对所谓的人际信任问题的询问不太一致。 但是,根据一项估计,直到 45 年代中期,认为“大多数人都可以信任”的美国人的比例一直徘徊在 80% 左右; 现在是 30%”(同上)。

残酷,但真实。

最近对信任专家的采访导致了这样的阐述:

· “坏消息是,如果信任是这种宝贵的自然资源,它就会受到威胁。 因此,在 1972 年,大约一半的美国人同意大多数人是可以信任的。 但到 2018 年,这一比例已降至 30% 左右。 我们对机构的信任远不如 50 年前。 例如,在 1970 年,80% 的美国人信任医疗系统。 现在是38%。 1970 年代的电视新闻为 46%。 现在是11%。 国会,42% 对 7%。 我们正在经历一场巨大的信任衰退,这在很多方面伤害了我们,而大多数人可能完全没有意识到这一点”(Jonathan Chang 和 Meghna Chakrabarti 的采访,“基本信任:信任的大脑科学”,WBUR,29 月2022 年 XNUMX 日,并引用了斯坦福大学心理学副教授兼斯坦福社会神经科学实验室主任 Jamil Zaki 的言论)。

各种国家和全球信任研究已经确定了与社会信任水平相关的晴雨表。 即使粗略地浏览一下结果,也会发现信任正在下降、下降、再下降。

典型的其他平均版本 信任衰退 已经“升级”为被标记为 大规模 信任衰退。 我们不只是有普通的信任衰退; 相反,我们有一场全面的大规模信任衰退。 重要时刻。 越来越大。 它渗透到我们存在的方方面面。 这场大规模的信任衰退触及我们所做事情的每个角落以及我们生活的方方面面。

包括人工智能。

我猜你已经看到了。 我之前提到过一场战斗 永远的人工智能 坏的人工智能 正在发生。 AI 伦理和 AI 法律领域的大多数人每天都在处理那些往日争斗的起伏。 我们希望 Responsible AI 获胜。 令许多处于这些激战阵痛中的人感到惊讶的是,他们没有意识到大规模信任衰退造成的影响,从某种意义上说,这种衰退压倒了 AI 信任战场上发生的一切。

潮流是大规模的信任衰退。 人工智能的战斗信任是一艘自行上下的小船,随着退潮而整体遗憾地走下坡路。 随着整个社会受到大规模信任衰退的影响,对人工智能的信任也是如此。

我不希望这看起来是失败主义者。

为赢得对 AI 的信任而进行的斗争必须继续下去。 我想强调的是,随着这些斗争的持续,请记住,作为一个整体的信任正在从社会中流失。 对信任的打击或支持越来越少。 剩下的微不足道的信任将使赢得 永远的人工智能 信任野心。

这该死的浪潮正在摧毁所有船只,包括对人工智能的信任。

花点时间思考一下这三个相当引人注目的问题:

  • 我们能为无处不在的社会做些什么 大规模信任衰退 什么时候涉及到人工智能?
  • 无论 AI 伦理或 AI 法律如何规定,AI 都注定要获得最低限度的信任吗?
  • AI 领域的人应该完全放弃 AI 信任吗?

我很高兴你问了。

在深入探讨该主题之前,我想首先奠定一些关于 AI 的基本基础,尤其是 AI 伦理和 AI 法律,这样做是为了确保讨论在上下文中是合理的。

对道德 AI 和 AI 法的认识不断提高

最近的人工智能时代最初被认为是 永远的人工智能,这意味着我们可以使用人工智能来改善人类。 紧随其后 永远的人工智能 意识到我们也沉浸在 坏的人工智能. 这包括被设计或自我改变为具有歧视性的人工智能,并在计算选择中灌输不正当的偏见。 有时人工智能是这样构建的,而在其他情况下,它会转向那个令人讨厌的领域。

我想非常确定我们在当今人工智能的本质上是一致的。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

我最近还检查了 人工智能权利法案 这是美国政府官方文件“人工智能权利法案蓝图:让自动化系统为美国人民服务”的官方文件,这是科学和技术政策办公室(OSTP)一年努力的结果)。 OSTP 是一个联邦实体,负责就具有国家重要性的各种技术、科学和工程方面向美国总统和美国行政办公室提供建议。 从这个意义上说,你可以说这个 AI 权利法案是由现有的美国白宫批准和认可的文件。

在 AI 权利法案中,有五个关键类别:

  • 安全有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知及说明
  • 人类的选择、考虑和回退

我已经仔细审查了这些戒律,请参阅 这里的链接.

既然我已经为这些相关的 AI 伦理和 AI 法律主题打下了有益的基础,我们准备好进入令人兴奋的话题,探索正在进行的令人厌烦的事情 大规模信任衰退 及其对 AI 信任度的影响。

获得更大的船来建立对人工智能的信任

让我们回顾一下我之前关于这个主题的假设问题:

  • 我们能为无处不在的社会做些什么 大规模信任衰退 什么时候涉及到人工智能?
  • 无论 AI 伦理或 AI 法律如何规定,AI 都注定要获得最低限度的信任吗?
  • AI 领域的人应该完全放弃 AI 信任吗?

我将采取乐观的态度,并认为我们可以为此做点什么。

我还要强烈地说,我们不应该认输。 相反,关键是要更努力、更聪明地处理对人工智能的信任问题。 关于变得更聪明的部分需要意识到我们正处于一场巨大的信任衰退中,并清醒地考虑到这一宏观迫在眉睫的因素。 是的,对于我们在采用和支持 AI 伦理和 AI 法的热切努力中所做的一切,要注意并根据整体信任的下降趋势进行调整。

在我进一步讨论乐观或笑脸的选择之前,我想提供对比的观点是公平的。 好的,给你。 对于大规模的信任衰退,我们无能为力。 正如他们所说,试图向风车倾斜是没有意义的。 因此,继续战斗,无论潮流如何,就这样吧。

在那个悲伤的表情场景中,你可以暗示这是耸耸肩和投降潮流就是潮流。 希望有一天,大规模的信任衰退会减弱,并成为信任衰退的一种正常形式。 然后,如果运气好的话,信任衰退会慢慢过去,信任会恢复。 我们甚至可能最终会产生强烈的信任感。 可以说是信任繁荣。

我会将您的选择分为以下五个选项:

1) 不知情的. 这些是 AI 伦理和 AI 法律领域的倡导者,他们不知道有 大规模信任衰退. 他们甚至不知道他们不知道。

2) 知道但不在乎. 这些是 AI 伦理和 AI 法律的倡导者,他们知道大规模的信任衰退但摆脱了它。 渡过难关,不要做任何新的事情。

3) 知道并应对它. 这些是 AI 伦理和 AI 法律的倡导者,他们知道大规模的信任衰退并选择应对它。 他们调整消息传递; 他们调整了他们的方法。 有时,这包括将信任衰退融入他们的战略和努力中,以进一步增强对 AI 的信任并寻求难以捉摸的 Responsible AI。

4) 知道并无意中使事情变得更糟. 这些是 AI 伦理和 AI 法律的倡导者,他们知道大规模的信任衰退,而且他们选择对此做点什么,但他们最终搬起石头砸自己的脚。 通过对社会趋势做出不当反应,他们错误地恶化了负责任的人工智能,并将对人工智能的信任降到了更低的深度。

5) 其他名称 (待解释,暂时)

你属于这五个选项中的哪一个?

我特意为那些不喜欢其他四个选项的人提供了第五个选项,或者您真的相信还有其他可能性,并且所列的选项都不能充分说明您的立场。

您不必被硬塞进任何选择。 我提供这些选择只是为了对有价值的话题进行深思熟虑的讨论。 我们需要谈论 大规模的信任衰退, 我相信。 由于与社会大规模信任衰退有关,因此在负责任的人工智能和可信赖的人工智能努力的细节方面还没有太多深入的分析。

是时候打开那些闸门了(好吧,这些双关语和文字游戏可能有点过头了)。

如果您想知道第五个选项可能包含什么,这里有一个您可能会感兴趣。

AI 例外.

人工智能领域有一群人认为人工智能是事物正常规则的例外。 这些 AI 例外论的支持者断言,您不能例行地将其他社会恶作剧应用于 AI。 AI 没有受到影响,因为它是一个巨大的例外。

在那种有点教条的观点中,我将潮汐和 AI 信任类比为上下摆动的小船将被抛出窗外作为类似的考虑。 AI 信任大于潮水。 无论在大规模信任衰退中发生什么,AI 信任都会去到它去的地方。 如果潮水上涨,人工智能信任可能会上涨,也可能会下跌。 如果潮水退去,AI 信任度可能会上升,也可能会下降。 不管潮流如何,AI信任都有自己的命运,自己的命运,自己的道路。

我为你准备了另一个花样。

有些人可能会争辩说,人工智能将对 大规模信任衰退.

你看,这个讨论的其余部分已经把事情搞砸了,据说。 这并不是说大规模的信任衰退会影响人工智能信任,相反,情况恰恰相反。 根据我们对 AI 的处理方式,信任衰退可能会加深或恢复。 AI信任将决定潮汐的命运。 我想你可以断言,人工智能作为一种潜在的力量是如此强大,以至于它在决定潮汐的走向方面类似于太阳、月亮和地球。

如果我们弄清楚 AI 信任方面,如果人们信任 AI,也许这将扭转信任衰退。 人们将改变对生活所有其他方面的信任。 他们将开始增加对政府、企业、领导人等的信任,这一切都是因为拥有无处不在且值得信赖的人工智能。

牵强?

也许是,也许不是。

不要让你心情低落,要意识到关于人工智能信任的相反观点也可能出现。 在那个用例中,我们都陷入了对人工智能完全缺乏信任的境地。 我们变得如此不信任,以至于不信任蔓延到我们本已巨大的信任衰退中。 反过来,这使得大规模的信任衰退变成了超级巨大的超级大规模信任衰退,比我们想象的要严重很多倍。

将这个想法与人工智能作为存在风险的广泛概念相吻合。 如果 AI 开始看起来好像极端风险正在实现,即 AI 将接管人类并奴役我们或将我们全部消灭,那么你似乎肯定有充分的理由支持大规模的信任衰退一个相当沉闷的螺旋式下降。

我明白了。

无论如何,让我们希望事情有更快乐的一面,好吗?

结论

现在您知道了 大规模信任衰退,关于人工智能信任,你能做什么?

首先,对于那些沉浸在 AI 伦理和 AI 法律领域的人来说,一定要计算你的 负责任的AI 和特鲁值得信赖的人工智能 通过与信任衰退相关的社会背景进行追求。 如果您自己为提高对 AI 的信任所做的努力似乎受到阻碍或未能完全成功而感到沮丧,您应该小心,因为您的预期会发生。 可能是您的努力至少有所帮助,同时您还不知道,信任的排水管正在以无声且可悲的有害方式抢夺您的英勇活动。 不要绝望。 如果信任衰退没有发生,你可能会看到巨大的进步和非常值得称赞的结果。

其次,我们需要对如何衡量信任衰退以及如何衡量人工智能信任度的起伏进行更多分析。 如果没有可靠和广为接受的指标,我们就会盲目地漂浮在海洋中,我们不知道自己失去或获得了多少英寻。

第三,考虑如何表达对人工智能的信任正在受到大规模信任衰退的影响。 很少有人知道这一点。 AI 业内人士应该对这个话题进行深入思考。 广大公众也应该跟上速度。 有两个信息要传达。 一是存在大规模的信任衰退。 其次,对人工智能的信任受信任衰退变化无常的影响,我们必须明确考虑到这一点。

最后一点,我想您现在应该知道关于鱼缸里的鱼的著名笑话。

这是怎么回事。

两条鱼在鱼缸里来回游动。 一圈又一圈,他们走了。 最后,其中一条鱼转向另一条鱼,说它在水里待累了。 另一条鱼思考着这个评论。 沉思片刻后,有心的鱼好奇地回答,水到底是什么?

这有点老笑话了。

重点应该是你周围的任何东西都可能不容易被认出来。 你习惯了。 它就在那里。 你没有注意到它,因为它无处不在,而且它的存在并不引人注目(顺便提一下,一些愤世嫉俗的人不喜欢这个笑话,因为他们坚持认为真正的鱼确实知道它们确实在水中,并且“认知地”意识到”,包括能够跃出水面进入空中等)。

作为一个方便的鱼故事或寓言,我们可以使用这个方便的花花公子寓言来指出我们可能没有意识到我们正处于一场巨大的信任衰退中。 它就在我们身边,我们本能地感受到它,但我们并没有意识到它就在这里。

是时候摘下眼罩了。

深吸一口气,深吸一口气,因为我们存在巨大的信任衰退。 反过来,对于那些日复一日努力培养负责任的 AI 并赢得对 AI 的信任的人,请睁大眼睛看看信任衰退是如何干预你的勇敢努力的。

正如莎士比亚的名言:“我们必须顺应潮流,否则就会失去我们的事业。”

来源:https://www.forbes.com/sites/lanceeliot/2022/12/04/massively-brewing-trust-recession-aims-to-erode-responsible-ai-says-ai-ethics-and-ai-法律/