加密货币和人工智能:律师角色的未来

其中之一是人类可能会找到与我们今天所习惯的不同的角色和位置。

因此,如果为了论证的缘故,要制造一台机器,它可以对法律问题给出一个不可避免的准确答案,从而对争议的可能结果提供一个几乎不可避免的回答,理论上律师的角色可能会转变为解决问题的答案以外的领域。 也许,知道如何向机器提出正确的问题,然后机器会提供答案。 因此,他会担心是否为机器提供了所有最合适的元素和参数以生成预期的答案。

或者他可能会进入“训练”法律机器的那个领域,然后提供或确保将进行评估所需的所有法律数据和信息提供给机器。

由于这个机器,根据这个假设,将能够提供不可避免的精确性来做出我们认为是“公平”的判决,法官的角色也许可以变成确保当事人在提供机器具有作出判决的必要要素,并且机器输入和适用的判断标准符合公平性、合理性、相称性、非歧视性等。

顺便说一句,所有这一切似乎都符合著名的五项原则 CEPEJ – 欧洲司法效率委员会(即欧洲委员会司法效率委员会,代表 47 个国家的 CoE 机构,其目的是测试和监督欧洲司法系统的效率和运作)在道德规范中在司法系统中使用人工智能宪章: (i) 尊重基本权利的原则; (ii) 非歧视原则 (iii) 质量和安全原则; (iv) 透明、公正、公平原则 (v) 用户控制原则。

现在,即使接受人工智能在法律领域大量使用的未来人类的角色可能仅转移到监督领域的想法,也有其他的考虑因素。 主要是因为当我们想象一个由这些看似中立和万无一失的工具管理的司法系统时,我们对自己来说代表了一个仅仅执行法律和规则的机构。 仅仅是戒律的执行者。

然而,这种正义的表现在实际现实中并不存在,因为,在违反任何原则和权力分立原则的情况下,做出判决的人实际上在某种程度上确实有助于产生法律并改变其结构。 也就是说,司法职能常常具体地在规则的创建和巩固中发挥作用。

当然,这种程度因立法和宪法制度而异。 在英美法系国家,这种情况肯定更大,因为在这些国家,法律是通过先例设定的决定形成的。

然而,在意大利、法国、德国等成文法国家也是如此。在这些制度中,事实上,通过司法判决给出的解释有时会强制甚至弯曲正式法律,并在发现漏洞时予以补充,当存在使其与更高级别的原则不一致的情况时,就会忽视它并将其置于虚无之中。

也就是说,司法职能,无论是直接还是间接,往往最终会侵犯监管职能领域,而且这种情况可能发生在不同层面。

注意:这并不排除这样一种可能性,即抽象地讲,被要求制定法规的机器甚至无法比人类做得更好。 如果只是因为历史上充满了糟糕的人类监管者这一事实。 举一个极端的例子,想想大屠杀和种族清洗的惨痛经历:这些恐怖是基于宏观非人道原则的立法体系在法律上支持的,但却是人类自己创造和强加的。

规范生产与人工智能的相遇

另一个关键点是:我们真的确定要让机器进入规范生产过程吗? 到什么程度? 我们必须牢记,这种进入也可以通过管辖职能半开的大门以“爬行”的方式进行。

由于人强加的道德和形式上的障碍(例如,机器人法则、阿西莫夫法则,或者实际上是在欧洲背景下阐述的关于在司法系统中使用 AI 的原则)都可以令人欣慰。

在这种情况下,这些规则直接由人指示给机器,并在广义上响应人类自身存在使命的满足。 也就是说,它们在某种程度上都对人类的发展和保存具有保守性和功能性。

正是在这里,有点哲学上的困境被触发了,如果你愿意的话:如果我们曾经允许一个非人类实体完全进入规范形成的过程,因为它恰恰作为一个实体被内在地赋予了它自己的存在使命,什么能阻止它编写不响应人类存在使命的规则?

举一个极端的例子,如果我们要在全球范围内提出人口过剩和食物和能源资源短缺的问题,作为人类,受制于某些病态的意识形态漂移,在道德层面上我们会拒绝作为解决问题的手段假设大规模灭绝或谋杀人类的解决方案。

同样的问题,从一个可能不承认相同道德原则的非人类实体的角度来看,可能会导致大规模灭绝的解决方案,也许是基于旨在消除最弱主体的选择性标准(那些人类伦理的规定应作为优先事项予以保留)作为严格而冷酷的逻辑层面上最合理的解决方案。

马西莫·基里亚蒂, 在领先的专家中 人工智能 在意大利,他在他的许多著作中阐明了他对人工智能的局限性以及人类在使用这些技术时必须以铁定的方式保持监督作用的观点,他在他的“人工无意识”中写道:

“有一个非常重要的点需要考虑:每个 AI 预测都是定量评估,而不是定性评估,而对我们人类来说,选择几乎从来不是简单的计算。 我们根据无法衡量且因此无法计算的价值做出决定。 我们是机器的老师。 当他们吸收我们创建的数据、构建模型并给我们答案时,我们就隐含地如此。 

当我们给他们关于如何做工作的指示时,我们明确地如此。 出于这些原因,我们必须关注他们的学习方式,因为这样做他们就会进化。”

除了刚刚给出的极端例子之外,虽然反对技术发展是徒劳和虚幻的,但必须以最大的意识来治理这种过程。

今天,我们正在讨论人工智能对法律职业的影响,在这些情况和价值观方面,与智力成熟度、创造力以及我们喜欢追溯到人类无形本质的所有组成部分相关的极端微妙和特殊性。

然而,同样的问题势必会对数百种工作产生大规模影响,机器将在很短的时间内以无限低的成本完成与人类一样好甚至更好的工作。

我们应该感到受到加密货币和人工智能 (AI) 的威胁吗?

随着工作世界和经济的社会和政治观点将发生革命性变化,这个问题的巨大比例应该促使我们反思将影响现实世界和我们阅读现实的能力的后果。

如果问一些关于法律职业世界的问题是合法的,那么有必要考虑到在工作世界的大部分地方都必须问类似的问题。

对我们来说,最直接的问题是,“人类、法官和律师会发生什么,他们今天扮演明天可能由机器扮演的角色和功能? 他们将如何谋生?”

但在集体利益的层面上,还有更多:“谁来缴纳社保费,谁来为社区提供所有被机器取代的人类工人的收入所产生的税收?” 再一次,“所有那些为这些运营商的活动绩效做出贡献的人物(助手、合作者、从业者等)会发生什么?当他们的贡献和税收也损失时会发生什么?”

好吧,这些问题也会出现在所有其他工作类别中,这些工作类别可能会在比可能影响法律工作者的时间更短的时间内受到机器人和数字革命的打击。

出现的情景可能会使当今已知的社会学、经济学、人类学和政治学观点过时:社会主义、自由主义、自由意志主义、主权主义等将失去其概念基础。

许多,如果不是全部,将不得不从头开始重新考虑。

但回到法律领域的 AI 话题,我个人认为律师的角色(职业不仅是规范的解释者,也是事实的解释者,在某种程度上是人类的解释者)将无法仅限于迁移到法律服务生产周期的不同区域。

我的想法是,律师,以及更广泛的法律从业者,可以被赋予更高的角色:也就是说,确保技术发展治理中的意识始终与人类的真正福利目标相称,并得到适当的引导,必要时,也要自觉合理地加以遏制。

中国有句名言,“风起云涌,有人设壁垒,有人造风车”。

现在,虽然我喜欢认为我可以算作那些“当变革之风吹来时”热情地投身于建造风车的人,但我不想达到风车不再需要人类存在的地步,因为它们的存在致力于其他风车的需要。

如果真到了那个地步,人类还需要这样的风车吗?

现在,根据定义,律师是被称为 (ad vocatum) 为一项事业辩护和辩护的人。 这是他的事业:他将必须确保人类牢牢掌握规则,并确保机器继续扮演它们被创造出来的角色:为人类服务。

而在必要的时候,他将不得不站出来战斗,所以这就是它的样子,并且会一直这样。

为人类的利益而战。 就像著名的日本动画片中的 Mazinga Zeta,对于那些记得它的人来说。

听起来不错,但是 Mazinga Zeta 不也是一个机器人吗?

 

来源:https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/