AI 美德是负责任的 AI 缺失的基石成分表明 AI 伦理和 AI 法

你有德行吗?

在你回答这个问题之前,让我们先解开美德的含义,然后你就可以齐心协力阐明你的美德。

此外,您可能会惊讶地发现,美德是人工智能 (AI) 领域的一个新兴话题,尤其是在 AI 伦理和 AI 法律领域。 我将首先介绍一些关于美德的基础知识,然后跳入关于美德的最新思考 人工智能美德. 是的,简而言之,AI 美德作为道德 AI 和最终 AI 法的各种先驱而四处流传。 有关我对 AI 伦理和 AI 法律的持续和广泛的全面报道,请参阅 这里的链接这里的链接,仅举几例。

首先,思考一下提到美德和美德是什么意思。

有人会说美德是表现出杰出道德的品质或特征。 有德行的人遵守最高的伦理或道德标准。 拉丁词 维特斯 据称被罗马人用来强调道德正直,特别是勇敢或英勇的行为。 这些都是与美德相关的相当高尚的概念和重要内涵。

纵观历史,关于什么构成了美德的核心或基石,人们争论不休。 是否有三块基石、五块基石、十块基石,或者到底有多少块?

例如,所谓的 枢机主教 美德据说是这四个戒律:

1) 谨慎

2) 毅力

3) 节制

4)正义(公平)

也许你应该在这四个基石的基础上通过认真的自我反省来审视自己的美德。 你表现出一流的审慎性吗? 你展示出一流的毅力吗? 你展示一流的节制吗? 您是否在努力中展示了一流的公平(正义)?

请注意,我一直在说你必须“展示”这些基本措施。 将这些想法牢记在心是一回事,将它们运用到现实世界的行动和行为中可能是完全不同的事情。 仅仅在你的头脑中保持美德的可能性并不是我们在这里要考虑的。 你必须把你的想法变成现实。

说到做到,而且你需要真正做到言出必行。

另一个方面是您可能需要遵守 所有 一套经过深思熟虑的基石,才能真正有德行。 如果你在审慎方面是一流的,但在刚毅、节制和正义的其他三方面却不及格甚至邋遢,你似乎无法劝说你实际上是有德的。 你只是部分如此。 我们要坚持,唯有遵守一切戒律,才能高傲地高举德行的旗帜。 因此,仅满足这四戒中的一、二或三戒是不够的。 您可能会获得所有四个。

我要提高赌注,所以你最好坐下来等待下一个转折点。

研究人员检查了在文艺复兴时期和其他历史时期似乎有些突出的美德清单,很容易声称当时有七种美德:

1) 谦卑

2) 善良

3) 节制

4) 贞洁

5)耐心

6) 慈善

7) 勤奋

如果幸运七确实如此,并且如果您打算将其用作美德的既定标准,我很遗憾地通知您,之前列出的四种必需美德已扩展为七种。 这意味着,虽然之前您只有四个要遵守,但现在您有多达七个要应对。

再一次,开始对这七个基石进行自我反省。

我敢说酒吧似乎在不断上升。 也许你一开始认为你当然是有德行的,但现在随着这七大基石的障碍不断出现,要大胆地宣扬你的美德能力可能会困难得多。

keystone 的数量可能会很高。

本杰明·富兰克林 (Benjamin Franklin) 著名地指出,他认为有十三个道德基石,包括(如他的自传所述):

1) 节制

2) 沉默

3) 订单

4) 分辨率

5)节俭

6) 工业

7) 诚意

8) 正义

9) 适度

10) 清洁度

11) 宁静

12) 贞洁

13) 谦卑

哎呀,这是一个令人生畏的清单。

还要记住,我们正在制定一个挑战,断言你必须是所有这些基石,并且不能在其中任何一个方面都不理想。 这是一个全有或全无的命题。 我们可能会承认你可能是 部分 通过遵守十三条中的一些而不是全部来保持道德。 如果您有时在所有这些方面都完全有德性,但在其他时刻您没有达到这种完整性,我们也可能愿意承认您是部分美德的。

不过,金星只会授予那些始终获得所有基石的人。

我们当中有多少人能够满足这个严格的定义?

我猜想,如果您举手表示已达到这种证悟水平,我们必须向您致以诚挚的祝贺。 只是想让你知道,怀疑论者和愤世嫉俗者一定会质疑你的主张的诚意。 如此建议。

现在我们已经把美德摆在桌面上了,你可能想知道美德与道德有何关系。

我很高兴你问了。

一个坚定的信念是 美德是激发道德的东西.

在这个经过深思熟虑的框架中,您的美德将引发道德努力。 因此,当有人喋喋不休地列出他们的道德原则或规则时,如果这些原则或规则也植根于美德,那么这些原则或规则只会被评为真诚的善意。 你的美德驱使你表现出道德。

我想一个方便的类比可能会有所帮助。

我们种下一些种子来种花。 土壤对于这些花朵的生长至关重要。 我们可能愿意说土壤是美德的集合,而种子和花朵是从基岩流出的伦理。 没有合适的床上用品,其他任何东西都不可能获得牵引力。 你可以整天喋喋不休地谈论种这些花,但如果土壤不好或不利于手头的事情,你就需要预料到开花不良或其他相关疾病会接踵而至。

欢迎您对粗略的类比提出异议。 只是想了解关于这种美德与道德难题的总体看法。 请注意,有些人会说美德和道德是一回事。 其他人会说他们是不同的。 说不同的人中,有认为德为本、德为表的阵营(同时也有持不同观点的阵营)。

为了清楚地表明这一点,并不是每个人都同意看待这些问题的基岩和露头方式。 尽管如此,我们将在此特定讨论的基础上继续进行。 你当然可以对这样一个推定的推定进行详细的辩论,但至少要认识到这是一个假设,只是为了富有成效的讨论而进行的。

作为速记,让我们将其作为 美德伦理 概念。

稍微换档,仔细考虑一下当今流行的道德表述和武断的趋势。

这些天发生了很多关于道德的辩论,并公开询问我们要遵守哪些道德规则或原则。 人们的行为方式就是如此。 此外,正如您稍后会看到的,AI 也应该遵守拟议的道德规则或原则。

关于道德规则和道德原则的反思可能是我们专注于错误的事情。 美德伦理阵营的人会争辩说,与其陷入无穷无尽的道德规则清单之类的泥潭,不如专注于美德更为明智。 先理清德性,自然而然地产生伦理规则。

回到我的类比,我们可以整天就我们想要种的花进行激烈的讨论,但是如果我们不首先检查并确保我们有合适的土壤,那么任何种花的野心都不会实现有很多实际用途。 想象一下,您已经决定要种一束看起来很吸引人的花,但事实证明,在播下这些种子后,它们永远不会开花结果,因为土壤没有先进行改良。

你甚至可能会说,关于要遵守哪些道德规则的持续喧嚣已经成为一种不适当的困扰。 它越来越热,越来越卷入其中。 反过来,我们离必须首先关注美德的内在真理越来越远。

在一篇有见地的论文中,题为 道德与美德 由研究人员 Manuel Velasquez、Claire Andre、Thomas Shanks、SJ 和 Michael J. Meyer 发表的值得注意的评论表明,我们或许能够扭转这种顽固:“幸运的是,这种对原则和规则的痴迷最近受到了挑战几位伦理学家认为,对原则的强调忽略了伦理学的一个基本组成部分—— 美德. 这些伦理学家指出,通过关注人们应该做什么或人们应该如何行动,“道德原则方法”忽略了更重要的问题——人应该是什么。 换句话说,伦理学的根本问题不是“我应该做什么?” 但“我应该成为什么样的人?” 根据‘美德伦理学’,有一些理想,例如卓越或对共同利益的奉献,是我们应该努力实现的,并且可以让我们的人性得到充分发展”(发表于圣克拉拉大学马库拉应用伦理学中心).

你可能隐约意识到人工智能领域有大量关于人工智能伦理原则和规则的提案。 你可以很容易地找到所有方式和一些明显的道德人工智能规则。 他们是名副其实的一毛钱一打,有人可能会说。

令人震惊的是,如果你愿意的话,包括最近冒泡的争论,也许,只是也许,我们应该对 AI 美德给予应有的关注。 停止对 AI 伦理规则和原则的疯狂和愤怒的指责,而是将您的愿景投向 AI 美德。 如果我们能弄清楚人工智能的优点,剩下的就很容易了(好吧,有点,或者至少更明智地进行)。

在进入 AI 美德主题之前,我想首先奠定一些关于 AI 的基本基础,尤其是 AI 伦理和 AI 法律,这样做是为了确保讨论在上下文中是合理的。

对道德 AI 和 AI 法的认识不断提高

最近的人工智能时代最初被认为是 永远的人工智能,这意味着我们可以使用人工智能来改善人类。 紧随其后 永远的人工智能 意识到我们也沉浸在 坏的人工智能. 这包括被设计或自我改变为具有歧视性的人工智能,并在计算选择中灌输不正当的偏见。 有时人工智能是这样构建的,而在其他情况下,它会转向那个令人讨厌的领域。

我想非常确定我们在当今人工智能的本质上是一致的。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

我最近还检查了 人工智能权利法案 这是美国政府官方文件“人工智能权利法案蓝图:让自动化系统为美国人民服务”的官方文件,这是科学和技术政策办公室(OSTP)一年努力的结果)。 OSTP 是一个联邦实体,负责就具有国家重要性的各种技术、科学和工程方面向美国总统和美国行政办公室提供建议。 从这个意义上说,你可以说这个 AI 权利法案是由现有的美国白宫批准和认可的文件。

在 AI 权利法案中,有五个关键类别:

  • 安全有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知及说明
  • 人类的选择、考虑和回退

我已经仔细审查了这些戒律,请参阅 这里的链接.

既然我已经为这些相关的 AI 伦理和 AI 法律主题奠定了有益的基础,我们就可以进入令人兴奋的 AI 美德主题了。

人工智能美德得到调整以帮助道德人工智能

当我提到 AI 美德时,请意识到我是 不能 谈论有感觉的人工智能。

如果(或者有些人会争辩 什么时候) 我们到达有感知力的人工智能,有感知力的人工智能可能有也可能没有一套美德。 我们可以争论直到奶牛回家关于有知觉的人工智能是否会包括它自己的美德表象。 一些权威人士会坚持认为,美德是人类独有的元素,而有知觉的 AI 将完全且毫无疑问地不存在美德。

其他权威人士则宣称完全相反,即有知觉的人工智能当然会有优点。 在后一种情况下,我们应该担心如何确保有感知力的 AI 具有正确的优点。 或许我们可以将我们的美德输入到具有感知力的 AI 中。 如果那行不通,我们希望有感知能力的 AI 足够聪明,能够意识到美德的重要性,并根据自己的意愿预测美德。

旋转木马转了一圈又一圈。

对于今天的观点,我想把我们的目光放在当代的非感知人工智能上。

在一篇题为“A Virtue‑Based Framework To Support Putting AI Ethics Into Practice”的挑衅性研究论文中,作者 Thilo Hagendorff 建议我们利用 美德伦理 因此可能会得出这样的信念,即有四种基本的 AI 美德:

1) 正义

2) 诚实

3)责任

4) 关怀

该论文指出,“许多道德倡议已经为人工智能领域的良好技术发展制定了一套原则和标准。 然而,一些人工智能伦理研究人员指出,这些原则缺乏实际实现。 之后,人工智能伦理经历了一个实践性的转变,但没有偏离原则性的方法。 本文提出了一种对基于美德伦理学的原则性方法的补充。 它定义了四种“基本的 AI 美德”,即正义、诚实、责任和关怀,所有这些都代表了特定的激励设置,这些设置构成了 AI 领域道德决策的前提条件”(在 理念与技术,2022年XNUMX月)。

人工智能的四大美德是如何衍生出来的?

根据研究人员的说法,检查大量的 AI 道德规范是可行的,并且几乎可以追溯到潜在的关键 AI 美德必然是什么。 你所需要做的只是一点点用心的分析,你就可以把泥潭变成美好而整洁的东西。 如前所述:“在筛选所有这些原则时,可以通过使用简化方法并将它们分组,提炼出涵盖所有这些原则的四种基本美德”(同上)。

包括各种图表和数字,这表明我们可以将四种 AI 美德解释为在涉及 AI 伦理原则或规则时由这些实施例组成:

  • 人工智能的正义美德:人工智能伦理准则包括算法公平、非歧视、减轻偏见、包容、平等、多样性等。
  • AI 诚信美德:AI 伦理戒律包括透明度、公开性、可解释性、解释性、技术披露、开源、承认错误和失误等。
  • AI Virtue of Responsibility:AI 道德准则包括责任、义务、责任、可复制性、合法性、准确性、考虑长期技术后果等。
  • AI 关爱美德:AI 道德规范包括非恶意、伤害、安全、隐私、保护、预防、隐性成本、慈善、福祉、可持续性、和平、共同利益、团结、社会凝聚力、自由、自治、自由、同意等

让自己陷入不得不做这种逆向工程的境地,这就是研究论文建议的应该在心理上执行的:“美德 A 是否描述了性格倾向,当被 AI 从业者内化时,会内在地激励他们采取行动一种“自动”确保或更有可能使他们的行动结果以及其他结果产生满足 X 原则规定要求的技术制品的方法? 或者,简而言之,美德 A 是否转化为可能导致符合原则 X 要求的结果的行为?” (同上)。

可以肯定地说,我们可能不会得出相同的结论。

似乎有足够的空间来争论一个特定的 AI 道德准则属于某个特定的 AI 美德,或者合理地置于其他一些美德中,或者可能属于多个,等等。这可以很容易地来回移动,这样做以文明和彬彬有礼的语气(无需转变为愤怒的两极分化焦虑)。

您可以通过提出超出上述四个方面的其他 AI 美德并合理地声称还有更多 AI 美德可以拥有,从而更深入地了解这种切片和切割。 有人假设你也可以尝试减少计数,只说三到两个 AI 美德,尽管这可能会让你陷入相当不稳定的哲学和半不切实际的基础。

在开始过度分析 AI 的四种美德之前,您应该知道研究论文表明还有另外两种美德 二阶 混合的人工智能美德。 两个新增的二阶 AI 美德是:

这些似乎包括:

  • AI 审慎美德:AI 伦理准则涉及系统 1 思维、隐性偏见、群体内偏爱、自利偏见、价值行动差距、道德脱离等。
  • AI 坚韧美德:AI 道德准则涉及情境力量、同伴影响、权威等。

这两种二阶 AI 美德的基本原理或基础部分基于以下概念:“虽然这两种美德可能有助于克服有限的道德,但它们同时也是实现基本美德的推动者。 个人的心理偏见以及情境力量可能会妨碍公正、诚实、负责任或关怀行事。 审慎和坚韧是对许多可能限制人工智能基本优点的力量的回答,其中审慎主要针对个体因素,而坚韧则解决可能损害人工智能研究和开发中道德决策的超个体问题”(同上)。

总而言之,如果我可以尝试重述拟议的 AI 美德集,它们是:

  • 司法
  • 诚信
  • 社会责任
  • 关怀圈
  • 慎重 (二阶)
  • 坚忍不拔 (二阶)

这通常倾向于与 AI 伦理规则或原则相结合:

  • AI正义美德:人工智能伦理准则包括算法公平、非歧视、偏见缓解、包容、平等、多样性等。
  • AI 诚信美德: AI Ethics戒律包括透明度、公开性、可解释性、可解释性、技术披露、开源、承认错误和失误等。
  • AI 责任美德:人工智能伦理规范包括责任、义务、责任、可复制性、合法性、准确性、考虑长期技术后果等。
  • AI 关爱美德:人工智能伦理准则包括非恶意、伤害、安全、隐私、保护、预防、隐性成本、慈善、福祉、可持续性、和平、共同利益、团结、社会凝聚力、自由、自治、自由、同意等。
  • AI 审慎美德 (二阶):人工智能伦理准则涉及系统 1 思维、隐性偏见、群体内偏爱、自利偏见、价值行动差距、道德脱离等。
  • AI 毅力美德 (二阶):人工智能伦理规范涉及情境力量、同伴影响、权威等。

关于所有这些的激烈辩论很容易被激发为行动。

我敢肯定,你们中的一些人现在已经对所提供的一种或另一种 AI 美德感到愤怒。 这不是美德,有些人可能会大喊大叫。 措辞不当,你们中的一些人可能会大声疾呼。 可能会出现一场激烈的争吵。

在研究探索的各种预期的批评和疑虑中,在我看来特别值得注意的一个与所涉及的经典的以代理人为中心与以行为为中心的问题有关。 以代理人为中心的观点基本上是我们希望代理人或演员有一定的思想,而以行为为中心的观点倾向于关注所采取的行动。

也许,有人会说,AI 美德更多地关注代理或以代理为中心的方面,而 AI 伦理更多地关注以行为为中心的成分。 我们希望 AI 开发人员和 AI 系统植根于 AI 美德作为一种“心态”(在 AI 的情况下是编程),并且 AI 开发人员的行为和 AI 的行为通过道德 AI 戒律来表示.

还有一种危险是,有些人会歪曲这一点,就好像使用 AI 美德意味着 AI 永远不会做错一样。 或者我们可能会陷入设计 AI 美德的泥潭,同时忽视 AI 伦理原则或规则。 可以想出很多动机来削弱 AI 美德作为一个框架,这个框架要么没有太大好处,要么更糟,因此分散注意力并混淆了一个流离失所的评论员可能会大声疾呼真正需要做的工作。

结论

我们需要人工智能美德吗?

如果是这样,它们是否会被那些已经沉浸在 AI 伦理中的人所使用和热情地接受,或者 AI 美德是否会被视为重复的、虚假的诱饵、令人讨厌的分心,或者以其他方式被描绘成一些诱人但不合适的分裂已经让道德人工智能进入设计和使用人工智能的公司的思想和手中的努力不堪重负。

许多 AI 伦理倡导者在让商业领袖倾听和让 AI 采纳者认真考虑 AI 伦理戒律方面已经负担过重(关于我对 AI 伦理委员会的报道,请参阅 这里的链接,对于那些打着 Ethical AI 旗帜的工人倦怠分析,请参阅 这里的链接). 你可以想象,对 AI 美德的普遍反应是盘子里已经充满了 AI 伦理规则,因此,在我们冒险进入 AI 美德的平流层之前,让我们把它们全部消耗掉。

一种反驳是我们无意中跳过或忽略了基础知识。 AI美德早该布局了。 虽然我们无法让时光倒流,但我们可以努力弥补失去的时光。 同样强大的人工智能伦理机械化当然可以吸收迟来的人工智能美德。

去吧,别抱怨了。

弗里德里希·尼采说:“我们不会特别重视拥有一种美德,直到我们注意到我们的对手完全没有这种美德。” 然后你可能会同意 坏的人工智能 不仅激发了我们对 AI 伦理的需求的认识,而且同样(或应该)激发了我们对 AI 美德的兴趣和可能的接受度。

对此,罗马政治家马库斯·图利乌斯·西塞罗 (Marcus Tullius Cicero) 最后说了一句,据说他为此惊呼:“敌人在城门之内; 我们必须与自己的奢侈、自己的愚蠢、自己的罪行作斗争。” 你看,罪恶已经在人工智能的大门之内,我们可能需要提高对美德的关注,以抵消不断上升的邪恶浪潮。

AI 美德耐心而坚定地守候在门口。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/11/15/ai-virtues-as-missing-bedrock-ingredient-for-responsible-ai-says-ai-ethics-and-ai-法律/