负责任的 AI 通过顶级专业协会 ACM 的 AI 道德宣言获得卓越的提升

你看到或听到这个消息了吗?

新颁布了另一套人工智能伦理规范。

请热烈鼓掌。

话又说回来,你可能 不能 之所以注意到这一点,是因为许多其他 AI 伦理法令已经流传了一段时间。 有人说,人工智能伦理宣言看似永无止境的渗透变得有点麻木。 我们需要多少? 任何人都可以跟上他们吗? 哪一个是最好的? 我们是否在 AI 伦理原则上过火了? 等等。

好吧,在这种特殊情况下,我说我们应该特别欢迎这个最新加入俱乐部的人。

稍后我会深刻地解释原因。

首先,作为澄清,我指的是现在正式称为“关于负责任的算法系统原则的声明” 最近由 ACM 技术政策委员会于 26 年 2022 月 XNUMX 日发布。感谢将这份珍贵文件放在一起的专家团队,包括共同主要作者 Jeanna Matthews(克拉克森大学)和 Ricardo Baeza-Yates(Universitat Pompeu Fabra ).

熟悉的人仔细观察后可能会发现这份文件似乎有些眼熟。

好眼睛!

这一最新版本本质上是 ACM 美国技术政策委员会和 ACM 欧洲技术政策委员会于 2017 年颁布的早期联合“算法透明度和责任声明”的更新和扩展变体。我专栏的忠实读者可能还记得我在 AI 伦理和 AI 法律的关键方面的专栏报道中不时提到 2017 年的法令。

有关我对 AI 伦理和 AI 法律的广泛和持续的评估和趋势分析,请参阅 这里的链接这里的链接,仅举几例。

由于几个重要原因,ACM 的最新声明特别重要。

这就是为什么

ACM,这是一个方便的首字母缩写词 计算机协会, 被认为是世界上最大的以计算为中心的协会。 ACM 由大约 110,000 名成员组成,是计算领域的长期先驱。 ACM 在计算领域开展了一些最顶尖的学术研究,同样也提供了专业网络并吸引了计算从业者。 因此,ACM 是一个重要的声音,它普遍代表那些高科技的人,并为推动计算机领域的发展而不懈努力(ACM 成立于 1947 年)。

我也可能会对此添加一些个人注释。 当我在高中第一次接触计算机时,我加入了 ACM 并参加了他们的教育计划,尤其是参加他们一年一度的计算机编程竞赛的激动人心的机会(此类竞赛如今很普遍,通常被标记为 这种形式的比赛). 在大学期间,我通过当地大学分会继续参与 ACM,并通过成为学生分会干事获得了学习领导力的机会。 进入行业后,我加入了一个专业分会,并再次担任领导职务。 此后,当我成为一名教授时,我在 ACM 委员会和编辑委员会任职,同时赞助校园学生分会。 即使在今天,我仍然活跃于 ACM,包括在 ACM 美国技术政策委员会任职。

我喜欢 ACM 对终身学习和职业发展的可爱而持久的愿景。

无论如何,就最新的 AI 伦理声明而言,ACM 发布的这一事实具有一定的分量。 您可能会合理地断言,道德 AI 准则是全球计算机专业人员群体的全部或集体声音。 这说明了一些事情。

还有一个方面是,计算机领域的其他人会受到启发,振作起来并倾听他们的计算机同行声明的内容。 因此,即使对于那些不在 ACM 中或对这个受人尊敬的团体一无所知的人,也有望对发现声明的内容产生浓厚的兴趣。

与此同时,那些 学校以外 计算领域的一些人可能会被该声明所吸引,作为一种幕后内部人士,看看那些进入计算机领域的人对道德人工智能的看法。 我想强调的是,该声明适用于所有人,而不仅仅是计算机社区中的人,因此请记住,AI 道德规范是全面的。

最后,还有一个很少有人会考虑的额外转折。

有时,局外人认为计算协会在技术方面很深入,并没有特别意识到计算机和人工智能的社会影响。 您可能会认为这些专业实体只关心硬件或软件领域的最新和最热门的突破。 公众以简单粗暴的方式将他们视为技术宅。

坦白说,自从我第一次接触计算机以来,我就一直沉浸在计算的社会影响中,同样,ACM 也深入参与了这些主题。

对于任何对 ACM 整理并发布有关 AI 伦理规范的声明感到惊讶的人,他们都没有关注在这些问题上进行的长期研究和工作。 我还敦促那些有兴趣的人应该好好看看 ACM Code of Ethics,一个多年来发展起来的严厉的职业道德准则,强调系统开发人员需要了解、遵守并警惕他们的努力和产品的道德后果。

人工智能一直在煽动对计算伦理的了解。

随着当今 AI 的出现,计算领域中道德和法律考虑因素的可见度已大大提高。 业内人士正在被告知,有时甚至被鼓吹要适当关注 AI 伦理和 AI 法律问题。 立法者越来越意识到人工智能伦理和人工智能法律方面的问题。 公司意识到他们正在设计或使用的人工智能既有优势,但有时也会带来巨大的风险和潜在的负面影响。

让我们解开过去几年发生的事情,以便在我们跳入这套最新的 AI 道德规范之前可以建立适当的背景。

人工智能道德意识的提高

最近的人工智能时代最初被认为是 永远的人工智能,这意味着我们可以使用人工智能来改善人类。 紧随其后 永远的人工智能 意识到我们也沉浸在 坏的人工智能. 这包括被设计或自我改变为具有歧视性的人工智能,并在计算选择中灌输不正当的偏见。 有时人工智能是这样构建的,而在其他情况下,它会转向那个令人讨厌的领域。

我想非常确定我们在当今人工智能的本质上是一致的。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

我最近还检查了 人工智能权利法案 这是美国政府官方文件“人工智能权利法案蓝图:让自动化系统为美国人民服务”的官方文件,这是科学和技术政策办公室(OSTP)一年努力的结果)。 OSTP 是一个联邦实体,负责就具有国家重要性的各种技术、科学和工程方面向美国总统和美国行政办公室提供建议。 从这个意义上说,你可以说这个 AI 权利法案是由现有的美国白宫批准和认可的文件。

在 AI 权利法案中,有五个关键类别:

  • 安全有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知及说明
  • 人类的选择、考虑和回退

我已经仔细审查了这些戒律,请参阅 这里的链接.

既然我已经为这些相关的 AI 伦理和 AI 法律主题打下了有用的基础,我们准备好进入最近发布的 ACM“负责任的算法系统原则声明”(顺便说一句,因为文件标题指的是 提供品牌战略规划 算法系统,你可能想看看我对它意味着什么的评估 值得信赖的AI,请参阅 这里的链接).

准备好踏上这套最新的 AI 伦理原则之旅。

深入挖掘 ACM 宣布的 AI 道德规范

ACM 关于道德人工智能的声明包括以下九个基石:

  • 合法性和能力
  • 减少伤害
  • 安全和隐私
  • 用户评论透明
  • 可解释性和可解释性
  • 可维护性
  • 可竞争性和可审计性
  • 问责和责任
  • 限制环境影响

如果您将这个最新的集合与其他显着可用的集合进行比较,就会发现它们之间有很多相似之处或类似的对应关系。

一方面,您可以将其视为一个好兆头。

我们通常可能希望大量的 AI 伦理原则都围绕着相同的整体覆盖范围进行整合。 看到一组与另一组在某种程度上具有可比性,让您有信心这些组在同一个球场内,而不是在令人费解的左场中。

一些人可能会抱怨这些不同的集合看起来大致相同,这可能会造成混淆或至少是惊恐,因为我们不应该有许多看似重复的列表。 不能只有一个列表吗? 当然,问题是没有简单的方法可以让所有这些列表完全一致。 不同的团体和不同的实体以不同的方式处理这个问题。 好消息是,他们几乎都得出了相同的总体结论。 我们可以松一口气,因为这些集合没有太大的差异,如果没有达成总体共识,这可能会让我们感到不安。

逆势投资者可能会告诫说,这些名单的共性令人不安,认为可能存在集体思维。 也许所有这些不同的群体都以相同的方式思考,无法超越常规。 我们所有人都陷入了一个相同的陷阱。 这些清单表面上是在锚定我们的思想,我们无法超越自己的眼光。

超越我们的鼻子无疑是一项有价值的事业。

我当然乐于听取逆向投资者的意见。 有时他们会听到一些有 泰坦尼克号 朝着一座巨大的冰山前进。 我们可以使用一些鹰眼瞭望台。 但是,在这些 AI 伦理准则的问题上,反对者并没有明确表达任何似乎明显削弱或引起对正在发生的过度共性的担忧。 我认为我们做得很好。

在这个ACM集中,有几个我认为特别值得关注的特别值得注意或突出的点。

首先,我喜欢与规范有些不同的顶级措辞。

例如,参考 合法性和能力 (第一个项目符号)让人联想到与 AI 相关的设计师和管理能力的重要性。 除此之外 合法 标语最终将我们带入人工智能伦理 AI法域。 我这样说是因为许多 AI 伦理规则几乎完全集中在伦理含义上,但似乎也忽略或避开了注意法律后果。 在法律领域,道德考虑常常被吹捧为“软法”,而书本上的法律被解释为“硬法”(意味着它们承担着法庭的重量)。

著名法学家厄尔·沃伦 (Earl Warren) 说过我最喜欢的名言之一:“在文明生活中,法律漂浮在道德的海洋中。”

我们需要确保 AI 伦理规范也包含并强调 AI 法律的起草、颁布和执行中的硬法方面。

其次,我感谢该列表包括 可竞争性和可审计性.

当你受制于 AI 系统时,我已经反复写过能够竞争或举起红旗的价值,请参阅 这里的链接. 此外,我们将越来越多地看到强制对人工智能系统进行审计的新法律,我已经详细讨论了纽约市 (NYC) 关于用于员工招聘和晋升的人工智能系统审计偏见的法律,请参阅 这里的链接. 不幸的是,根据我对纽约市新法律的公开批评,如果这些可审计性法律存在缺陷,它们可能会造成比解决的问题更多的问题。

第三,人们逐渐意识到人工智能可以解决可持续性问题,我很高兴看到 环境的 主题在这些 AI 道德规范中获得了顶级的账单(请参阅列表的最后一个项目符号)。

仅创建人工智能系统这一行为就会消耗大量计算资源。 这些计算资源可以直接或间接地篡夺可持续性。 需要权衡 AI 提供的好处与 AI 带来的成本。 ACM 项目符号的最后一项记录了人工智能带来的可持续性和环境考虑因素。 有关我对 AI 相关碳足迹问题的报道,请参阅 这里的链接.

现在我们已经对 ACM 的 AI 道德规范列表进行了全面的了解,接下来我们将更深入地研究一下。

以下是每个高级 AI 道德规范的官方描述(引自正式声明):

1。 “合法性和能力: 算法系统的设计者应该具有管理能力和明确的授权来构建和部署此类系统。 他们还需要具备应用领域的专业知识、系统预期用途的科学基础,并被受系统影响的利益相关者广泛认为具有社会合法性。 必须进行法律和道德评估,以确认系统引入的任何风险都与正在解决的问题成正比,并且所有相关利益相关者都理解任何利弊权衡。”

2。 “减少伤害: 算法系统的管理人员、设计人员、开发人员、用户和其他利益相关者应了解其设计、实施和使用中可能出现的错误和偏差,以及系统可能对个人和社会造成的潜在危害。 组织应定期对其采用的系统进行影响评估,以确定系统是否会产生伤害,尤其是歧视性伤害,并采取适当的缓解措施。 在可能的情况下,他们应该从实际表现的衡量中学习,而不仅仅是过去可能本身就具有歧视性的决策模式。”

3。 “安全和隐私: 通过在系统生命周期的每个阶段引入安全和隐私最佳实践,包括用于缓解算法系统上下文中出现的新漏洞的强大控制,可以减轻来自恶意方的风险。”

4。 “透明度: 鼓励系统开发人员清楚地记录为开发、培训、验证和测试选择特定数据集、变量和模型的方式,以及用于保证数据和输出质量的具体措施。 系统应该表明它们对每个输出的置信度,当置信度低时人类应该进行干预。 开发人员还应记录用于探索潜在偏差的方法。 对于对生命和福祉有重大影响的系统,应该需要独立的验证和确认程序。 对数据和模型的公众监督为纠正提供了最大的机会。 因此,开发人员应该为公共利益促进第三方测试。”

5。 “可解释性和可解释性: 鼓励算法系统的管理人员提供有关所采用算法遵循的程序(可解释性)和他们做出的具体决策(可解释性)的信息。 可解释性可能与准确性一样重要,尤其是在公共政策背景下或任何担心算法如何在不被承认的情况下使一个群体受益于另一个群体的环境中。 重要的是要区分解释和事后合理化,后者不反映证据或用于得出所解释结论的决策过程。”

6。 “可维护性: 应在其整个生命周期内收集所有算法系统健全性的证据,包括系统要求的文档、变更的设计或实施、测试用例和结果,以及发现和修复的错误日志。 适当的维护可能需要使用新的训练数据对系统进行再训练和/或更换所使用的模型。”

7。 “可竞争性和可审核性: 监管机构应鼓励采用使个人和团体能够质疑结果并寻求补救因算法知情决策而产生的不利影响的机制。 管理人员应确保记录数据、模型、算法和决策,以便在怀疑或指控存在损害的情况下对其进行审计并复制结果。 审计策略应公开,以使个人、公共利益组织和研究人员能够审查并提出改进建议。”

8。 “问责制和责任: 公共和私人机构应对其使用的算法做出的决定负责,即使详细解释这些算法如何产生结果是不可行的。 这些机构应对在其特定环境中部署的整个系统负责,而不仅仅是组成给定系统的各个部分。 当检测到自动化系统中的问题时,负责部署这些系统的组织应该记录他们将采取的具体行动来解决问题,以及在什么情况下应该暂停或终止使用此类技术。”

9。 “限制环境影响: 应设计算法系统以报告对环境影响的估计,包括来自训练和操作计算的碳排放。 人工智能系统的设计应确保其碳排放量在其部署环境所需的准确度范围内是合理的。”

我相信您会仔细阅读每一条重要的 AI 伦理准则。 请把它们放在心上。

结论

ACM 声明中有一个微妙但同样重要的部分,我相信许多人可能会无意中忽略了它。 让我确保提请您注意这一点。

我指的是讨论必须权衡与 AI 伦理准则相关的权衡这一令人痛苦的难题的部分。 你看,大多数人在阅读道德 AI 原则时经常会不经意地点头,并假设所有规则的重要性都是相同的,并且所有规则都将始终被赋予相同的尊重和价值的最佳表象。

不在现实世界中。

在遇到困难时,任何一种人工智能,即使有一点点复杂性,都会对人工智能伦理准则进行激烈的测试,以确定其中一些要素是否比其他一些原则更容易实现。 我知道你可能会大声惊叹所有人工智能都必须最大限度地遵守所有人工智能伦理准则,但这并不是特别现实。 如果那是你想要采取的立场,我敢说你可能需要告诉大多数或几乎所有人工智能制造商和用户关门大吉,完全放弃人工智能。

需要做出妥协才能让 AI 走出大门。 话虽这么说,我并不是提倡偷工减料违反 AI 道德规范,也不是暗示它们应该违反 AI 法律。 必须满足一个特定的最低要求,并且目标是努力达到更高的要求。 最后,需要仔细判断一个平衡点。 这种平衡行为必须谨慎、明确、合法地进行,并且将 AI 伦理作为一种真诚和真诚的信念(您可能想看看公司如何利用 AI 伦理委员会来尝试并获得这种庄严的方法,请参阅 这里的链接).

以下是 ACM 声明中提到的关于权衡复杂性的一些要点(引用自正式文件):

  • “解决方案应与要解决的问题相称,即使这会影响复杂性或成本(例如,拒绝将公共视频监控用于简单的预测任务)。”
  • “应该考虑各种各样的性能指标,并且可以根据应用程序领域进行不同的加权。 例如,在某些医疗保健应用中,假阴性的影响可能比假阳性严重得多,而在刑事司法中,假阳性的后果(例如,监禁无辜者)可能比假阴性严重得多。 最理想的操作系统设置很少是最准确的系统设置。”
  • “对隐私、保护商业秘密或泄露可能允许恶意行为者玩弄系统的分析的担忧可以证明限制对合格个人的访问是合理的,但它们不应该被用来证明限制第三方审查或免除开发人员的义务承认并修复错误。”
  • “透明度必须与问责制相结合,使受算法系统影响的利益相关者能够为所造成的伤害寻求有意义的补救。 透明度不应被用来使系统合法化或将责任转移给其他方。”
  • “当一个系统的影响很大时,一个更易于解释的系统可能更可取。 在许多情况下,可解释性和准确性之间没有权衡。 然而,在某些情况下,不正确的解释可能比没有解释更糟糕(例如,在卫生系统中,一种症状可能对应于多种可能的疾病,而不仅仅是一种)。”

那些正在开发或使用人工智能的人可能不会公开意识到他们所面临的权衡。 公司的高层领导可能会天真地认为人工智能符合所有人工智能伦理原则的最高要求。 他们要么相信这一点,因为他们对人工智能一无所知,要么他们想相信这一点,并且可能正在眨眼以便轻松采用人工智能。

很有可能未能实质性地和公开地面对权衡取舍最终会产生一个会产生伤害的人工智能。 这些危害反过来可能会使公司承担潜在的大规模负债。 最重要的是,传统法律可以承担与人工智能相关的可能犯罪行为,以及针对这一点的新的以人工智能为重点的法律。 那些认为他们可以绕过权衡取舍或者根本没有意识到权衡存在的人头顶上有一大堆砖头等待着他们(他们不可避免地会崩溃)。

现在,我将对 ACM 声明的结论部分给出关于这个主题的最后一句话,因为我认为它在解释这些道德 AI 准则在宏观上旨在带来什么方面做得很好:

  • “上述建议侧重于负责任地设计、开发和使用算法系统; 责任必须由法律和公共政策确定。 算法系统的日益强大及其在生命关键和后果性应用中的使用意味着在使用它们时必须非常小心。 这九项工具性原则旨在激发讨论、启动研究和开发治理方法,为广大用户带来利益,同时提升可靠性、安全性和责任感。 最后,是特定的上下文定义了与所有受影响的利益相关者的代表合作的算法系统的正确设计和使用”(引自正式文件)。

正如至理名言告诉我们的那样,千里之行始于足下。

我恳请您熟悉 AI 伦理和 AI 法律,采取任何第一步都会让您开始,然后帮助推进这些重要的努力。 美妙之处在于,我们仍处于收集如何管理和社会应对 AI 的初级阶段,因此,你正在进入底层,你的努力可以明显地塑造你的未来和我们所有人的未来。

人工智能之旅才刚刚开始,重要的第一步仍在进行中。

来源:https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing-专业协会-the-acm/