当纽约市要求对人工智能偏见进行审计的法律开始生效时,人工智能伦理和迫在眉睫的崩溃

有时,由于严重缺乏对细节的关注,最好的意图会令人遗憾地破灭。

这种圣人智慧的一个典型例子是值得探索的。

具体来说,让我们仔细看看纽约市一项关于人工智能 (AI) 的新法律,该法律将于 1 年 2023 月 XNUMX 日生效。您可以轻松赢得一个相当大的赌注,即会出现各种混乱、惊愕和麻烦一旦法律生效。 尽管这些麻烦不是设计使然,但它们无疑会由于设计不佳或至少对必要细节的规定不充分而发生,这些细节应该而且可以很容易地设计和明确说明。

我指的是去年 11 年 2021 月 2023 日在备受尊敬的纽约市通过的一项当地法律,该法律计划于 XNUMX 年初开始实施。我们目前距离大觉醒只有几个月的时间这项新法律将会引起轰动。 我希望我可以说,这项雄心勃勃的法律将无缝地完成它应该做的事情,即处理在制定就业决策领域潜在的人工智能偏见。 唉,虽然这个意图值得称赞,但我将带您了解这些漏洞、遗漏和缺乏特异性,这些漏洞、遗漏和缺乏特异性将削弱这项法律,并使雇主在试图应对其意外但相当不利的影响时发疯。

你可能会说,这是一个半生不熟的计划推进的经典问题。 德怀特·艾森豪威尔(Dwight Eisenhower)的一句受人尊敬的格言是,计划什么都不是,而计划就是一切。 简而言之,这项特殊的法律将提供一个生动的例子,说明立法者有时会因未能深思熟虑而达不到要求 事先 必要的细节,以使法律达到其值得称道的目标,并能以绝对合理和审慎的方式被采纳。

一场灾难正在等待。

借口已经在排队了。

一些权威人士说,您永远无法完全指定一项法律,并且必须看到它在行动中才能知道需要调整法律的哪些方面(在这种情况下,这是一个被扭曲得不成比例的普遍真理)。 此外,他们激烈地争辩说,当涉及到人工智能相关法律的新出现时,情况尤其如此。 哎呀,他们告诫说,人工智能是我们作为立法者不太了解的高科技魔法,因此,逻辑上认为将某些东西放入法律页面总比什么都没有好。

从表面上看,这听起来确实很有说服力。 但是,深入挖掘,您会意识到这可能是胡说八道,尤其是在此特定法律的情况下。 这项法律可以很容易地被更巧妙、更明智地规定。 我们不需要魔法药水。 我们不需要等到混乱出现。 在制定法律时,可能已经确定了正确的措辞和细节。

让我们也确保无法事先预测采用方面的不合时宜的、浮动的想法是非常荒谬的。 这是最空洞的一种合法的胡言乱语。 关于处理 AI 偏见和进行 AI 审计有很多已知的考虑因素,这些考虑因素很容易被纳入该法律。 对于任何其他打算制定此类法律的司法管辖区也可以这样说。 不要被欺骗相信我们只能盲目地把合法的飞镖扔进狂风中并遭受痛苦。 一点法律思维结合对人工智能的适当理解已经是可行的,没有必要仅仅抓住稻草。

我可以补充一下,还有时间来纠正这个问题。 时钟还在滴答作响。 有可能在警钟开始响起之前醒来。 所需的建议可以得到并被告知。 时间紧迫,因此必须给予应有的优先权。

无论如何,请确保您掌握了这里的重点。

请允许我热切地澄清,这样一条关于人工智能偏见的法律确实有其优点。 我会暂时解释原因。 我还将描述这项新法律存在哪些问题,许多人会说这是有史以来第一个被纳入法律书籍的新法律(存在其他变体,尽管可能不太像这个)。

事实上,您可以期待类似的法律将在全国范围内逐步实施。 一个值得注意的问题是,如果纽约市的先行者尝试失败,可能会导致该国其他地区对颁布此类法律持谨慎态度。 这不是应该吸取的正确教训。 正确的教训是,如果您要编写这样的法律,请明智地进行并考虑周全。

在没有经过充分审查的情况下被扔在书本上的法律可能会令人非常不安,并造成各种下游困难。 从这个意义上说,请不要把婴儿和洗澡水一起扔出去(一句老话,可能应该退休了)。 要点是,如果制定得当,这样的法律可以真正具有生产力和保护性。

不幸的是,这个特别的人不会在大门外这样做。

各种惊慌失措的引导,必然来自法律的制定者和执法者。 将您的日历标记为 2023 月下旬至 XNUMX 年 XNUMX 月,以观察接下来的争夺。 指责将非常激烈。

现在没有人特别大声疾呼,因为法律还没有落在那些将被新法律所束缚的雇主的头上。 想象一下,这是一场比喻性的地震,将在 2023 年的头几周发生。很少有人为地震做准备。 许多人甚至不知道地震已经被列入日历。 话虽如此,一旦地震发生,许多非常震惊和震惊的企业会想知道发生了什么以及为什么会发生这种混乱。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。 对于我对 AI 伦理、道德 AI 以及 AI 治理法律方面的 AI 法律的持续和广泛报道,可以在以下网址找到 这里的链接 这里的链接, 仅举几例。

这个悲惨的法律故事与过去对当今人工智能的新兴担忧有关,尤其是机器学习 (ML) 和深度学习 (DL) 作为一种技术形式的使用以及它是如何被利用的。 你看,ML/DL 的一些用途往往涉及让 AI 被广大公众拟人化,相信或选择假设 ML/DL 是有感觉的 AI 或接近(它不是)。 此外,ML/DL 可能包含不合需要或完全不正确的计算模式匹配方面,或者从道德或法律角度来看是非法的。

首先澄清我在整体上提到 AI 时的意思,并简要概述机器学习和深度学习可能会很有用。 关于人工智能的含义有很多困惑。 我还想向您介绍 AI 伦理学的规则,这对于本次演讲的其余部分尤其重要。

陈述关于人工智能的记录

让我们确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。

我们没有这个。

我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有知觉的人工智能,也没有人能准确地预测有知觉的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常被称为奇点,请参阅我的报道: 这里的链接).

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习和深度学习,它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

部分问题是我们倾向于拟人化计算机,尤其是人工智能。 当计算机系统或人工智能似乎以我们与人类行为相关的方式行事时,几乎有一种将人类品质归因于系统的强烈冲动。 这是一个常见的心理陷阱,即使是最顽固的怀疑论者也能抓住获得感知的机会。

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。

人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括评估公司如何采用 AI Ethics。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。 例如,请参阅我的报道 这里的链接.

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

让我们脚踏实地,专注于当今的计算非感知人工智能。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

我相信我现在已经准备好充分讨论人工智能在安静戒烟的范围内的作用。

用于就业决策的人工智能

纽约市法律侧重于就业决策这一主题。

如果您最近尝试在地球上几乎任何地方申请现代工作,您可能在就业决策过程中遇到了基于 AI 的元素。 当然,你可能不知道它的存在,因为它可能隐藏在幕后,而且你没有现成的方法来辨别是否涉及人工智能系统。

用于指代这些 AI 系统的一个常见标语是它们被认为是 自动就业决策工具,缩写为AEDT。

让我们看看纽约市法律如何定义这些需要就业决策的工具或应用程序:

  • “‘自动化就业决策工具’一词是指源自机器学习、统计建模、数据分析或人工智能的任何计算过程,它发布简化的输出,包括分数、分类或推荐,用于实质性协助或取代自由裁量决定,以做出影响自然人的雇佣决定。 “自动化就业决策工具”一词不包括不自动化、支持、实质性协助或替代自由裁量决策过程且不会对自然人产生重大影响的工具,包括但不限于垃圾邮件过滤器、防火墙、防病毒软件、计算器、电子表格、数据库、数据集或其他数据汇编”(NYC, Int 1894-2020, Subchapter 25, Section 20-870)。

我将简要研究一下这个措辞,因为它对法律的整个性质和范围至关重要。

首先,正如我在我的著作中多次指出的那样,在编写有关 AI 的法律时,最困难的障碍之一是试图充分定义 AI 的含义。 没有一个所有人都同意的、所有人都同意的合法的防弹标准。 存在各种定义方式。 有些有用,有些没有。 请参阅我的分析 这里的链接.

您可能会认为我们如何定义 AI 并不特别重要。 对不起,但你错了。

问题在于,如果在给定的法律中对人工智能的定义模糊不清,它允许那些开发人工智能的人通过看似声称他们的软件或系统没有注入人工智能来试图绕过法律。 他们会非常大胆地争辩说该法律不适用于他们的软件。 同样,使用该软件的人也可以声称法律与他们无关,因为他们使用的软件或系统不属于法律规定的 AI 定义。

人类就是这么棘手。

避免被您不喜欢的法律所打击的最精明的方法之一是断言该法律不适用于您。 在这种情况下,您将寻求零碎地分解 AEDT 的定义。 假设您不希望法律对您不利,您的目标是合法地辩称法律中给出的定义与您的与就业相关的计算机系统是什么或做什么是错误的。

通过在定义中故意包含排除性规定,既可以帮助这种法律,也可以有时削弱这种法律。

再看一下本法中对 AEDT 的定义。 您希望看到有一个排除条款说“……不包括不自动化、支持、实质性协助或替代自由裁量决策过程并且不会对自然人产生重大影响的工具……”。

一方面,包含此类排除的基础无疑是有帮助的。

这似乎暗示(在我的外行看来)AEDT 必须提供特定目的并以实质性方式使用。 如果我们应该说 AEDT 是粗略的还是外围的,并且如果雇佣决定仍然是人工做出的,那么可能正在使用的软件系统不应该被解释为 AEDT。 此外,如果软件或系统没有对自然人(人类)产生“实质性”影响,那么就好像不值得将脚放在火上一样。

明智地,您不希望法律夸大其范围并吞没包括厨房水槽在内的所有东西。 这样做对那些法律不打算涵盖的人来说本质上是不公平和负担的。 他们可能会陷入沼泽,就像那些万能的渔网之一。 想必,我们的法律应该小心避免将无辜者拖入法律的范围。

一切都很好。

精明的律师一定会意识到,排除条款可以是一种合法的越狱卡(顺便说一句,该特定法律规定的是民事处罚,而不是刑事处罚,因此 出狱 评论只是比喻性的,是为了味道浓郁)。 如果有人声称一家公司在就业处理中使用了 AEDT,那么尝试克服这种说法的首要方法之一就是辩称所谓的 AEDT 实际上属于排他性领域。 你可能会试图证明所谓的 AEDT 并不 自动化 就业决定,或者不 SUPPORT 就业决定,或者不 实质性协助 or 更换 自由裁量的决策过程。

然后,您可以沿着曲折的道路确定“自动化”、“支持”、“实质性协助”或“替换”这些词在这种情况下的含义。 这是一个非常方便的合法兔子洞。 可以提出一个令人信服的案例,即被指控为 AEDT 的软件或系统是排除性适应症的一部分。 因此,关于这个特定的法律,没有伤害,没有犯规。

显然,此类事项应咨询有执照的律师(此处未表明任何法律建议,这完全是外行的观点)。

我的观点是,这项新法律将有回旋余地。 回旋余地将允许一些真正使用 AEDT 的雇主找到一个漏洞来绕过 AEDT 的使用。 硬币的另一面是,可能有些公司并没有真正使用 AEDT,而这些公司会被这项法律所困。 可能会声称他们使用的任何东西确实是 AEDT,他们将需要找到一种方法来证明他们的软件或系统不属于 AEDT 并属于排除条款。

我们可以做出这样大胆的预测:

  • 毫无疑问,有些雇主故意使用 AEDT,可能会试图逃避其法律责任。
  • 不可避免地会有不使用 AEDT 的雇主陷入声称他们正在使用 AEDT 的说法,迫使他们不得不做“额外”的努力来证明他们没有使用 AEDT。

当我们在本次讨论中深入讨论时,我将进一步阐述这些众多排列和组合。 我们还有更多的空间可以踏足。

使用 AEDT 本身并不是这个问题引起示范性担忧的部分,而是 AEDT 如何执行其行动,从而引起法律上的愤怒。 关键是,如果 AEDT 也可能引入与就业决策相关的偏见,那么你可能会陷入困境(嗯,有点)。

我们如何知道 AEDT 是否确实将人工智能偏见引入了就业决策工作?

根据该法律,答案是要进行人工智能审计。

我以前并且经常介绍人工智能审计的性质和它们是什么,同时指出现有的缺点和不明确的方面,例如在 这里的链接这里的链接,以及许多其他类似的帖子。 简单地说,这个概念是,就像您可能对公司进行财务审计或进行与计算机系统相关的技术审计一样,您也可以对 AI 系统进行审计。 使用专门的审计技术、工具和方法,您可以检查和评估 AI 系统的组成部分,包括例如尝试确定它是否包含一种或另一种偏见。

这是一个新兴的关注领域。

您可以期待这个专门用于 AI 审计的审计子领域将继续增长。 很明显,随着我们将越来越多的人工智能系统投入市场,反过来,人工智能审计的呼声也会越来越高。 新的法律将有助于激发这一点。 即使没有这些法律,也会有大量的人工智能审计,因为人们和公司声称他们受到了人工智能的委屈,并将寻求提供有形的书面迹象,表明损害存在并与所使用的人工智能相关。

人工智能审计师将变得炙手可热且需求量很大。

这可能是一项令人兴奋的工作。 一个可能令人兴奋的元素需要沉浸在最新和最伟大的人工智能中。 人工智能不断进步。 发生这种情况时,精明的 AI 审计员将不得不保持警惕。 如果您是一名厌倦了日常常规审计的审计师,那么令人大开眼界的全新人工智能审计领域提供了承诺(我说这是为了部分提升审计师的地位,因为他们通常是在战壕中工作的默默无闻的英雄,并且他们的努力往往被忽视)。

顺便说一句,我是一名经过认证的计算机系统审计员(其中一个是 CISA),并且多年来多次进行 IT(信息技术)审计,包括 AI 审计。 大多数时候,你没有得到应得的认可。 你大概能猜到为什么。 总的来说,审计人员倾向于发现错误或损坏的东西。 从这个意义上说,它们非常有帮助,尽管这可能被某些人视为坏消息,而且坏消息的使者通常不会被特别放在一个基座上。

回到手头的事情。

关于纽约市法律,以下是该法律对人工智能审计和寻求发现人工智能偏见的规定:

  • “‘偏倚审计’一词是指独立审计师的公正评价。 此类偏见审计应包括但不限于测试自动化就业决策工具,以评估该工具对雇主根据标题第 1e-2000 节 (c) 小节要求报告的任何组成部分 8 类别的人员的不同影响联邦法规第 42 篇第 1602.7 部分规定的美国法规第 29 条”(NYC,Int 1894-2020,第 25 小节,第 20-870 节)。

回顾一下,这里是我们迄今为止解开这项法律的地方:

  • 该法律涵盖自动就业决策工具 (AEDT)
  • 包括分类定义以识别 AEDT 是什么
  • AEDT的定义还提到了排除条款
  • 要点是法律希望揭露 AEDT 中的 AI 偏见
  • 要确定是否存在 AI 偏差,需要进行 AI 审计
  • 人工智能审计可能会公布任何人工智能偏见

接下来我们可以深入研究一下法律。

以下是雇佣决定的组成部分:

  • “‘就业决定’一词是指筛选就业候选人或在城市内晋升的雇员”(NYC,Int 1894-2020,第 25 节,第 20-870 节)。

请注意,“城市”的边界方面表明该问题仅涉及纽约市内与就业相关的情况。 此外,值得注意的是,定义的雇佣决定需要筛选候选人,这是我们认为的雇佣决定的通常含义,此外它还包括晋升。

这是双重打击,因为公司需要意识到他们需要了解他们的 AEDT(如果他们正在使用)如何用于初始就业环境以及在公司内部进行晋升时。 您可能会猜测或假设许多公司也不太清楚促销元素也在这个标准中。 他们将不可避免地忽视这个额外的结构,后果自负。

接下来,我将提供该法律的额外关键摘录,以阐明该法律被解释为非法的本质:

  • “自动化就业决策工具的要求。 一个。 在本市,雇主或职业介绍所使用自动雇佣决策工具来筛选候选人或雇员以做出雇佣决策的行为是非法的,除非: 1. 此类工具已进行不超过使用该工具前一年; 2. 在使用该工具之前,已在雇主或职业介绍所的网站上公开了该工具的最近一次偏见审计结果的摘要以及该审计适用的工具的分发日期。这样的工具……”(纽约市,Int 1894-2020,第 25 小章,第 20-871 节)。 如果您对法律措辞非常感兴趣,您可能需要查看其他子条款。

怀疑论者和批评者认为,这似乎有点不温不火。

他们说,法律只是狭隘和最低限度地关注 开展 人工智能审计和 宣贯 结果,而不是关于人工智能审计是否发现了人工智能偏见,以及这对做出该法律范围内的雇佣决策产生了什么影响。 从本质上讲,这显然是非法的 不能 选择进行这样的 AI 审计(如适用,如前所述),另外,如果您确实进行了 AI 审计,但这样做也是非法的 不能 宣传它。

法律似乎对人工智能偏见是否被发现和存在的问题保持沉默。 同样,对于人工智能偏见是否影响与重要就业决策活动相关的任何人保持沉默。 关键是看似简单地“仅仅”进行人工智能审计并讲述它。

这条法律还不够吗?

认为该法律所涵盖的范围或范围似乎令人满意的部分反驳是,如果人工智能审计确实发现人工智能偏见,并且如果这些人工智能偏见与特定的就业决策实例相关,那么该人或受到如此伤害的人将能够根据 other 法律。 因此,没有必要将这方面包括在这个特定的法律中。

据称,该法律旨在揭露此类问题。

一旦这些不良做法被揭露,如果人工智能偏见存在并对人们产生影响,则可以寻求各种其他法律途径。 如果没有这项法律,争论的焦点是那些使用 AEDT 的人可能会在这样做的同时可能会发疯,并且可能有大量的 AI 偏见,而那些寻求就业或升职的人不会知道正在发生这种情况。

让他们浮出水面。 让他们说出来。 进入引擎盖下。 看看那个引擎里面有什么。 这就是本例中的咒语。 出于这种表面和说明,可以采取额外的行动。

除了因发现人工智能审计可能报告存在人工智能偏见而寻求法律行动外,人们还相信发布这些结果会带来声誉影响。 被展示为使用具有 AI 偏见的 AEDT 的雇主可能会遭受社会愤怒,例如通过社交媒体等。 他们将因自己的恶行而被曝光,并因改正自己的行为而感到羞耻,并且由于人工智能偏见阻止招聘或篡夺晋升的疑虑,他们还可能会发现自己失去了寻求在那里工作的人。

与非法相关的规定处罚如下:

  • “处罚。 一个。 任何人违反本分章的任何规定或根据本分章颁布的任何规则,对于第一次违反和在第一次违反的同一天发生的每一次额外违反,将被处以不超过 500 美元的民事罚款,并且不低于后续每次违规 500 美元不超过 1,500 美元”(NYC,Int 1894-2020,第 25 小节,第 20-872 节)。 如果您对法律措辞非常感兴趣,您可能需要查看其他子条款。

怀疑论者和批评者认为处罚不够严厉。 一家大公司应该会嘲笑或嘲笑所涉及的微不足道的美元罚款。 其他人指出,罚款最终可能会超出想象,如果一家公司每天有 365,000 美元的违规行为(只有一种情况,还有很多其他情况),一年的价值将在XNUMX 美元,假设该公司一整年无视法律并侥幸逃脱(似乎很难想象,但可能会发生,甚至可能发生更长时间或更高的每日罚款高峰,理论上)。

与此同时,一些人担心小型企业和相关的罚款。 如果一家勉强维持生计的小企业被罚款,而且据说这样做不是出于故意规避法律的动机,那么罚款可能会对他们摇摇欲坠的业务产生重大影响。

Keystone 有问题的考虑因素

我有一个简单直接的问题要问你。

在该法律的背景下,究竟什么构成了人工智能审计?

有问题的是,法律的叙述中没有明确的指示。 我们似乎被告知的是,“偏见审计”将通过“独立审计师的公正评估”(根据法律的措辞)进行。

您可以驾驶 Mac 卡车穿过那个大洞。

这就是为什么

考虑这个相当令人不安的例子。 骗子联系了纽约市的一家公司,并解释说他们提供的服务是对他们的 AEDT 进行所谓的“偏见审计”。 他们保证会“不偏不倚”地这样做(无论这意味着什么)。 他们自称是一名独立的审计师,而且他们已经把自己涂成了一个独立的审计师。 不需要任何类型的会计或审计培训、学位、证书或任何类似的东西。 也许他们会不厌其烦地打印一些名片,或者匆忙建立一个网站来宣传他们的独立审计师的地位。

他们将向公司收取 100 美元的适度费用。 他们的服务可能包括询问一些关于 AEDT 的问题,然后宣布 AEDT 是无偏见的。 然后,他们发送一页大小的报告,并宣布所谓审计的“结果”。 该公司尽职尽责地将其发布到其网站上。

公司是否遵守了这项法律?

你告诉我。

好像他们有。

您可能会立即惊讶于审计是以粗略的方式完成的(在这种特殊情况下这是礼貌和慷慨的)。 您可能会感到不安,因为偏差检测(或缺乏偏差检测)可能基本上是预先确定的(瞧,您似乎没有偏差)。 您可能会因为发布的结果可能给人一种已经通过了由经验丰富、训练有素、经验丰富、经过认证的审核员的严格审核的光环而感到不安。

是的,这确实可以扩大规模。

雇主可能会因为他们完成了这个“愚蠢的”要求而松了一口气,并且很高兴只花了他们区区的 100 美元。 雇主可能会在内部悄悄地意识到独立审计是一场骗局,但这似乎不是他们的决定。 他们被介绍了一位声称的独立审计师,审计师做了审计师所说的合规工作,公司为此付费,他们得到了结果,然后他们公布了结果。

一些雇主会这样做,并意识到他们正在眨眼间遵守法律。 尽管如此,他们会相信自己完全合规。

其他雇主可能会被骗。 他们只知道需要遵守法律。 对他们来说幸运的是(或者他们认为),一位“独立审计员”与他们联系并承诺只需 100 美元即可获得投诉审计和结果。 为了避免每天收到 500 美元或更多的罚款,该公司认为他们收到了上天的礼物。 他们支付了 100 美元,进行了“审计”,他们获得了一份关于他们缺乏人工智能偏见的免费健康单,他们发布了结果,然后他们忘记了这一点,直到下次他们需要进行另一次这样的审计.

纽约市的每家受此法律约束的公司应该如何知道什么是善意遵守法律?

如果您的胃还没有翻腾,我们可以让事情变得更糟。 我希望你在过去的几个小时里没有吃过饭,因为下一个转折很难保持完整。

你准备好了吗?

事实证明,这个虚假的服务提供商比您想象的更加虚假。 他们让公司注册了 100 美元的服务,以作为独立审计员进行公正的偏见审计。 瞧,他们进行了“审计”,发现 AEDT 的每个角落都存在偏见。

他们有像蟑螂一样的人工智能偏见。

哎呀,公司说,我们能做些什么呢?

没问题,他们被告知,我们可以为您解决这些 AI 偏见。 每发现一个这样的偏见,你只需花费 50 美元。 好的,公司说,请修复它们,谢谢你这样做。 服务提供商做了一些编码废话,并告诉公司他们修复了 5,000 个 AI 偏差,因此将向他们收取 50 美元(即每个要修复的 AI 偏差 100 美元,乘以发现的 XNUMX 个)。

哎呀,公司感觉很紧张,但这仍然比每天面临 500 美元或更多的违规要好,所以他们向“独立审计师”付款,然后得到一份新报告,显示他们现在没有偏见。 他们自豪地在他们的网站上发布了这个。

他们几乎不知道这是一个骗局,一个骗局,一个骗局。

您可能会坚持认为该服务提供商应该因其欺骗行为而受到惩罚。 捕捉和阻止这些骗子将比您想象的要困难得多。 就像在美国法律无法控制的外国土地上追逐那些为您带来财富的外国王子一样,在这种情况下也可能发生同样的情况。

由于这项新法律,预计会出现一个家庭手工业。

将有善意的审计员寻求提供这些服务。 对他们有好处。 将有粗略的审计员来完成这项工作。 将会有虚假宣称的审计员来完成这项工作。

我提到服务提供商的场景涉及要求 100 美元进行所谓的 AI 审计。 那只是一个虚构的占位符。 也许有些人会收取 10 美元(似乎很粗略)。 也许大约 50 美元(仍然粗略)。 等等。

假设服务提供商说完成这项工作将花费 10,000 美元。

或者 100,000 美元来做这件事。

这样做可能需要 1,000,000 美元。

一些雇主不知道这可能或应该花费多少。 这些服务的营销将是免费的。 对于那些合法提供这些服务的人来说,这是一部赚钱的法律,对于那些在这样做的人来说也是一个赚钱的人。 很难知道哪个是哪个。

我还会请你考虑另一个大洞。

在该法律的背景下,究竟什么构成了人工智能偏见?

除了提到美国联邦法规(这并没有特别回答人工智能偏见的问题,也不能作为解决这个问题的权宜之计),你很难断言这个新的法律提供了任何关于人工智能偏见的实质性指示。 再一次,这将完全开放给广泛不同的解释,你不会特别知道寻找了什么,找到了什么等等。 此外,即使是真正的 AI 审计师所做的工作也几乎可能无法与其他审计师相比,因此每个人都倾向于使用他们专有的定义和方法。

简而言之,我们可以怀着恐惧和担忧的心情观察雇主会因为这个措辞松散但用意良好的法律而遇到的事情:

  • 一些雇主会了解法律,并在力所能及的范围内认真、充分地遵守
  • 一些雇主会了解法律,并勉强遵守他们能找到的或他们家门口的最简单、最便宜和可能令人讨厌的道路
  • 一些雇主会了解法律并认为他们不在法律范围内,因此不会对此采取任何措施(尽管事实证明,他们可能在范围内)
  • 一些雇主会知道法律并断然决定忽略它,也许认为没有人会注意到,或者法律不会被执行,或者法律会被认为无法执行,等等。
  • 一些雇主不了解法律,会措手不及,争先恐后地遵守
  • 一些雇主不知道法律,会被骗子们骗得惨不忍睹
  • 一些雇主不知道法律,他们不在范围内,但无论如何他们仍然会被骗子骗走,说服他们在范围内
  • 一些雇主不了解法律,也不会对此采取任何行动,而奇迹般地从未因他们的疏忽而被抓到或被责骂
  • 其他名称

要记住的一个重要考虑因素是与这项新法律相关的幅度或规模。

根据有关纽约市企业数量的各种报告统计数据,该数量通常表示为大约 200,000 家左右的企业(我们将其用作一个数量级)。 假设这是一个合理的近似值,那么作为雇主的那些企业可能会受到这项新法律的约束。 因此,采用上述几种雇主将对这项法律作出反应的方式,并考虑我刚才提到的各个桶中有多少。

这是一个相当惊人的扩展问题。

此外,根据报告的统计数据,纽约市可能有 4 万个私营部门工作岗位,加上纽约市政府雇用的大约 300,000 名政府工作人员的估计数量(同样,使用这些数量级而不是精确数量)。 如果您考虑到新员工似乎都在这项新法律的范围内,以及与所有现有和未来员工相关的晋升,那么坦率地说,将以某种方式受到该法律影响的员工数量令人震惊.

大苹果公司有一项新法律,乍一看似乎是无害的,表面上可以忽略不计或平凡,但当你意识到所涉及的比例因素时,它会让你头晕目眩

结论

我在讨论开始时提到,这是一个用心良苦的新法律。

我刚才所描述的潜在漏洞、遗漏、差距、问题等等,都可以很容易地预料到。 这不是航天科技。 我可能会补充说,由于本文的篇幅限制,我没有提到该法律的更多固有问题和令人困惑的方面。

你可以像在桶里打鱼一样容易地找到它们。

应仔细制定此类法律,以尝试防止此类偷偷摸摸的结束。 我认为认真的作曲家试图写出他们认为相对铁定的法律,在最坏的情况下,可能会在这里或那里有一些微小的滴水。 遗憾的是,它是滴水的消防软管。 将需要大量的胶带。

是否可以以更清晰的方式编写法律来关闭这些相当明显的漏洞和相关问题?

是的,非常多。

现在,既然如此,你可能会愤愤不平地告诫说,这样的法律无疑会长得多。 总有一个权衡,让法律持续不断,变得笨拙,与简洁和紧凑。 您不希望在失去实质性和有价值的清晰性和特异性的情况下获得简洁性。 允许恶作剧的简短法律充满了麻烦。 更长的法律,即使看起来更复杂,如果它在采用阶段避免、避免或至少最小化下游问题,通常也是值得权衡的。

圣奥古斯丁有句名言:“在我看来,不公正的法律根本就不是法律。”

我们可以提供一个推论,即由有问题的语言组成的正义法律是一条乞求产生严峻问题的法律。 在这种情况下,我们似乎只剩下伟大的法学家小奥利弗·温德尔·霍姆斯(Oliver Wendell Holmes Jr.)的话,即一页历史值得一磅逻辑。

敬请关注,因为历史即将创造。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai-偏见-审计-进入齿轮/