人工智能伦理为全球范围内即将出现的人工智能偏见的幽灵敲响了警钟,尤其是通过迫在眉睫的全自动系统的推动

柏拉图有句名言,一个好的决定是基于知识而不是数字。

这种敏锐的洞察力似乎对当今的人工智能 (AI) 具有惊人的先见之明。

你看,尽管目前的头条新闻宣称人工智能已经以某种方式达到了感知能力并体现了人类的知识和推理,但请注意,这种夸大的人工智能夸张是阴险的推论,因为我们在今天的算法决策中仍然依赖于数字运算(ADM ) 由人工智能系统承担。 即使是自吹自擂的机器学习 (ML) 和深度学习 (DL) 也包含计算模式匹配,这意味着数字仍然是 ML/DL 使用的核心。

我们不知道人工智能是否有可能达到感知。 可能是,可能不是。 没有人能肯定地说这是如何发生的。 一些人认为,我们将逐步改进我们的计算 AI 工作,以便自发产生某种形式的感知。 其他人则认为,人工智能可能会进入一种计算超新星并几乎自行达到感知能力(通常称为奇点)。 有关这些关于 AI 未来的理论的更多信息,请参阅我的报道 这里的链接.

所以,我们不要自欺欺人,错误地相信当代人工智能能够像人类一样思考。 我想,柏拉图关于我们是否可以基于计算 AI 而不是基于感知 AI 做出好的决策的言论成为问题的焦点。 您可能会惊讶地发现,我会断言我们确实可以通过日常 AI 系统做出正确的决定。

硬币的另一面是,我们也可以拥有做出错误决定的日常人工智能系统。 烂决定。 充满不良偏见和不公平的决定。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

我对 AI Ethics 和 Ethical AI 的广泛报道可以在 这里这个链接这里这个链接,仅举几例。

对于本文的讨论,我想提出一个关于人工智能的特别令人担忧的方面,人工智能伦理领域的人们理所当然地哀叹并试图提高对人工智能的认识。 这个发人深省和令人不安的事情实际上很容易指出。

在这里,它是: 人工智能具有在全球范围内传播人工智能偏见的现实潜力。

当我说“大规模”时,这显然意味着全球范围内的大规模。 巨大的规模。 超出规模的规模。

在我深入探讨人工智能偏见的这种规模化将如何发生之前,让我们确保我们所有人都了解人工智能如何整合不正当的偏见和不平等。 再次回想一下,这不是有情的品种。 这都是计算能力。

你可能对人工智能如何灌输与人类相同的不利偏见和不平等感到困惑。 我们倾向于认为 AI 是完全中立的、公正的,只是一台没有人类可能拥有的情感影响和错误思维的机器。 当使用机器学习和深度学习时,人工智能陷入偏见和不平等的最常见方式之一是依赖收集的有关人类如何做出决策的数据。

请允许我详细说明一下。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类一直在纳入不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策或 ADM 不言自明地变得充满了不公平。

不好。

这给我们带来了大规模人工智能偏见的问题。

首先,让我们来看看人类的偏见是如何造成不平等的。 一家提供抵押贷款的公司决定聘请抵押贷款代理。 该代理应该审查想要获得住房贷款的消费者的请求。 在评估申请后,代理人会做出决定是授予贷款还是拒绝贷款。 十分简单。

为了便于讨论,我们假设一个贷款代理人每天可以分析 8 笔贷款,每次审核大约需要一个小时。 在一个为期五天的工作周中,该代理进行了大约 40 次贷款审查。 每年,代理通常会进行大约 2,000 次贷款审查,给予或接受一点。

该公司希望增加其贷款审查的数量,因此该公司雇用了 100 名额外的贷款代理。 让我们假设他们都具有大致相同的生产力,这意味着我们现在每年可以处理大约 200,000 笔贷款(以每位代理人每年 2,000 笔贷款审查的速度)。 看来我们确实加快了对贷款申请的处理。

事实证明,该公司设计了一个人工智能系统,该系统基本上可以进行与人工代理相同的贷款审查。 人工智能在云中的计算机服务器上运行。 通过云基础设施,公司可以轻松添加更多计算能力,以适应可能需要的任何数量的贷款审查。

使用现有的 AI 配置,他们每小时可以进行 1,000 次贷款审查。 这也可以 24×7 发生。 人工智能不需要休假时间。 没有午休时间。 人工智能全天候工作,不会因为过度劳累而大吵大闹。 我们会说,按照这个大致的速度,人工智能每年可以处理近 9 万份贷款申请。

请注意,我们从拥有 100 名每年可以进行 200,000 笔贷款的人工代理,并通过 AI 系统跃升至每年 9 万条评论的数量大幅增长。 我们已经大大扩大了我们的贷款请求处理。 毫无疑问。

准备好迎接可能会让你从椅子上摔下来的踢球者。

假设我们的一些人工代理基于不良偏见做出贷款决定。 也许有些人认为种族因素在贷款决定中发挥了关键作用。 也许有些人正在使用性别。 其他人正在使用年龄。 等等。

在 200,000 次年度贷款审查中,有多少是在不利偏见和不公平的错误注视下进行的? 可能是 10%,即大约 20,000 个贷款请求。 更糟糕的是,假设它是 50% 的贷款请求,在这种情况下,每年有 100,000 次贷款决策错误决定,非常令人不安。

那很糟。 但我们还没有考虑更可怕的可能性。

假设人工智能有一个隐藏的偏见,包括种族、性别、年龄等因素。 如果 10% 的年度贷款分析受到这种不良影响,我们就有 900,000 份贷款申请处理不当。 这比人类代理可能做的要多得多,主要是由于体积方面。 这 100 名代理人如果全部都在进行不公平的审查,最多只能在 200,000 次年度贷款审查中这样做。 AI 可以在 9,000,000 次年度审查中进行大规模的相同操作。

哎呀!

这是真正的大规模人工智能偏见。

当 AI 系统中埋藏不愉快的偏见时,似乎有利的相同缩放现在被颠倒了,并变成了一个令人毛骨悚然的(和令人不安的)缩放结果。 一方面,人工智能可以有利地处理更多申请住房贷款的人。 从表面上看,这似乎是一个巨大的 永远的人工智能. 我们应该为自己增加人类获得所需贷款的机会而庆幸自己。 同时,如果人工智能嵌入了偏见,那么缩放将是一个非常糟糕的结果,我们发现自己陷入了可悲的泥潭 坏的人工智能,在一个真正的大规模。

众所周知的双刃剑。

人工智能可以从根本上增加那些正在寻求所需服务和产品的人进行决策的机会。 不再有人力限制的劳动力瓶颈。 杰出的! 剑的另一面是,如果 AI 包含诸如隐藏的不公平之类的不良行为,那么同样的大规模缩放将以难以想象的规模传播这种不良行为。 可气、冤枉、可耻,我们不能让社会落入如此丑陋的深渊。

任何对我们为什么需要抨击人工智能伦理的重要性感到困惑的人现在应该意识到人工智能的扩展现象是追求伦理人工智能的一个重要原因。 让我们花点时间简要考虑一些关键的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说,什么应该是至关重要的焦点。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,以便相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的理解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建 AI 系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德规范是什么以及应如何普遍遵守它们进行一些挥手,而在 AI 编码必须是符合道路的名副其实的橡胶时,情况要复杂得多。

AI 开发人员、管理 AI 开发工作的人员,甚至最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个人工智能开发和使用生命周期中的所有利益相关者都被认为是在遵守道德人工智能的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 请注意,设计和部署 AI 需要一个村庄。 为此,整个村庄都必须对人工智能伦理保持警惕。

人工智能陡峭的偏差缩放是如何工作的

既然我已经讨论了 AI 可以包含偏见,我们准备研究 AI 扩展如此具有侵入性的一些原因。

考虑以下十个根本原因的关键清单:

  1. 轻松复制
  2. 最小的扩展成本
  3. 可憎的一致
  4. 缺乏自我反省
  5. 盲目服从
  6. 不倾斜它的手
  7. 收件人毫无戒心
  8. 倾向于不刺激挑衅
  9. 虚假的公平光环
  10. 难以反驳

我将简要探讨其中的每一个关键点。

当你试图用人力扩大规模时,这样做可能会非常复杂。 你必须找到并雇佣这些人。 你必须训练他们完成这项工作。 你必须付钱给他们,并考虑到人类的需求。 将此与人工智能系统进行比较。 你开发它并投入使用。 除了对 AI 进行一定程度的持续维护外,您还可以坐下来让它无休止地处理。

这意味着人工智能很容易被复制。 您可以根据任务和数量的需要添加更多计算能力(您不是在招聘或解雇)。 全球使用只需按一下按钮即可完成,并通过互联网在全球范围内的可用性来实现。 与用人工进行同样的操作相比,扩大规模是最小的成本。

众所周知,人类的劳动是不一致的。 当您拥有大型团队时,您将拥有一盒名副其实的巧克力,因为您永远不知道手上可能有什么。 人工智能系统很可能是高度一致的。 它一遍又一遍地重复相同的活动,每次都与上一次基本相同。

通常,我们会喜欢 AI 的一致性。 如果人类容易产生偏见,我们总会有一部分人类劳动误入歧途。 如果人工智能在构建和计算工作上完全不偏不倚,那么它会更加一致。 但问题是,如果人工智能有隐藏的偏见,那么现在的一致性是令人痛苦的。 有偏见的行为很可能会一次又一次地持续进行。

人类有望对自我反省有所了解,并可能会发现自己做出有偏见的决定。 我并不是说所有人都会这样做。 我也不是说那些抓住自己的人一定会纠正他们的错误。 无论如何,至少有些人有时会纠正自己。

人工智能不太可能有任何形式的计算自我反思。 这意味着人工智能只是继续做它正在做的事情。 人工智能检测到它违反公平的可能性似乎为零。 话虽如此,我已经描述了一些解决这个问题的努力,例如在 AI 中构建 AI Ethics 组件(参见 这里的链接) 并设计 AI 来监控其他 AI 以识别不道德的 AI 活动(请参阅 这里的链接).

由于缺乏任何形式的自我反省,人工智能也很可能在本质上盲目服从它被指示做的任何事情。 人类可能不会那么听话。 一些正在执行任务的人可能会质疑他们是否可能被引导到不公平的领域。 他们往往会拒绝不道德的命令,或者可能会走举报人的路线(请参阅我的报道 这里这个链接)。 不要指望当代的日常人工智能会以某种方式质疑它的编程。

我们接下来转向那些使用人工智能的人。 如果您正在寻求房屋贷款并与人交谈,您可能会警惕该人是否正在给您公平的震动。 在使用人工智能系统时,大多数人似乎不那么怀疑了。 他们通常认为人工智能是公平的,因此不会很快被激怒。 人工智能似乎使人们陷入“它只是一台机器”的恍惚状态。 最重要的是,很难尝试和抗议人工智能。 相比之下,抗议人类代理人如何对待你要容易得多,也更容易被普遍接受,并被认为是可行的。

总而言之,沉浸在偏见中的人工智能比沉浸在偏见中的人类有不光彩的优势,即能够让人工智能大规模部署这些偏见,而不会轻易被抓住或吸引消费者意识到正在发生的令人不安的事情。

在本次讨论的这个关键时刻,我敢打赌,您希望获得一些额外的示例,这些示例可能会大规模展示人工智能偏见的难题。

我很高兴你问。

有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了任何关于人工智能的大规模偏见?如果是这样,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间无需任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5级还没有真正的无人驾驶汽车,我们甚至都不知道是否有可能实现这一目标,也不知道需要多长时间才能到达那里。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能的大规模偏见

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和道德人工智能的可能性,这需要探索大规模传播的人工智能偏见。

让我们使用一个简单明了的例子。 一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免你认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆,看我的分析 这里这个链接. 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。

事实证明,对于原本无害且普遍受欢迎的基于人工智能的自动驾驶汽车开始出现两个不合时宜的担忧,具体而言:

一种。 人工智能在自动驾驶汽车中漫游以接车的地方正在成为人们关注的焦点

湾。 人工智能如何对待没有通行权的等待行人正在成为一个紧迫的问题

起初,人工智能在整个城镇的自动驾驶汽车中漫游。 任何想要求乘坐自动驾驶汽车的人基本上都有平等的机会叫到一辆自动驾驶汽车。 逐渐地,人工智能开始主要让自动驾驶汽车只在城镇的一个区域内漫游。 这部分是一个更大的赚钱者,人工智能系统已被编程为尝试最大化收入,作为社区使用的一部分。

该镇贫困地区的社区成员不太可能乘坐自动驾驶汽车。 这是因为自动驾驶汽车离得更远,并且在当地收入较高的部分漫游。 当请求来自城镇的较远地区时,来自可能在城镇“受人尊敬的”部分的较近位置的任何请求都将获得更高的优先级。 最终,在城镇较富裕地区以外的任何地方获得自动驾驶汽车几乎是不可能的,对于那些生活在现在资源匮乏地区的人来说,这令人恼火。

你可以断言 AI ​​几乎落入了一种代理歧视的形式(通常也称为间接歧视)。 人工智能没有被编程来避开那些较贫穷的社区。 相反,它通过使用 ML/DL 来“学习”这样做。

问题是,拼车人类司机以做同样的事情而闻名,尽管不一定完全是因为赚钱的角度。 有一些拼车人类司机对在城镇的某些地区接载乘客有不良偏见。 这是一个众所周知的现象,该市已经采取了一种监控方法来捕捉人类司机这样做。 人类司机可能会因为执行令人讨厌的选择做法而陷入困境。

假设人工智能永远不会落入同样的流沙中。 没有设置专门的监控来跟踪基于人工智能的自动驾驶汽车的去向。 直到社区成员开始抱怨之后,城市领导才意识到发生了什么。 有关自动驾驶汽车和自动驾驶汽车将出现的这些类型的全市问题的更多信息,请参阅我的报道 这里这个链接 其中描述了我与该主题合着的一项哈佛领导的研究。

这个基于人工智能的自动驾驶汽车的漫游方面的例子说明了较早的迹象,即可能存在导致人类存在不良偏见的情况,对此进行了控制,而替代这些人类驾驶员的人工智能是苏格兰人的事。自由。 不幸的是,人工智能可能会逐渐陷入类似的偏见,并且在没有足够的护栏的情况下这样做。

这也展示了人工智能在规模问题上的严重偏见。

在人类司机的情况下,我们可能会有一些在这里或那里行使某种形式的不公平。 对于人工智能驾驶系统,它通常是一个用于整个自动驾驶汽车车队的统一人工智能。 因此,我们可能从镇上的 500 辆自动驾驶汽车(全部由相同的 AI 代码运行)开始,逐渐增加到 XNUMX 辆自动驾驶汽车(全部由相同的 AI 代码运行)。 由于所有这 XNUMX 辆自动驾驶汽车都由同一个 AI 运行,因此它们都相应地受到嵌入在 AI 中的相同衍生偏见和不平等的影响。

在这方面,扩展会伤害我们。

第二个示例涉及 AI 确定是否停车以等待没有通行权的行人过马路。

毫无疑问,您一直在开车并遇到等待过马路的行人,但他们没有这样做的通行权。 这意味着您可以自行决定是否停下来让他们通过。 您可以在不让他们通过的情况下继续进行,并且仍然完全符合这样做的合法驾驶规则。

对人类驾驶员如何决定为此类行人停车或不停车的研究表明,有时人类驾驶员会根据不利的偏见做出选择。 人类驾驶员可能会看着行人并选择不停车,即使如果行人有不同的外观(例如基于种族或性别),他们也会停下来。 我已经在 这里的链接.

想象一下,基于人工智能的自动驾驶汽车被编程来处理没有通行权的行人是否停车的问题。 以下是 AI 开发人员决定如何编写此任务的方式。 他们从遍布全市的镇上摄像机收集数据。 该数据展示了为没有通行权的行人停车的人类驾驶员和不停车的人类驾驶员。 所有这些都收集到一个大型数据集中。

通过使用机器学习和深度学习,可以对数据进行计算建模。 然后人工智能驾驶系统使用这个模型来决定何时停止或不停止。 一般来说,这个想法是,无论当地习俗是什么,这就是人工智能指导自动驾驶汽车的方式。

令城市领导和居民惊讶的是,人工智能显然是根据行人的外貌,包括他们的种族和性别来选择停车或不停车。 自动驾驶汽车的传感器会扫描等待的行人,将这些数据输入 ML/DL 模型,然后模型会向 AI 发出是停止还是继续。 遗憾的是,该镇在这方面已经存在很多人类驾驶员的偏见,而人工智能现在也在模仿。

这个例子说明,人工智能系统可能只是复制了人类已经存在的不良偏见。 此外,它是大规模这样做的。 有时,任何人类驾驶员都可能被教导要进行这种不利的选择形式,或者可能是个人选择这样做,但很可能大部分人类驾驶员可能没有集体这样做。

与此形成鲜明对比的是,用于驾驶自动驾驶汽车的人工智能驾驶系统很可能会始终如一地且可靠地执行衍生偏差。

结论

有很多方法可以尝试避免设计出具有不良偏见或随着时间的推移收集偏见的人工智能。 尽可能地,这个想法是在你进入高速档并加速扩展之前发现问题。 希望偏见不会走出大门,可以这么说。

假设人工智能中会出现一种或另一种偏见。 一旦你被大规模部署到人工智能,你就不能只做那些经常宣称的技术人员“一劳永逸”的概念之一。 你必须努力掌握人工智能正在做什么,并设法发现任何需要纠正的不良偏见。

如前所述,一种方法包括确保 AI 开发人员了解 AI 伦理,从而促使他们对 AI 进行编程以避免这些问题。 另一种途径包括让人工智能自行监控不道德行为和/或让另一块人工智能监控其他人工智能系统的潜在不道德行为。 我在我的著作中介绍了许多其他潜在的解决方案。

现在是最后的想法。 以柏拉图的一句话开始讨论后,用柏拉图的另一句精明的话语来结束讨论可能是合适的。

柏拉图说,重复一件好事没有坏处。

当人工智能属于 永远的人工智能 种类。 我们喜欢重复一件好事。 当人工智能是 坏的人工智能 并且充满了令人不快的偏见和不平等,我们可能会依赖柏拉图的言论,并说重复一件坏事会带来很大的伤害。

让我们仔细聆听柏拉图的智慧之言,并据此设计我们的人工智能。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive-全球规模,特别是通过迫在眉睫的全自动系统/