人工智能伦理和人工智能法正朝着明确识别和管理人工智能偏见的标准迈进

你玩过五十二张捡牌吗?

这不是你通常愿意承担的游戏。 这就是为什么。 有人向您提供据称这是一项有趣的运动,如果您上钩,他们就会将一整副扑克牌抛向空中,然后立即扔到地板上。 然后这个人给你一个厚脸皮的微笑,并告诉你继续拿起卡片。 这就是整个游戏。

恶作剧!

关于这个,我确实有一个有点深思熟虑的问题要问你。

假设其中一张卡片滑到附近的沙发下面。 当你把所有的牌都捡完后,你就会知道少了一张,因为你手里只有五十一张。

问题是,你能确定哪张卡丢失了吗?

我相信您会立即说您可以轻松找出哪张牌不在您的手中。 你所要做的就是把甲板整理好。 你知道一副标准的套牌由四套花色组成,每套花色的牌从一到十编号,然后依次为杰克、皇后和国王。

您知道这一点,因为标准的扑克牌是基于标准的。

哇,那句话似乎是那些完全明显的断言之一。 嗯,是的,当然,标准的游戏套牌是基于标准的。 我们都知道。 我的观点是,通过制定标准,我们可以在需要时依赖该标准。 除了能够推断出一副牌中缺少什么牌外,您还可以轻松地与其他人一起玩数以万计的知名纸牌游戏。 一旦有人被告知游戏规则,他们就可以直接玩,因为他们已经完全知道套牌的组成。 你不需要向他们解释这套牌有四套花色和不同编号的牌。 他们已经知道是这样的。

我要去哪里?

我试图带你走上一条道路,这条道路是在人工智能领域取得进展的重要手段,尤其是在人工智能伦理和人工智能伦理领域。 你看,我们需要尝试提出广泛且一致同意的关于人工智能伦理的标准。 如果我们能做到这一点,它将提高采用 Ethical AI 的便利性,并且明显旨在改进不断被抛入市场的 AI 系统(如无编号和无序的外卡牌)。 有关我对 AI Ethics、Ethical AI 和 AI Law 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

我提出这一点是为了为我在这里的讨论奠定基础,该讨论将侧重于更广泛的 AI 伦理领域的特定部分或部分,即如前所述的 AI 偏见的特定元素。 我与您分享这个话题的原因也是,美国国家标准与技术研究院 (NIST) 发布的一份文件正试图让我们朝着描述 AI 偏见的标准迈进。 该文件名为 迈向识别和管理人工智能偏见的标准 作者 Reva Schwartz、Apostol Vassilev、Kristen Greene、Lori Perine、Andrew Burt 和 Patrick Hall,由美国商务部 NIST 特别出版物 1270 于 2022 年 XNUMX 月出版。

我们将展开这种方便且令人鼓舞的努力,以建立我们所说的人工智能偏见。 俗话说,你无法管理你无法衡量的东西。 通过制定列出各种 AI 偏见的标准,您可以开始衡量和管理 AI 偏见祸害。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,以便相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的理解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

许多关键的 AI 道德准则的基础是 AI 偏见的阴险本质。

就像一副纸牌一样,如果我们能以某种方式将 AI 偏见组合成一组“套装”或类别,那肯定会很漂亮。 事实上,NIST 文件提供了一个建议的分组。

提出了三个主要类别:

1) 系统性偏差

2)统计和计算偏差

3) 人类偏见

是否所有 AI 偏见都完全符合这三个类别之一当然需要考虑。 你可以肯定地说,一些 AI 偏见同时属于一类、二类或全部三类。 此外,您可能会声称有更多类别值得提及,例如某些第四、第五、第六或更多系列的分组。

我希望这就是您的想法,因为我们需要让每个人都参与帮助制定这些标准。 如果您对这些标准最初形成的方式感到愤怒,我敦促您将这种能量转化为帮助我们其他人使这些萌芽的标准尽可能健全和完整。

现在,我们可以仔细看看提出的三个类别,看看到目前为止我们处理过什么样的手(是的,我将继续使用一副扑克牌的类比,这样做在整篇书面文章中,您可以将自己的底钱押在那个不那么隐藏的主题王牌上)。

提到系统性偏见是什么意思?

NIST 文件是这样说的:“系统性偏见源于特定机构的程序和实践,这些机构的运作方式导致某些社会群体受到优势或偏爱,而其他社会群体则处于劣势或贬值。 这不一定是任何有意识的偏见或歧视的结果,而是大多数人遵循现有规则或规范的结果。 制度性种族主义和性别歧视是最常见的例子”(请注意,这只是一个简短的摘录,鼓励读者查看更完整的解释)。

人工智能通过提供一种在基于人工智能的应用程序中传达和应用这些偏见的方式,进入了系统性偏见的混合体。 每当您使用注入 AI 的软件时,据您所知,它可能包含一系列偏见,这些偏见已经通过导致 AI 制造的公司和行业实践融入系统。 根据 NIST 的研究:“这些偏见存在于人工智能中使用的数据集中,以及人工智能生命周期中的制度规范、实践和流程以及更广泛的文化和社会中。”

接下来,考虑被标记为统计和计算偏差的一组偏差。

NIST 文件指出:“统计和计算偏差源于样本不代表总体时产生的错误。 这些偏见源于系统性而非随机性错误,并且可能在没有偏见、偏袒或歧视意图的情况下发生。 在人工智能系统中,这些偏见存在于人工智能应用程序开发中使用的数据集和算法过程中,并且经常出现在算法针对一种类型的数据进行训练并且无法推断出这些数据时。”

这种类型的统计和计算偏差通常被融入使用机器学习 (ML) 和深度学习 (DL) 的 AI 系统中。 提出当代 ML/DL 的重大问题,需要对 AI 是什么以及 ML/DL 是什么进行相关的切线。

让我们确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习和深度学习,它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

这将我们直接带到了 NIST 三个分组中的第三类,特别是人类偏见在 AI 偏见出现中的作用。 以下是 NIST 文件指出的内容:“人类偏见反映了人类思想中的系统性错误,这些错误基于有限数量的启发式原则和更简单的判断操作的预测值。 这些偏见通常是隐性的,往往与个人或群体如何感知信息(例如自动 AI 输出)以做出决策或填写缺失或未知信息有关。 这些偏见在整个 AI 生命周期中的机构、团体和个人决策过程中以及在部署后的 AI 应用程序的使用中无处不在。”

您现在已经快速了解了这三个类别。

我想与您分享一些在 NIST 文件中表达的额外思考。 他们叙述中的图表提供了对三组 AI 偏见背后的关键问题和考虑因素的有用总结。 我在这里列出它们是为了方便您参考和启发。

#1:系统性偏差

  • 谁被计算,谁不被计算?

— 潜在变量的问题

— 边缘化群体的代表性不足

— 不平等的自动化

— 确定效用函数的代表性不足

— 有利于多数/少数的流程

— 目标函数中的文化偏见(个人最佳 vs 群体最佳)

  • 我们怎么知道什么是对的?

— 加剧不平等(AI 的使用越多,群体受到的影响越大)

— 预测性警务受到更大的负面影响

— 拼车/自动驾驶汽车/等的广泛采用。 可能会根据使用情况改变影响人口的政策

#2:统计和计算偏差

  • 谁被计算,谁不被计算?

— 抽样和选择偏差

— 使用代理变量,因为它们更容易测量

— 自动化偏差

— 李克特量表(分类到序数到基数)

— 非线性与线性

——生态谬误

— 最小化 L1 与 L2 范数

— 量化语境现象的普遍困难

  • 我们怎么知道什么是对的?

— 缺乏充分的交叉验证

— 幸存者偏差

— 公平的困难

#3:人类偏见

  • 谁被计算,谁不被计算?

— 观察偏差(路灯效应)

— 可用性偏差(锚定)

——麦克纳马拉谬误

— 群体思维导致狭窄的选择

——罗生门效应导致主观拥护

— 难以量化目标可能导致麦克纳马拉谬误

  • 我们怎么知道什么是对的?

— 确认偏差

— 自动化偏差

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示人工智能的三类偏见。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 你看,以我作为人工智能专家的身份,包括伦理和法律后果,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了关于人工智能偏见的三个提议类别,如果是,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能偏见

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和道德人工智能的可能性,这些可能性涉及三类人工智能偏见。

设想一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免你认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆,看我的分析 这里这个链接. 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。

接下来,我们将考虑系统性偏见如何在自动驾驶汽车的背景下发挥作用。

一些权威人士非常担心,自动驾驶汽车将只属于富人和精英。 使用自动驾驶汽车的成本可能会非常昂贵。 除非你有大笔钱,否则你可能永远看不到自动驾驶汽车的内部。 据称,那些将使用自动驾驶汽车的人必须富有。

因此,一些人令人不安地告诫说,一种形式的系统性偏见将渗透到基于人工智能的自动驾驶汽车的出现中。 整个自动驾驶汽车工业体系将使自动驾驶汽车远离那些穷人或不太富裕的人。 这可能不一定是出于明显的意图,事实证明,唯一可以相信的收回发明自动驾驶汽车的沉重成本的方法是收取高得离谱的价格。

如果你反驳说,今天有这些自动驾驶汽车试用让普通人可以使用,那么看起来你本身并不需要富有,反驳的观点是,这是一种空壳游戏,因为它是。 据称,汽车制造商和自动驾驶技术公司愿意让它看起来好像成本不会成为一个实质性的障碍。 他们现在这样做是出于公共关系的目的,一旦发现问题,他们就会抬高价格。 阴谋论者甚至可能声称,作为普通人的“豚鼠”正被有害地利用,以使富人最终变得更加富有。

因此,考虑到这个颇具争议的问题,并在这个肮脏的话题上花费我自己的两分钱,我不相信自动驾驶汽车的价格会超过日常使用。 我不会在此处详细说明我提出此类主张的依据,并邀请您查看我在 这里的链接 也在 这里的链接.

接下来,我们可以考虑与 AI 相关的统计和计算偏差问题。

考虑一下自动驾驶汽车将在哪里漫游以接载乘客这一看似无关紧要的问题。 这似乎是一个非常无害的话题。 我们将使用拥有自动驾驶汽车的城镇或城市的故事来突出与人工智能相关的统计和计算偏差可能令人惊讶的潜在幽灵。

起初,假设人工智能在整个城镇的自动驾驶汽车中漫游。 任何想要求乘坐自动驾驶汽车的人基本上都有平等的机会叫到一辆自动驾驶汽车。 逐渐地,人工智能开始主要让自动驾驶汽车只在城镇的一个区域内漫游。 这部分是一个更大的赚钱者,人工智能系统已被编程为尝试最大化收入,作为社区使用的一部分。

该镇贫困地区的社区成员不太可能乘坐自动驾驶汽车。 这是因为自动驾驶汽车离得更远,并且在当地收入较高的部分漫游。 当请求来自城镇的较远地区时,来自可能在城镇“受人尊敬的”部分的较近位置的任何请求都将获得更高的优先级。 最终,在城镇较富裕地区以外的任何地方获得自动驾驶汽车几乎是不可能的,对于那些生活在现在资源匮乏地区的人来说,这令人恼火。

你可以断言,人工智能几乎落在了一种统计和计算偏差上,类似于一种代理歧视(也通常称为间接歧视)。 人工智能没有被编程来避开那些较贫穷的社区。 相反,它通过使用 ML/DL 来“学习”这样做。

原以为AI永远不会落入那种可耻的流沙之中。 没有设置专门的监控来跟踪基于人工智能的自动驾驶汽车的去向。 直到社区成员开始抱怨之后,城市领导才意识到发生了什么。 有关自动驾驶汽车和自动驾驶汽车将出现的这些类型的全市问题的更多信息,请参阅我的报道 这里这个链接 其中描述了我与该主题合着的一项哈佛领导的研究。

对于与人工智能偏见相关的第三类人类偏见,我们转向一个涉及人工智能确定是否停车等待没有通行权的行人过马路的例子。

毫无疑问,您一直在开车并遇到等待过马路的行人,但他们没有这样做的通行权。 这意味着您可以自行决定是否停下来让他们通过。 您可以在不让他们通过的情况下继续进行,并且仍然完全符合这样做的合法驾驶规则。

对人类驾驶员如何决定为此类行人停车或不停车的研究表明,有时人类驾驶员会根据不利的偏见做出选择。 人类驾驶员可能会看着行人并选择不停车,即使如果行人有不同的外观(例如基于种族或性别),他们也会停下来。 我已经在 这里的链接.

想象一下,基于人工智能的自动驾驶汽车被编程来处理没有通行权的行人是否停车的问题。 以下是 AI 开发人员决定如何编写此任务的方式。 他们从遍布全市的镇上摄像机收集数据。 该数据展示了为没有通行权的行人停车的人类驾驶员和不停车的人类驾驶员。 所有这些都收集到一个大型数据集中。

通过使用机器学习和深度学习,可以对数据进行计算建模。 然后人工智能驾驶系统使用这个模型来决定何时停止或不停止。 一般来说,这个想法是,无论当地习俗是什么,这就是人工智能指导自动驾驶汽车的方式。

令城市领导和居民惊讶的是,人工智能显然是根据行人的年龄来选择停车或不停车。 怎么会这样?

在仔细查看人类驾驶员酌情决定的视频后,事实证明,许多不停车的情况都涉及手持老年人拐杖的行人。 人类司机似乎不愿意停下来让老人过马路,这可能是因为假设某人可能需要花费很长时间才能过马路。 如果行人看起来可以快速穿过马路并尽量减少司机的等待时间,那么司机更愿意让行人过马路。

这深深地埋在了人工智能驾驶系统中。 自动驾驶汽车的传感器会扫描等待的行人,将这些数据输入 ML/DL 模型,然后模型会向 AI 发出是停止还是继续。 任何表明行人过马路可能很慢的视觉指示,例如使用拐杖,在数学上都被用来确定人工智能驾驶系统是否应该让等待的行人过马路。

你可以争辩说这是对预先存在的人类偏见的依赖。

结论

现在有一些最后的想法。

有一种流行的说法是,你不能改变你拿到的牌,而必须学习如何充分利用你拿到的牌。

在人工智能偏见的情况下,如果我们不热切地全面建立人工智能伦理,特别是巩固人工智能偏见的特征,我们将要处理的手将充满肮脏的不道德,和可能的非法阶层。 首先,我们必须阻止这些牌被发。 制定和颁布道德 AI 标准的英勇目标是对抗即将到来的不断上升的海啸的关键工具 坏的人工智能.

你可以明确地告诉银行,猖獗的人工智能偏见和不道德的人工智能将像一个脆弱的纸牌屋,自爆,可能对我们所有人造成灾难性的后果。

让我们为胜利而战,使用合乎道德的 AI 这样做。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage-人工智能偏见/