人工智能伦理 令人震惊的启示是,训练人工智能有毒或有偏见可能是有益的,包括那些自动驾驶汽车

这是一句老话,我相信你以前听过。

要知道一个就需要一个。

您可能没有意识到这是一个可以追溯到 1900 年代早期的表达方式,并且通常在提及不法行为者时被调用(标语的其他变体可以追溯到更远的地方,例如 1600 年代)。 如何使用这种说法的一个例子需要这样一种观念,即如果你想抓住一个小偷,那么你需要使用一个小偷来这样做。 这展示了一个人需要知道一个人的断言。 许多电影和电视节目都利用了这种方便的圣人智慧,经常描绘,抓住骗子的唯一可行方法是雇佣一个同样腐败的骗子来追捕不法分子。

换档,有些人可能会利用同样的逻辑来争辩说,辨别某人是否存在不当偏见和歧视性信念的合适方法是找到已经怀有这种倾向的人。 据推测,一个已经充满偏见的人将能够更容易地感觉到另一个人同样充满了毒性。 再一次,它需要一个人知道一个是公开的口头禅。

您对使用有偏见的人来怀疑另一个有偏见的人的可能性的最初反应可能是怀疑和不相信。 难道我们不能通过仅仅检查他们而不必求助于寻找具有相似性质的其他人来确定某人是否持有不利的偏见吗? 故意寻找有偏见的人以发现其他也有偏见的人似乎很奇怪。

我想这部分取决于您是否愿意接受假定的克制,即需要一个人才能知道一个。 请注意,这并不意味着抓住小偷的唯一方法要求您专门且始终使用小偷。 您似乎可以合理地争辩说,这只是可以适当考虑的附加路径。 也许有时你愿意接受使用小偷抓小偷的可能性,而其他情况可能会使这成为一种深不可测的策略。

正如他们所说,使用正确的工具进行正确的设置。

既然我已经列出了这些基本原理,我们就可以进入这个故事中可能令人不安和表面上令人震惊的部分。

你准备好了吗?

人工智能领域正在积极追求同样的原则,有时需要一个人知道一个,特别是在试图找出有偏见或以歧视方式行事的人工智能的情况下。 是的,令人费解的想法是,我们可能有意设计出完全不加掩饰地带有偏见和歧视性的 AI,这样做是为了以此作为发现和揭示其他具有同样毒性的 AI 的手段。 正如您稍后会看到的那样,这件事背后有各种令人烦恼的 AI 伦理问题。 有关我对 AI Ethics 和 Ethical AI 的全面持续和广泛的报道,请参阅 这里的链接这里的链接,仅举几例。

我想你可以将这种使用有毒 AI 来追求其他有毒 AI 作为众所周知的以火攻毒的概念(我们可以使用大量委婉语和说明性隐喻来描述这种情况)。 或者,正如已经强调的那样,我们可能会吝啬地提到一个人知道一个人的断言。

总体概念是,我们不应该仅仅试图通过使用传统方法来弄清楚给定的人工智能系统是否包含不适当的偏见,也许我们也应该寻求采用不那么传统的方法。 一种非常规的方法是设计包含所有最严重的偏见和社会不可接受的毒性的人工智能,然后使用该人工智能来帮助排除其他具有同样不良倾向的人工智能。

当您快速考虑一下时,它肯定看起来非常明智。 我们的目标可以是构建最大毒性的人工智能。 然后使用这种有毒的 AI 来找出其他也具有毒性的 AI。 对于后来发现的“坏”人工智能,我们可以通过消除毒性、完全抛弃人工智能来处理它(参见我在 这里这个链接),或监禁 AI(请参阅我对 AI 禁闭的报道 这里这个链接),或者做任何其他似乎适用的事情。

一个反驳的观点是,我们应该检查一下我们是否有意并愿意设计有毒且充满偏见的人工智能。 这是我们应该考虑的最后一件事,有些人会劝告。 专注于让人工智能完全由善组成。 不要专注于设计具有不当偏见的弊端和渣滓的人工智能。 对于某些人来说,这种追求的想法似乎令人反感。

这个有争议的任务还有更多的疑虑。

也许设计有毒人工智能的使命只会让那些希望制造能够削弱社会的人工智能的人更加胆大妄为。 就好像我们在说,制作具有不恰当和令人讨厌的偏见的人工智能是完全可以的。 不用担心,不用犹豫。 寻求设计出让您心满意足的有毒 AI,我们正在向全球各地的 AI 建设者大声传达。 一切都是以善良的名义(眨眼眨眼)。

此外,假设这种有毒的人工智能流行起来。 可能是许多其他 AI 构建者使用和重用了 AI。 最终,有毒的人工智能被隐藏在各种人工智能系统中。 可以类比为设计一种破坏人类的病毒,该病毒可以从可能是密封的实验室中逃脱。 接下来你知道,该死的东西无处不在,我们已经把自己消灭了。

等一下,这些反驳的反面是,你在各种疯狂和不受支持的假设中肆无忌惮。 深吸一口气。 你冷静一下。

我们可以安全地制造有毒的 AI 并将其封闭。 我们可以使用有毒的人工智能来发现并帮助减少人工智能的日益流行,不幸的是,人工智能确实存在不当的偏见。 这些荒谬的狂野和未经证实的滚雪球感叹中的任何其他纯粹是下意识的反应,令人遗憾的是愚蠢和彻头彻尾的鲁莽。 不要试图把婴儿和洗澡水一起倒掉,这是预先警告的。

这样想,支持者争辩说。 为研究、评估和像侦探一样发现其他具有社会攻击性的 AI 的目的而正确构建和使用有毒 AI 是一种有价值的方法,并且应该在被追求时得到公平的震动。 抛开你的皮疹反应。 下来,清醒地看待这个。 我们关注的是奖品,即揭露和消除基于偏见的人工智能系统的过剩,并确保作为一个社会,我们不会被有毒的人工智能所淹没。

时期。 句号

有多种基石方法可以深入研究将有毒或有偏见的人工智能用于有益目的的概念,包括:

  • 设置故意包含有偏见且完全有毒的数据的数据集,这些数据可用于训练 AI 关于不做什么和/或注意什么
  • 使用此类数据集来训练机器学习 (ML) 和深度学习 (DL) 模型以检测偏差并找出导致社会毒性的计算模式
  • 将经过毒性训练的 ML/DL 应用于其他 AI,以确定目标 AI 是否具有潜在的偏见和毒性
  • 提供经过毒性训练的 ML/DL,向 AI 构建者展示需要注意的事项,以便他们可以轻松检查模型,了解算法上的偏差是如何产生的
  • 举例说明有毒 AI 的危险,作为 AI 道德和道德 AI 意识的一部分,所有这些都通过这个问题儿童坏到骨的 AI 系列示例来讲述
  • 其他名称

在深入了解这几条路径之前,让我们建立一些额外的基础细节。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是要求更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,我们可以通过探索我所说的机器学习和深度学习的意思来设置舞台。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

对于这一切,还能做些什么?

让我们回到早先提出的如何通过使用一种有点非传统的“需要一个人知道一个”的方法来尝试和应对 AI 偏见或有毒 AI 的列表。 回想一下,该列表包含以下要点:

  • 设置故意包含有偏见且完全有毒的数据的数据集,这些数据可用于训练 AI 关于不做什么和/或注意什么
  • 使用此类数据集来训练机器学习 (ML) 和深度学习 (DL) 模型以检测偏差并找出导致社会毒性的计算模式
  • 将经过毒性训练的 ML/DL 应用于其他 AI,以确定目标 AI 是否具有潜在的偏见和毒性
  • 提供经过毒性训练的 ML/DL,向 AI 构建者展示需要注意的事项,以便他们可以轻松检查模型,了解算法上的偏差是如何产生的
  • 举例说明有毒 AI 的危险,作为 AI 伦理和道德 AI 意识的一部分,所有这些都通过这个问题儿童坏到骨的 AI 范例系列讲述
  • 其他名称

我们将仔细研究这些要点中的第一个。

设置有毒数据的数据集

尝试建立包含令人讨厌的社会偏见的数据集的一个有见地的例子是 WILDS 策划集合的 CivilComments 数据集。

首先,一些快速的背景。

WILDS 是可用于训练 ML/DL 的开源数据集集合。 WILDS 的主要目的是让 AI 开发人员能够随时访问代表 分布变化 在各个特定领域。 目前可用的一些领域包括动物物种、活组织中的肿瘤、小麦头密度和其他领域,例如我将立即描述的 CivilComments。

处理分布变化是正确构建 AI ML/DL 系统的关键部分。 这是交易。 有时,您用于训练的数据与测试数据或“野外”数据完全不同,因此您可能经过训练的 ML/DL 与现实世界的样子相差甚远。 精明的 AI 构建者应该训练他们的 ML/DL 以应对这种分布变化。 这应该提前完成,并且在以后需要对 ML/DL 本身进行改造时并不令人意外。

正如介绍 WILDS 的论文中所解释的那样:“分布变化——训练分布与测试分布不同——会大大降低在野外部署的机器学习 (ML) 系统的准确性。 尽管它们在现实世界的部署中无处不在,但这些分布变化在当今 ML 社区广泛使用的数据集中的代表性不足。 为了弥补这一差距,我们展示了 WILDS,这是一个由 10 个数据集组成的精选基准,反映了现实世界应用中自然出现的各种分布变化,例如跨医院进行肿瘤识别的变化; 跨越用于野生动物监测的相机陷阱; 在卫星成像和贫困测绘中跨越时间和地点”(在 Pang Wei Koh、Shiori Sagawa、Henrik Marklund、Sang Xie、Marvin Zhang、Ashay Balsubramani 的题为“WILDS: A Benchmark of in-the-Wild Distribution Shifts”的论文中、胡伟华等)。

此类 WILDS 数据集的数量不断增加,并且数据集的性质通常正在增强,以增强将数据用于 ML/DL 训练的价值。

CivilComments 数据集是这样描述的:“自动审查用户生成的文本——例如,检测有毒评论——是调节互联网上大量文本的重要工具。 不幸的是,先前的工作表明,这种毒性分类器会发现训练数据中的偏差,并虚假地将毒性与提及某些人口统计数据联系起来。 这些类型的虚假相关性会显着降低特定子群体的模型性能。 我们通过 CivilComments 数据集的修改变体来研究这个问题”(如 WILDS 网站上发布的那样)。

考虑不良在线帖子的细微差别。

毫无疑问,在使用几乎任何类型的社交媒体时,您都会遇到有毒的评论。 您似乎几乎不可能神奇地避免看到这些天似乎无处不在的辛辣和糟糕的内容。 有时粗俗的材料是微妙的,也许你必须在字里行间阅读以了解有偏见或歧视性的语气或含义的要点。 在其他情况下,这些词是公然有毒的,你不需要显微镜或特殊的解码环来弄清楚这些段落的含义。

CivilComments 是一个数据集,旨在尝试设计可以通过计算检测有毒内容的 AI ML/DL。 以下是研究人员关注的重点:“机器学习中的意外偏见可能表现为不同人口群体的系统性表现差异,可能加剧整个社会对公平性的现有挑战。 在本文中,我们介绍了一套与阈值无关的指标,通过考虑分类器的分数分布在指定组之间变化的各种方式,提供了对这种意外偏差的细致入微的看法。 我们还引入了一个新的大型在线评论测试集,其中包含用于身份参考的众包注释。 我们用它来展示我们的指标如何用于在现有公共模型中发现新的和潜在的微妙的意外偏差”(在一篇题为“Nuced Metrics For Measurement Unintended Bias With Real Data for Test Classification”的论文中,Daniel Borkan、Lucas Dixon、杰弗里·索伦森、尼图姆·塞恩、露西·瓦瑟曼)。

如果你对这个问题进行一些广泛的思考,你可能会开始想知道,你到底是如何区分什么是有害评论和什么不是有害评论。 对于他们所理解的完全有毒的措辞,人类可能会有根本的不同。 一个人可能会对发布在社交媒体上的特定在线评论或评论感到愤怒,而其他人可能根本不会被激怒。 经常有人争论说有毒评论的概念是一个完全模糊的规则。 就像艺术,习惯上说艺术只能在旁观者的眼中理解,同样,偏见或有毒的言论也只能在旁观者的眼中。

Balderdash,有些反驳。 任何有理智的人都可以判断在线评论是否有毒。 你不需要成为火箭科学家就能意识到一些张贴的刻薄侮辱何时充满偏见和仇恨。

当然,社会习俗会随着时间的推移而发生变化。 不久前可能不会被认为是冒犯性的事情在今天可能被视为极其错误的。 最重要的是,多年前所说的曾经被视为过度偏见的事情可能会根据含义的变化而重新解释。 同时,其他人断言,有毒评论总是有毒的,无论它最初是在何时颁布的。 可以说毒性不是相对的,而是绝对的。

试图确定什么是有毒的问题仍然是一个相当困难的难题。 我们可以在这个棘手的问题上加倍努力,尝试设计算法或人工智能来确定哪个是哪个。 有人说,如果人类很难做出这样的评估,那么对计算机进行编程可能同样或更成问题。

设置包含有毒内容的数据集的一种方法涉及使用众包方法对内容进行评级或评估,因此提供了一种基于人的方法来确定哪些内容被视为有害内容,并将标签包含在数据集本身中。 然后,AI ML/DL 可能会检查数据和人工评分者已指示的相关标签。 这反过来又可以潜在地作为一种通过计算找到潜在数学模式的方法。 瞧,ML/DL 然后可能能够预测或计算评估给定评论是否可能有毒。

正如引用的关于细微差别指标的论文中所述:“该标签要求评估者对评论的毒性进行评级,从‘非常有毒’、‘有毒’、‘很难说’和‘无毒’中进行选择。 评估者还被问及几种毒性亚型,尽管这些标签没有用于这项工作的分析。 使用这些评级技术,我们创建了一个包含 1.8 万条评论的数据集,这些评论来自在线评论论坛,其中包含毒性和身份标签。 虽然所有评论都被标记为毒性,并且 450,000 条评论的子集被标记为身份。 一些标记为身份的评论是使用从以前的身份标签迭代构建的模型预先选择的,以确保人群评估者会经常看到身份内容”(在 Daniel Borkan、Lucas Dixon、Jeffrey Sorensen、Nithum Thain、Lucy Vasserman 引用的论文中)。

另一个旨在拥有包含说明性有毒内容的数据集的示例涉及训练基于 AI 的自然语言处理 (NLP) 会话交互系统的努力。 您可能已经与 Alexa 和 Siri 等 NLP 系统进行过交互。 我已经介绍了当今 NLP 的一些困难和限制,包括当 Alexa 向儿童提供不合适且危险的建议时发生的一个特别令人不安的实例,请参阅 这里的链接.

最近的一项研究试图使用九类社会偏见,这些偏见通常基于 EEOC(平等就业机会委员会)受保护的人口特征列表,包括年龄、性别、国籍、外貌、种族或民族、宗教、残疾状况、性方向和社会经济地位。 根据研究人员的说法:“NLP 模型学习社会偏见是有据可查的,但是关于这些偏见如何在诸如问答 (QA) 等应用任务的模型输出中表现出来的工作却很少。 我们介绍了 QA 的偏见基准 (BBQ),这是一个由作者构建的问题集数据集,它突出了在与美国英语语境相关的九个社会维度上对属于受保护阶级的人的经证实的社会偏见”(在题为“BBQ”的论文中) : A Hand-Built Benchmark For Question Answering”,作者:Alicia Parrish、Angelica Chen、Nikita Nangia、Vishakh Padmakumar、Jason Phang、Jana Thompson、Phu Mon Htut、Samuel R. Bowman)。

设置故意包含有偏见和完全有毒数据的数据集是人工智能的一个上升趋势,尤其是人工智能伦理的出现和产生伦理人工智能的愿望。 这些数据集可用于训练机器学习 (ML) 和深度学习 (DL) 模型,以检测偏差并找出导致社会毒性的计算模式。 反过来,经过毒性训练的 ML/DL 可以明智地针对其他 AI,以确定目标 AI 是否具有潜在的偏见和毒性。

此外,可用的受过毒性训练的 ML/DL 系统可用于向 AI 构建者展示需要注意的事项,以便他们可以轻松检查模型以了解算法上的偏差是如何产生的。 总体而言,这些努力能够证明有毒人工智能的危险性,这是人工智能伦理和人工智能道德意识的一部分。

在这个重要讨论的关键时刻,我敢打赌,您希望获得一些可能展示该主题的进一步说明性示例。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了使用数据集来设计有毒人工智能的效用,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和避免有毒人工智能

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

在自动驾驶汽车和自动驾驶汽车的出现面前,人工智能注入的偏见有很多潜力,并且有朝一日可能会实现,例如,参见我在 这里的链接这里的链接. 我们仍处于自动驾驶汽车推出的早期阶段。 在采用达到足够的规模和可见度之前,我一直预测最终会发生的许多有毒 AI 方面还不是很明显,也没有引起公众的广泛关注。

考虑一个看似简单的驾驶相关问题,乍一看似乎完全无害。 具体来说,让我们来看看如何正确判断是否停车等待没有通行权的“任性”行人。

毫无疑问,您一直在开车并遇到等待过马路的行人,但他们没有这样做的通行权。 这意味着您可以自行决定是否停下来让他们通过。 您可以在不让他们通过的情况下继续进行,并且仍然完全符合这样做的合法驾驶规则。

对人类驾驶员如何决定为此类行人停车或不停车的研究表明,有时人类驾驶员会根据不利的偏见做出选择。 人类驾驶员可能会看着行人并选择不停车,即使如果行人有不同的外观(例如基于种族或性别),他们也会停下来。 我已经在 这里的链接.

人工智能驾驶系统将如何编程以做出同样的走走停停决定?

你可以宣称所有的人工智能驾驶系统都应该被编程为总是为任何等待的行人停下来。 这大大简化了问题。 真的没有任何棘手的决定要做。 如果行人在等待过马路,无论是否有先行权,都要确保人工智能自动驾驶汽车停下来让行人过马路。

十分简单。

生活从来没有那么容易,似乎。 想象一下,所有的自动驾驶汽车都遵守这条规则。 行人将不可避免地意识到人工智能驾驶系统,容我们说,是推倒重来的。 任何和所有想要过马路的行人都会心甘情愿地这样做,无论何时何地。

假设一辆自动驾驶汽车以每小时 45 英里的限速行驶在一条快速街道上。 行人“知道”人工智能会让自动驾驶汽车停下来。 于是,行人飞奔到街上。 不幸的是,物理学胜过人工智能。 人工智能驾驶系统将试图让自动驾驶汽车停下来,但自动驾驶汽车的动力将携带重达数吨的装置向前冲撞任性的行人。 结果要么是有害的,要么是造成死亡。

当有人类驾驶员驾驶时,行人通常不会尝试这种行为。 当然,在某些地区会发生一场眼球大战。 一名行人注视着一名司机。 司机盯着行人。 视情况而定,司机可能会停下来,或者司机可能会声称他们对道路的要求,并表面上是敢于让行人试图扰乱他们的道路。

我们大概不希望 AI 卷入类似的眼球大战,这无论如何也有点挑战,因为没有人或机器人坐在自动驾驶汽车的方向盘上(我已经讨论过机器人的未来可能性那个驱动器,看 这里的链接)。 然而,我们也不能让行人总是做主。 结果可能对所有有关方面都是灾难性的。

然后,您可能会想转向硬币的另一面,并宣布人工智能驾驶系统在这种情况下永远不应该停止。 换句话说,如果行人没有适当的过马路权,人工智能应该始终假设自动驾驶汽车应该继续前进。 那些行人真倒霉。

如此严格和简单化的规则不会被广大公众所接受。 人就是人,他们不喜欢被完全排除在过马路之外,尽管他们在法律上缺乏在各种情况下这样做的通行权。 你可以很容易地预料到公众会引起轩然大波,并且可能会看到对继续采用自动驾驶汽车的强烈反对。

如果我们这样做该死,如果我们不这样做该死。

我希望这已经引导您找到合理的替代方案,即 AI 需要进行编程,以做出关于如何处理这个驾驶问题的决策。 永不停止的硬性规则是站不住脚的,同样,永远停止的硬性规则也是站不住脚的。 人工智能必须设计有一些算法决策或 ADM 来处理这个问题。

您可以尝试使用与 ML/DL 方法相结合的数据集。

以下是 AI 开发人员可能决定如何编写此任务的方式。 他们从放置在自动驾驶汽车将在其中使用的特定城市周围的摄像机收集数据。 数据展示了人类驾驶员何时选择为没有通行权的行人停车。 它全部收集到一个数据集中。 通过使用机器学习和深度学习,可以对数据进行计算建模。 然后人工智能驾驶系统使用这个模型来决定何时停止或不停止。

一般来说,这个想法是,无论当地习俗是什么,这就是人工智能指导自动驾驶汽车的方式。 问题解决了!

但是,真的解决了吗?

回想一下,我已经指出,有研究表明,人类驾驶员在选择何时为行人停车时可能存在偏见。 收集到的关于特定城市的数据可能会包含这些偏见。 然后,基于该数据的 AI ML/DL 可能会建模并反映这些相同的偏见。 人工智能驾驶系统只会执行相同的现有偏见。

为了尝试解决这个问题,我们可以将一个实际上具有这种偏见的数据集放在一起。 我们要么找到这样的数据集,然后标记偏差,要么我们综合创建一个数据集来帮助说明问题。

将采取所有先前确定的步骤,包括:

  • 设置一个有意包含此特定偏差的数据集
  • 使用数据集训练机器学习 (ML) 和深度学习 (DL) 模型以检测这种特定偏差
  • 将经过偏差训练的 ML/DL 应用于其他 AI,以确定目标 AI 是否可能以同样的方式存在偏差
  • 提供经过偏差训练的 ML/DL,向 AI 构建者展示需要注意的事项,以便他们可以轻松检查他们的模型,了解算法上的偏差是如何产生的
  • 通过这个添加的具体示例,将有偏见的 AI 的危险作为 AI 道德和道德 AI 意识的一部分举例说明
  • 其他名称

结论

让我们重温一下开场白。

要知道一个就需要一个。

一些人解释说,这个令人难以置信的流行说法意味着在挖掘有毒 AI 时,我们应该对构建和使用有毒 AI 以发现和处理其他有毒 AI 给予应有的信任。 底线:有时需要一个小偷才能抓住另一个小偷。

一个表达的担忧是,也许我们正在竭尽全力开始制造小偷。 我们想设计出有毒的人工智能吗? 这不是一个疯狂的想法吗? 一些人强烈认为我们应该禁止所有有毒的人工智能,包括故意建造的人工智能,即使据称是为了英雄或英勇 永远的人工智能 目的。

以任何可能出现的聪明或阴险的幌子压制有毒的人工智能。

现在关于这个话题的最后一个转折点。 我们通常认为这条著名的台词与做坏事或坏事的人或事有关。 这就是我们如何理解需要一个小偷才能抓住一个小偷的概念。 也许我们应该把这句话改头换面,让它更像一张快乐的脸,而不是一张悲伤的脸。

这里的如何。

如果我们想要无偏见且无毒的人工智能,可能需要一个人知道一个。 也许需要最伟大和最好的人来认识并产生更多的伟大和善良。 在这种圣人智慧的变体中,我们将目光集中在幸福的脸上,并专注于设计 人工智能永远。

如果你明白我的意思,那将是一个更加乐观和令人满意的快乐观点。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be-包括对那些自动驾驶汽车的有益/