人工智能伦理对受信任的内部人员(包括自动驾驶汽车)对人工智能机器学习的恶意榨取或兴奋剂的上升感到震惊

榨汁和兴奋剂。

兴奋剂和榨汁。

我们都知道在各种运动中可悲地依赖于可悲依赖的提高成绩的药物的持续和秘密使用。 这发生在职业运动甚至业余运动中。 它发生在奥运会上,理论上这是一场全球受人尊敬的比赛,应该是人类表现极限和全人类最高极限的纯粹典范。

榨汁和兴奋剂的行为具有一种普遍性。 体育人物在获得第一名方面承受着巨大的压力,他们很想使用任何他们可以做到的方式来获得第一名。 由于榨汁或服用兴奋剂的可能性,我们已经看到许多(如果不是大多数)运动已经制定了旨在阻止和抓住那些错误地遵守此类努力的人的程序和步骤。 如果有人被发现喝了果汁或使用兴奋剂,他们就有可能被吊销运动奖牌。 此外,他们很可能会被他们的支持者和赞助商抛弃。 巨大的声誉风险感与榨汁或兴奋剂的偶然行为密不可分。

渴望在特定运动中成为“最佳”的人在 不能 使用增强性能的药物并选择使用非法或至少不道德的物质。 使用药物几乎是通往顶峰的必经之路。 如果偷偷摸摸地管理并仔细注意,有可能没有人知道并且测试不会检测到它。 你可以侥幸逃脱,看似无拘无束。 当然,也有可能你正在伤害自己的身体并最终会付出身体上的代价,但对当下获胜机会的强烈渴望往往会淡化未来的任何后果。

因此,一方面,我们有巨大的潜力通过使用提高成绩的药物获得荣耀甚至财富,而另一方面,我们有被抓住并被剥夺原本来之不易的奖金的不光彩的机会并成为一个可怕的世界公众人物(以及与健康相关的不良后果)。

这是需要进行的某种重要的成本效益分析。

有些人会进行心理 ROI(投资回报)​​计算,并决定永远不要接触任何提高性能的药物。 他们决心保持完全清洁和纯洁。 其他人可能会以这种方式开始,然后稍微偏离。 您可能会认为滑落只是进入提高性能的水域的一个小脚趾,并郑重地对自己发誓,您再也不会这样做了。 但是,这可能会导致滑坡。 经典且可预测的众所周知的雪球会在白雪皑皑的山坡上滑动和滚动,并在此过程中聚集成一个越来越大的球。

你也有那些预先决定他们将继续使用提高性能的药物的人。 一种典型的思维模式是,唯有以火攻坚。 所做的假设是,与您竞争的其他所有人都在做同样的事情。 因此,对你来说,保持纯洁并反对那些明显不纯洁的人(所以你假设)是绝对没有意义的。

我想你可以明白为什么测试和检测的性质在这些问题上尤其重要。 如果一些参与者可以逃脱使用提高性能的药物,它会破坏整个桶。 一寸一寸,所有其他参与者几乎肯定会走同样的路。 他们必须做出可怕的选择。 这需要在没有药物的情况下竞争,但可能处于身体劣势,或者他们必须采用药物并保持竞争力,尽管他们可能全心全意地想要并且可能不必求助于性能增强剂。

一个困境,肯定的。

还有更多的环境混淆了这些情况。 例如,一个不断出现的问题是什么实际上是一种提高性能的药物。 当局可能会提出一份禁用药物的清单。 与此同时,在猫捉老鼠的策略中,设计或确定了其他药物,这些药物将提供性能增强,但不在禁用化学品清单上。 您可以尝试保持领先一步,改用其他药物并保持在游戏规则内。

最重要的要点是榨汁和兴奋剂不一定是一个简单的话题。 是的,我们可能都同意榨汁或兴奋剂是残酷的,不应该进行。 是的,我们可能都同意,应该有关于不榨汁和不使用兴奋剂的严格规定,同时采取严厉的措施来抓捕那些迷路的人。 不幸的是,有很多诡计可以破坏这些崇高的目标。

为什么我与你分享榨汁和兴奋剂的考验和磨难?

我这样做是因为你可能会感到吃惊、烦恼、沮丧和心痛。

你看,越来越多的声音声称人工智能有时会通过使用榨汁或兴奋剂(某种方式)来“提高性能”。 这个概念是,在设计 AI 系统时,开发人员可能会采取一些不为人知的策略,以使 AI 看起来比实际情况更好。 这反过来又可以诱使其他人假设人工智能具有它真正不具备的能力。 后果可能是轻微的,也可能是危险的可怕。

想象一个人工智能系统玩跳棋,它(我们应该说)“性能增强”看起来好像它永远不会输掉跳棋的游戏。 一些投资者在游戏中投入了大量资金,他们错误地认为人工智能将永远获胜。 投入公众使用后,人工智能赢得了胜利。 在某些时候,它可能会输掉一场比赛。 咳咳,怎么了? 无论如何,在这个用例中,这不太可能是生死攸关的考虑。

想象一下一个驱动自动驾驶汽车的人工智能系统。 人工智能“性能增强”,看起来好像可以安全无事故地驾驶。 有一段时间,自动驾驶汽车在公共道路上使用,一切似乎都很好。 可悲的是,在某些时候,人工智能误入歧途,发生车祸,这显然是人工智能系统的错误。 人类可能会受伤并可能出现死亡事件。 在这种情况下,人工智能的榨汁或兴奋剂会产生严重的生死攸关的后果。

我意识到当谈到人工智能时,你可能会因为提到榨汁和兴奋剂而感到心痛。 我这样说是因为今天的人工智能绝对没有感知力,我们在拟人化人工智能时应该谨慎,我将在本文稍后进一步详细阐述。 简而言之,人工智能不是人类,也不是任何接近人类的东西。 试图比较两者并与榨汁或兴奋剂的传统概念保持一致有点粗略,应该睁大眼睛去做。

我将继续提出人工智能的榨汁和兴奋剂的类似想法,尽管我要求你记住,这是不应该走得太远的事情。 我们可以在某种程度上合理地倾向于将措辞作为一种暴露我认为非常需要暴露的方面的手段。 这是使用流行语的可行基础。 但我们不应该把它延伸到冥界,把它变成它不是的东西。 稍后我将对此进行更多说明。

与人工智能相关的榨汁和兴奋剂最受关注的人工智能的一个方面是一些开发人员正在以某些方式制作基于人工智能的机器学习 (ML) 和深度学习 (DL) 系统。 在机器学习/深度学习系统的开发过程中,有很多与这些恶意行为有关的人工智能伦理和人工智能伦理后果。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接, 仅举几例。

让我们也保持头脑清醒,并在整个讨论过程中强调这些方面:

  • 并非每个设计 AI ML/DL 的人都在对 ML/DL 进行榨汁或掺杂
  • 有些人这样做,但并没有特别意识到做错了什么
  • 有些人这样做并且确切地知道他们在为 ML/DL 榨汁或掺杂他们在做什么
  • 与运动场不同,对于当代 ML/DL 而言,这些类型的事项几乎没有正式标准化的全面“测试或检测”
  • 根据 ML/DL 的性质(例如,人工智能下跳棋、人工智能驾驶自动驾驶汽车),这样做的不利后果可能会有很大差异。
  • 一些人认为这些行为本身并没有什么不当之处
  • ML/DL 中什么是果汁或兴奋剂的定义无处不在
  • AI Ethics 正在努力解决如何最好地应对表面上新兴的趋势

我想澄清这个话题的另一个转折点。 我请求你在这件事上容忍我。 不知何故,有些人完全误解了这个问题,并陷入了一种奇怪的想法,即人工智能开发人员自己正在服用增强性能的药物,因此这是关于人类自己在榨汁和服用兴奋剂的讨论。

这通常会引起许多 AI 开发人员的嘲笑。

非常清楚,这不是我所指的。 我在此明确且仅关注人工智能本身的所谓榨汁和兴奋剂,而不是设计人工智能的人类。 话虽如此,我并不是说不可能有人工智能开发人员出于某种原因选择服用提高性能的药物。 似乎有一个完全合适的运动类比可以与 AI 开发人员的行为相媲美,他们可能决定服用增强性能的非法药物,但我将其留给可能希望探索该领域的其他研究人员。 我只想说,无论出于何种原因服用任何提高成绩的药物都绝对不谨慎,而且绝对是非法的、不道德的,而且非常不明智。

我相信这有助于解决问题。

在深入了解 AI 的榨汁和兴奋剂之前,让我们先建立一些关于非常重要的主题的额外基础知识。 我们应该轻松地进入 AI Ethics 和 ML/DL 领域,以适当地设置舞台。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

现在让我们回到人工智能榨汁或兴奋剂的话题。

在最近的一篇文章 科学 杂志,机器学习和深度学习的榨汁或兴奋剂出现在人工智能开发人员努力在 ML/DL 基准测试中获得高分的背景下:“追求高分可能导致人工智能相当于兴奋剂。 研究人员经常使用特殊的软件设置或硬件对模型进行调整和榨汁,这些软件设置或硬件在基准测试中可能因运行而异,从而导致模型性能在现实世界中无法重现。 更糟糕的是,研究人员倾向于在相似的基准中挑选,直到他们找到一个他们的模型脱颖而出的基准”(科学, Matthew Hutson 的“经受考验”,2022 年 XNUMX 月)。

您可以将涉及榨汁的 ML/DL 基准情况比作前面关于试图通过这种不良做法在体育比赛中获胜的观点。

在 AI 领域,存在一种竞争,看谁能获得“最好的”ML/DL 模型。 可以使用各种基准来运行 ML/DL 并衡量 ML/DL 在基准上的得分情况。 排行榜和基准结果的非正式共享通常用于吹捧谁通过其 ML/DL 配置获得了最新的最高位置。 您可以合理地建议,一些名誉和财富等待着那些能够将他们的 ML/DL 打造成为基准测试中最新和最出色表现者的“赢家”。

但就像任何类型的比赛一样,有一些方法可以尝试欺骗您的 ML/DL,以便它看起来在基准测试中表现出色,即使正在应用引擎盖下的潜行。 这是通过磨练您的考试方法来在考试中取得好成绩的经典腐败,而一般原则应该是您试图确定整体表现。

想象一下,给某人做一个测试,旨在衡量他们对美国文学的整体理解,但应试者发现问题只会集中在马克吐温身上。 因此,应试者只学习马克吐温的作品,并在考试中获得高分。 应试者自豪地宣称他们在考试中取得了优异的成绩,因此显然是所有美国文学的天才。 实际上,他们只是在测试中磨练,在某种意义上欺骗了测试过程。

我意识到有些人可能会立即指责考试以及准备考试的人。 如果测试者足够密集以允许应试者利用测试,您可能会争辩说这完全是测试者而不是应试者的责任。 考生尽其所能为考试做准备,包括弄清楚他们应该学习什么。 这不仅看起来是允许的,您还可以祝贺应试者比测试者更聪明。

我不会在这里进一步探讨道德深渊。 您可以轻松地在这样的主题上转来转去。 假设 ML/DL 基准的精神是希望或假定那些使用基准的人以体育精神的方式这样做。 这对某些人来说可能看起来很幼稚,而在另一些人看来却是光明正大的。

我希望你能立即看到 AI Ethics 和 Ethical AI 考虑是如何在这样的背景下自然产生的。

例如,考虑给定的 ML/DL 在基准测试中表现非常出色,而提高分数的基础是由于 AI 的榨汁或兴奋剂。 进一步假设“获胜”的 ML/DL 的 AI 开发人员没有透露他们榨取了 AI。 其他 AI 开发人员听到或阅读了 ML/DL 性能的结果,并对 AI ML/DL 的看似突破感到兴奋。 他们可悲地没有意识到人工智能隐藏的榨汁或兴奋剂。

那些兴高采烈的 AI 开发人员选择将他们的工作转向特定 ML/DL 的假定方法,以进一步扩展功能。 在某些时候,也许他们发现他们已经碰壁了,令他们不快的是,他们似乎一无所获。 这可能非常令人困惑和恼火。 他们已经为一些他们没有意识到一开始就被榨取汁液的东西辛勤工作了几个月或几年。 再一次,我意识到你可能希望对那些现在很失望的 AI 开发人员进行指责,他们显然不够聪明,无法早先发现榨汁机,但我敢说,我们也可能会担心有些榨汁机开始了事情路径,开始。

所有这一切肯定让人想起体育类比。

你有赢的欲望,似乎不惜一切代价。 有些人的目标是在不榨汁的情况下获胜,而另一些人则完全榨汁。 那些使用榨汁的人可能会将这种活动合理化为合法的。 尝试减少或捕获榨汁的努力已经到位,尽管这种情况的猫和老鼠性质意味着榨汁可能会领先一步。 当榨汁的人被抓住时,他们可能会面临声誉反弹和其他不利后果的风险。 他们一直在权衡感知的好处与感知的成本。 等等。

捕捉 AI ML/DL 榨汁的困难在于,有无数种方法可以进行榨汁或兴奋剂。 有人假设您可以对运动和榨汁说同样的话,即可以使用多种方法和性能增强剂来尝试保持低调。

无论如何,以下是在 AI ML/DL juicing 尝试中需要考虑的一些广泛类别:

a) 机器学习和深度学习设计阶段的果汁

b) 榨汁用于训练 ML/DL 的数据

c) 榨汁 ML/DL 模型

d) 榨汁 ML/DL 输出

e) 将以上两项中的任何一项结合起来

f) 结合以上三项中的任何一项

g) 执行以上所有操作

我已经广泛地介绍了 ML/DL 最佳实践的使用,并同样在我的专栏中预先警告了令人讨厌的 ML/DL 实践的使用。 如果您想了解更多详细信息,我们鼓励您查看。

作为一种品味,让我们简要考虑一下通过用于训练 ML/DL 的数据可能发生的那种榨汁。 通常的经验法则是,您保留一些训练数据以测试您的 ML/DL 模型。 通常的建议是使用 80/20 规则。 您使用大约 80% 的数据来训练 ML/DL。 剩下的 20% 用于测试 ML/DL。 希望这 20% 相对于其他 80% 具有代表性,并且您可以简单地随机选择您的训练数据中的哪些在训练集中,哪些在测试集中。

看起来很简单。

我们现在将做一些榨汁或兴奋剂:

  • 偷偷地镜像你的训练数据和测试数据. 解决问题的一种方法是仔细检查您的数据,并尝试有目的地确保 80% 和 20% 完美对齐。 您不会随机划分数据。 相反,你做了一个秘密的选择,试图让 80% 和 20% 的字母彼此相似。 这是为了让你的测试看起来非常好。 本质上,如果您的 ML/DL 在 80% 上表现出色,那么几乎可以保证在 20% 上表现出色。 这样做不符合事情的精神,因为您可能会欺骗自己(和其他人)相信 ML/DL 在计算上已经完成了出色的泛化工作。 它可能没有。
  • 缩短测试数据。 另一种榨取 ML/DL 数据集的方法是将训练数据划分为 95% 的数据,而保留测试数据仅占 5%。 这可能会增加您认为在微不足道的 5% 中没有任何东西会削弱 ML/DL 性能的可能性。 很少有人会问你有多少数据用于训练和测试。 他们不知道问这个问题或假设你所做的一切都是正确的做事方式。
  • 提前去除异常值. 榨取或掺杂您的 ML/DL 的一种狡猾的方法涉及对数据中异常值的欺骗。 在将任何数据输入到萌芽的 ML/DL 之前,首先要检查数据。 这是一个谨慎的步骤,强烈推荐,因为在将数据放入 ML/DL 之前,您应该熟悉数据。 话虽如此,这是可以使用的诡计。 您在数据中发现任何异常值并将其丢弃。 这通常有助于 ML/DL 的数学运算,当它试图通过计算找到模式时。 异常值通常很难处理,尽管它们通常很关键,并且可以说明数据的性质以及您尝试建模的任何内容。 通过盲目地剔除异常值,你肯定会错过一些可以决定 ML/DL 应该能够做什么的现实。 更好的做法是关注异常值并考虑如何最好地应对它们,而不是草率地将它们踢出数据集。
  • 根本不做测试。 榨汁或兴奋剂的更离谱的行为需要根本不进行任何测试。 您使用所有数据进行训练。 如果事情看起来不错,你就举手宣布 ML/DL 可以开始了。 从这个意义上说,您使用的是 100/0 的经验法则,即 100% 的数据用于训练,0% 用于测试。 我猜你可能会对有人会这样做感到震惊。 好吧,有些人对培训结果非常放心,以至于他们认为不需要测试。 或者他们很匆忙,没有时间处理那些“烦人”的测试内容。 你得到图片。

我之前提到过,如果 AI 本身的性质不是特别重要,那么 AI 的榨汁或兴奋剂可能会有些无关紧要,而其他设置可能涉及 AI 指导的生死攸关的后果,因此榨汁是一个非常薄弱的​​环节,并且坟墓厄运的潜在预兆。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于 AI 的真正自动驾驶汽车的出现是否说明了有关 AI 榨汁或兴奋剂的任何信息?如果是,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能的榨汁或兴奋剂

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

我们首先要对 ML/DL 在基于 AI 的自动驾驶汽车领域的使用赞不绝口。 由于使用机器学习和深度学习,自动驾驶汽车的几个关键方面已经实现。 例如,考虑必须检测和分析围绕基于 AI 的自动驾驶汽车的驾驶场景的核心要求。

您无疑已经注意到,大多数自动驾驶汽车都在自动驾驶汽车上安装了无数传感器。 这通常在自动驾驶汽车的车顶上进行。 诸如摄像机、LIDAR 单元、雷达单元、超声波检测器等的传感器设备通常包括在车顶行李架上或可能固定在车顶或车辆侧面。 传感器阵列旨在以电子方式收集可用于确定驾驶场景中存在的数据的数据。

传感器收集数据并将数字化数据提供给车载计算机。 这些计算机可以是通用计算处理器和专门设计用于分析感官数据的专用处理器的组合。 总的来说,大部分感官数据计算分析是由 ML/DL 进行的,ML/DL 专门为此目的而设计,并在车辆的车载计算平台上运行。 有关其工作原理的详细说明,请参阅 这里的链接这里的链接,仅举几例。

ML/DL 通过计算尝试在数据中找到模式,例如道路在哪里、行人在哪里、附近的其他汽车在哪里等等。 所有这些对于能够让自动驾驶汽车继续前进至关重要。 如果没有 ML/DL 执行驾驶场景分析,自动驾驶汽车对于自动驾驶汽车周围存在什么基本上是盲目的。

简而言之,您可以很容易地证明,ML/DL 的使用对于基于 AI 的自动驾驶汽车的出现至关重要。

你能对基于 AI 的自动驾驶汽车相关的 ML/DL 进行榨汁或掺杂吗?

绝对。

当涉及到 ML/DL 配方的数据方面时,我们可以很容易地引用前面提到的榨汁或兴奋剂的例子。 请记住,用于扫描行人、汽车和其他道路物体的 ML/DL 可能首先在各种驾驶场景数据集上进行训练。 ML/DL 的这种训练有助于 AI 驾驶系统在指挥自动驾驶汽车驾驶控制的同时正确、安全地在街道上导航。

以下是榨汁或兴奋剂可能会不经意地做的事情:

  • 偷偷地镜像你的训练数据和测试数据. 您将用于在道路对象上训练 ML/DL 的数据集收集在一起,并有意对齐训练部分和测试部分。 您遵守经验法则,将数据分为 80% 用于训练和 20% 用于测试,因此这似乎是正确的方法。 最重要的是你移动数据以确保 80% 和 20% 惊人地相似。 您正在堆叠甲板以支持您在培训期间设计的任何 ML/DL。
  • 缩短测试数据。 您将训练数据划分为总数据集的 95%,仅将 5% 放入测试数据部分。 进行测试时,事实证明您已经减少了 ML/DL 看起来不好的机会。
  • 提前去除异常值. 在一开始仔细检查数据时,您会发现有些广告牌上有人物照片。 您担心这会混淆您的 ML/DL,因此您从数据集中删除了这些图像或视频。 完成训练和测试后,您就可以声明您的 ML/DL 已准备好在野外使用。 不幸的是,在某些时候,必然会出现这样一种情况,即自动驾驶汽车在街道或高速公路上行驶,并且上面有一个带有人物照片的广告牌。 你不知道你的 ML/DL 会如何反应。 可能是 ML/DL 警告行人在附近,因此 AI 驾驶系统突然猛踩刹车,促使附近的其他人工驾驶汽车撞上自动驾驶汽车或驶离道路以避免碰撞。
  • 根本不做测试。 您急于进行 ML/DL 设置。 也许这家自动驾驶公司已经发布了一个日期,说明自动驾驶汽车何时进行重要的公开演示。 你没有太多时间以正确的方式做事。 因此,您可以保持双手交叉并使用所有数据进行训练。 你根本不做任何测试。 你有一种如释重负的感觉,因为你能够在规定的最后期限之前完成。 当然,道路上接下来发生的事情可能是一场正在酝酿中的灾难。

结论

一般来说,真正的自动驾驶汽车制造商对于允许偷工减料和在其新兴的人工智能驾驶系统中执行榨汁或兴奋剂操作来冒险是相当谨慎的。 通常有大量的检查和平衡来尝试检测和纠正任何此类行为。 此外,许多公司已经建立了一些严格的 AI 道德规范和警报机制,以尝试及早发现可能发生的任何失误或不正当行为,请参阅我的报道 这里的链接.

一些将人工智能自动驾驶汽车组合在一起的夜以继日的尝试选择将谨慎抛诸脑后。 他们肆无忌惮地走他们能想到的任何捷径。 此外,他们很少进行双重检查或试图阻止任何榨汁或兴奋剂。 一些人甚至通过仅仅指示他们的人工智能开发人员做“他们认为正确的任何事情”来使用看似合理的否认的经典,然后可以随后宣称该公司不知道人工智能正在发生什么榨汁或兴奋剂。 我已经在我的专栏中讨论了这些危险的努力。

就自动驾驶汽车而言,生死攸关。

补充一点是,如果有可能在自动驾驶汽车领域中加入或掺杂人工智能,你必须想知道在其他依赖人工智能系统的生死攸关的领域中可能会允许什么。 尽快让人工智能走出大门的压力是巨大的。 确保人工智能以正确的方式做正确的事情的压力可能会少得多。 可悲的是。

除了对与人工智能相关的榨汁和兴奋剂的道德担忧外,我还继续对即将到来的有关这些问题的法律诉讼海啸进行抨击。 当人工智能系统逃脱了残暴的活动时,那些设计和部署人工智能的人最终会发现自己被追究责任。 我们还没有看到针对那些制造人工智能和在其业务中使用人工智能的人的法律案件的增加。 记下我的话,清算将不可避免地出现,请参阅我的报道 这里的链接.

公司将在法律上被迫敞开大门,展示他们如何组装人工智能系统。 他们在设计过程中做了什么? 他们在数据工作期间做了什么? 作为发布前测试的一部分,他们做了什么? 所有这些都将揭示看不见的、在引擎盖下的人工智能榨汁和兴奋剂的可能性。

应该有 不能 为那些选择进行人工智能榨汁和兴奋剂的人提供免费午餐。 保持警惕并睁大眼睛。 挺身而出,坚持AI反榨汁、反兴奋剂。

我们需要干净的人工智能,这是肯定的。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/06/07/ai-ethics-alarmed-at-the-rise-in-underhanded-juicing-or-doping-of-ai-machine-受信任的内部人员学习,包括自动驾驶汽车/