人工智能伦理对在人类获得短板的情况下人工智能不对称性的恶化持谨慎态度

有时你走错了路。

这种俗语可以应用于不对称的概念。

是的,我将谈论不对称。 正如您可能在我们生活的这个颠倒的世界中遇到的那样,有时您可能会发现自己对一件对您而言相对重要的事情知之甚少。 这被正式称为 信息不对称.

关键是你拥有的知识或信息比你希望拥有的要少,而且你所拥有的显然比参与此事的另一方要少。 与对方相比,您处于明显的劣势。 他们知道一些你不知道的事情。 他们可以利用他们所知道的,尤其是在你不知道的方面,并在与你的任何粗暴的审议或谈判中占据上风。

好吧,镇上有一个新孩子,被称为 人工智能不对称.

这个最新的流行语是指你有可能与拥有人工智能的人对抗,而你并没有那么武装。

他们有人工智能,而你有,好吧,只有你。 事情是不平衡的。 你处于假定的劣势。 由于被人工智能增强,对方将能够围绕你转圈。 这可能是在爱情和战争中一切都是公平的那句名言中(一句古老的谚语创造了 尤菲斯 John Lyly,1578 年),尽管 AI 不对称的动态和危险引发了具有挑战性的道德 AI 问题。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

在我们进入 AI 领域及其与 AI 不对称有关的大量复杂性之前,让我们首先探索普通旧信息不对称的日常常规版本。 这将为进入众所周知的人工智能新手奠定基础。

一个简短而有目的的启发性故事可能会激起您的胃口。

前几天,我在路上遇到了爆胎,我正在迅速寻找可以立即安装的合适替代品。 使用智能手机,我在网上查看了附近的轮胎商店,以了解我必须使用防爆轮胎行驶的距离以及是否有商店营业。 此外,我对他们的在线客户评论进行了快速评估,并试图收集任何有用的信息,例如他们经营了多长时间以及其他可能展示他们价值的因素。

在给其中一家轮胎店打电话后,店员给了我一份关于轮胎及其安装成本的轻松报价。 轮胎并不是我想的那样,但店员向我保证,他们将是该地区唯一一家可以立即完成工作的商店。 据店员介绍,附近的其他任何一家轮胎店都没有这种轮胎库存,这些竞争对手至少需要一天的时间才能从某个半远的仓库中获得合适的轮胎。

我正处于信息不对称之中。

店员自称更了解当地轮胎店的状况,尤其是我需要的轮胎类型。 我在一个我只是路过的地区,对那个特定地理区域的轮胎店没有任何第一手知识。 据我所知,店员很准确,给了我赤裸裸的真相。

但是店员这样做了吗?

可能是,可能不是。

可能是店员真诚地相信传达给我的一切。 对店员来说,这就是事实。 或者也许店员有点夸大事实。 有可能所说的话可能是真的,尽管它被描绘的方式暗示它是完全和无可辩驳的真理。 当然,它也可能完全是胡说八道,店员只是为了让轮胎店获得我的生意。 一个多汁的佣金可能已经上线了吗?

我敢说没有人喜欢处于这样一个弱者的位置。

局势的利害关系是信息不对称有多重要的一个重要因素。 如果手头的问题是生死攸关的问题,那么呆在狗窝里并依靠对方知道或声称知道的事情是一种粗略且极不受欢迎的姿势。当风险很低时,比如在餐馆点晚餐,服务员告诉你这道鱼菜是天堂,但你以前从未在那里吃过饭,而且信息不灵通,你可以接受这种信息不对称,而不必太担心(我还假设您还打赌服务器不会冒险给出不好的建议并错过获得体面的小费)。

回到破旧轮胎的故事(双关语!),我无法立即确定店员是否给了我可靠和信息丰富的见解。 你可能想知道发生了什么。 我决定打电话给附近的其他几家轮胎店。

你准备好接受我的发现了吗?

所有其他轮胎商店都有我想要的轮胎库存,并且不会尝试眨眼说服我换一个轮胎(就像第一个店员试图做的那样)。 他们还可以在与我打电话的第一家轮胎店相同的时间内完成工作。 价格差不多。

我向你保证,我松了一口气。

具有讽刺意味的是,在墨菲的厄运定律中,我联系的第一个地方是唯一一个似乎出去吃午饭的地方,事实上。 我很高兴我试图获得更多信息。 这缩小了信息不对称的差距。 我为自己坚持自己的立场而不同意我打电话的第一个地方而鼓掌。

话虽如此,在我获取额外信息的过程中需要付出一定的代价。 我打了大约四个电话,每个电话都需要大约十五到二十分钟才能完全接听。 从这个意义上说,我用了大约一个半小时,只是想知道把车开到哪里去。 如果我立即把我的车开到第一个地方,那么到那时新轮胎几乎已经装在我的车上了。 另一方面,我几乎可以肯定,后来我会后悔在卑鄙的信息不对称束缚中做出的快速决定。

有时你必须咬紧牙关,面对可怕的信息不对称。 你只是希望无论你做出什么决定,都会足够好。 这可能不是一个“完美”的决定,你以后可能会后悔做出的选择。 另一个角度是,您可以尝试支持信息等式,尽管这不一定是免费的,而且还可能会浪费宝贵的时间,这取决于珍惜的时间是否至关重要。

既然知道我的车用全新的正确轮胎运行良好,无疑让你感到欣慰,我可以转向 AI Asymmetry 的出现。

考虑一个 AI 的悲惨故事。

您正在寻求获得房屋贷款。 有一个特定银行正在使用的在线抵押贷款请求分析器。 在线系统利用了当今先进的人工智能功能。 无需与人​​工贷款授予代理交谈。 人工智能做到了这一切。

AI 系统会引导您完成一系列提示。 您尽职尽责地填写表格并响应 AI 系统。 这个AI很健谈。 虽然您过去可能使用过传统的基于计算机的表单系统,但这种 AI 变体更类似于与人类代理进行交互。 不完全是,但足以让你几乎开始相信有人在这项活动的另一边。

在尽力与这个人工智能“讨论”你的请求后,最后它会通知你不幸的是贷款请求没有被批准。 人工智能似乎在道歉,这有点让你的山羊感到困惑,好像人工智能想要批准贷款,但那些监督银行的卑鄙人不会让人工智能这样做。 有关我对这些所谓的人工智能道歉有多么误导的报道,请参阅 这里的链接.

你不知道你为什么被拒绝。 AI不提供任何解释。 也许人工智能在计算中犯了错误或搞砸了。 更糟糕的是,假设人工智能在决定贷款时使用了一些非常有问题的考虑因素,例如你的种族或性别。 你所知道的是,你似乎在浪费时间,同时还把大量私人数据交给了人工智能和银行。 他们的人工智能打败了你。

这将被标记为人工智能不对称的一个例子。

是你反对银行。 银行配备了人工智能。 你没有同样武装。 你有你的智慧和你的硬敲智慧学校,但你的后兜里没有人工智能。 反对机器。 可悲的是,机器在这种情况下赢了。

你要做什么?

首先,我们需要在社会基础上认识到这种人工智能不对称正在增长并变得几乎无处不在。 人类在我们每天与之交互的所有系统中都遇到了人工智能。 有时 AI 是我们与之交互的唯一元素,例如在此示例中关于贷款请求的内容。 在其他情况下,人类可能处于依赖 AI 帮助他们执行给定服务的循环中。 对于贷款,银行可能会让您与人工代理交谈,而不是与 AI 交互,但人工代理正在使用计算机系统访问在贷款请求过程中指导人工代理的 AI (而且,你几乎总是可以保证让人类代理表现得好像他们被囚禁了,因为他们必须严格执行人工智能“告诉他们做什么”的任何事情)。

无论哪种方式,人工智能仍在混合中。

其次,我们需要尝试并确保 AI 不对称至少是在 AI 道德的基础上进行的。

请允许我解释一下这个看似古怪的言论。 你看,如果我们可以确定 AI 以一种合乎道德的方式行事,我们可能会对正在发挥作用的不对称性感到安慰。 在某种程度上类似但也松散的基础上,你可能会说,如果我与第一个轮胎店店员的互动有一些尖锐的道德准则并得到执行,也许我不会被告知我被告知的故事,或者至少我不会可能不必立即寻找是否有人给了我一个高大的故事。

稍后我将解释更多有关 AI 伦理的信息。

第三,我们应该寻求减少人工智能不对称的方法。 如果你有 AI 在你身边,努力成为你的教练或保护者,你也许可以使用该 AI 与你将与之正面交锋的另一个 AI 进行反击。 正如他们所说,有时以火攻毒是很有意义的。

在深入了解 AI 不对称背后的狂野和毛茸茸的考虑之前,让我们建立一些关于非常重要的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到我们对 AI 不对称性的关注。

快速回顾一下我前面提到的三个已确定的建议是:

1) 意识到人工智能不对称的存在并且正在增长

2) 寻求确保 AI 不对称受到 AI 伦理的约束

3) 尝试通过配备 AI 来应对 AI 不对称

我们将仔细研究后一个以火攻克的观点。

想象一下,当您寻求贷款时,您的 AI 正在帮助您。 这可能是您智能手机上为获得贷款而设计的基于人工智能的应用程序。 它不是一家银行的应用程序,而是独立设计以代表您行事。 我在关于基于 AI 的守护天使机器人的书中详细介绍了这些类型的应用程序,请参阅 这里的链接.

在您申请贷款时,您可能会在其他 AI 逐步完成申请流程时参考此应用程序。 这两个人工智能系统是截然不同的,并且彼此完全分开。 您智能手机上的 AI 已经过“训练”,可以了解其他 AI 使用的所有技巧。 因此,您输入银行 AI 的答案将基于您的 AI 向您提供的建议。

另一个变体包括你的 AI 回答另一个 AI 提出的问题。 就其他 AI 可以确定的而言,是你在输入答案。 相反,您可能只是在观看两个战斗 AI 系统之间发生的交互。 这使您可以查看您的 AI 提供的内容。 此外,您可以根据您对 AI 代表您所做的事情是否满意来调整您的 AI。

我曾预测,在这些 AI 不对称的情况下,我们都将逐渐成为 AI 的武装。

让我们考虑一下这将如何解决。

这些是我列出的对 AI 不对称条件的基石影响:

  • 对你有利的 AI 不对称性展平 (带你向上,希望达到同等水平)
  • 激发对你有利的 AI 不对称性 (在已经平等的情况下提高你的优势)
  • 将 AI 不对称提升至您的非凡青睐 (在已经处于优势时获得更广泛的优势)
  • 无意中削弱了你对 AI 的不对称性 (当你有一个预先存在的优势并且人工智能无意中把你拉下来时)

是时候深入研究这些有趣的可能性了。

将 AI 的不对称性展平以利于你

扁平化 AI 不对称性是最明显和最常讨论的考虑因素,即您将用 AI 武装自己,尝试与手头的另一方使用的 AI 正面交锋。 AI 不对称设置一开始就让你处于明显的劣势。 你的角落里没有人工智能。 你在事情的低端。 另一边确实有人工智能,而且他们在更高的地方。

因此,你明智地用人工智能武装自己,旨在让你和其他人工智能处于平等地位。

要记住的一个重要且可能令人惊讶的细微差别是,所使用的人工智能系统并不总是会相互平衡。 你可能会用人工智能武装自己,我们应该说它不如对方正在使用的人工智能强大。 在这种情况下,你增加了你的下行头寸,谢天谢地,尽管你现在并不完全等同于对方及其 AI。

这就是为什么我将其称为扁平化 AI 不对称性。 您也许可以缩小差距,但不能完全缩小差距。 最终目标是在你身边使用人工智能,让你处于完全平等的姿势。 问题是,这可能可行,也可能不可行。 可以想象,另一方可能拥有一些非常昂贵的人工智能,而你正试图与流行的节俭型人工智能竞争。

并非所有的人工智能都是一样的。

激发 AI 不对称对您的青睐

这种情况今天很少讨论,部分原因是现在很少见。 总有一天,这将是家常便饭。 这个概念是假设你没有人工智能,但仍然与拥有人工智能的一方处于同等地位。

对你有好处。

人类确实有他们的智慧。

但是您可能希望获得优于对方的优势。 用 AI 武装自己,带你进入更高的境界。 您现在拥有自己的智慧和值得信赖的 AI。 你已经获得了可能会战胜对方人工智能的优势。

增强 AI 不对称性,为您带来非凡的青睐

使用类似的逻辑作为代表你激发 AI 不对称的方面,假设你已经超越了使用 AI 的另一方的能力。 因此,你不是从一个平等的姿势开始的。 幸运的是,您已经处于领先地位。

无论如何,您可能希望获得更大的优势。 因此,你用人工智能武装自己。 这会让你的头和肩膀高于另一侧。

无意中削弱了你对 AI 的不对称性

我怀疑你想听听这种可能性。 请意识到,处理人工智能并不全是玫瑰和冰淇淋蛋糕。

可能是当你用人工智能武装自己时,你实际上削弱了自己。 如果你已经低于对方的 AI,那么你现在就掉进了一个更深的坑里。 如果你们处于平等地位,那么你们现在处于劣势。 如果你在另一边之上,你现在等于或低于它。

怎么会这样?

想到您采用的 AI 会让您误入歧途,您可能会感到震惊。 这很容易发生。 仅仅因为你的角落里有人工智能并不意味着它是有用的。 您可能正在使用 AI,它提供了您不一定认为合适的建议,但您还是决定使用它。 你当时的逻辑是,既然你费尽心思得到了人工智能,那你还不如依赖它。

您使用的 AI 可能有缺陷。 或者它可能设计得不好。 人工智能给你的建议不可靠的原因有很多。 那些盲目接受人工智能所说的任何事情的人,必然会发现自己处于一个受伤的世界。 我已经在我的专栏中介绍过这样的困境,例如 这里的链接.

底线是,绝对不能保证仅仅因为你用人工智能武装自己,你就会在人工智能不对称游戏中获胜。

你可能会到达一个公平的竞争环境。 你可能会获得优势。 而且,令人遗憾的是,您需要谨慎,因为当您使用 AI 时,您可能会陷入低谷。

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。 人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要。

除了采用人工智能伦理之外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。 例如,请参阅我的报道 这里的链接这里的链接.

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于 AI 的真正自动驾驶汽车的出现是否说明了有关 AI 不对称性的任何信息?如果是这样,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能不对称

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

让我们勾勒出一个展示 AI 不对称性的场景。

考虑一下自动驾驶汽车将在哪里漫游以接载乘客这一看似无关紧要的问题。 这似乎是一个非常无害的话题。

首先,假设人工智能自动驾驶汽车将在整个城镇漫游。 任何想要求乘坐自动驾驶汽车的人基本上都有平等的机会叫到一辆自动驾驶汽车。 逐渐地,人工智能开始主要让自动驾驶汽车只在城镇的一个区域漫游。 这部分是一个更大的赚钱者,人工智能已经被编程来尝试和 最大化 收入作为整个社区使用的一部分(这强调了优化背后的心态,即只关注一个特定的指标,而忽略过程中的其他关键因素)。

事实证明,该镇贫困地区的社区成员不太可能乘坐自动驾驶汽车。 这是因为自动驾驶汽车离得更远,并且在城镇收入较高的地区漫游。 当请求来自城镇的较远地区时,来自较近位置的任何其他请求将获得更高的优先级。 最终,在城镇较富裕地区以外的任何地方获得自动驾驶汽车几乎是不可能的,对于那些生活在那些现在资源匮乏地区的人来说,这令人恼火。

自动驾驶汽车本应实现的人人享有机动性的梦想破灭了。

你可以断言,人工智能完全落在了一种统计和计算偏差上,类似于一种代理歧视(通常也称为间接歧视)。 意识到人工智能并不是为了避开那些较贫穷的社区而设计的。 在这种情况下,让我们清楚这一点。 不,它只是为了优化收入而设计的,这是一个看似可以接受的目标,但这是在人工智能开发人员没有考虑其他潜在后果的情况下完成的。 这种优化反过来又在不知不觉中不可避免地导致了不良结果。

如果他们将 AI 伦理考虑作为优化思维的一部分,他们可能已经事先意识到,除非他们精心设计 AI 以仅在一个指标上应对这种过度扩张,否则他们可能已经避免了如此糟糕的结果。 有关自动驾驶汽车和自动驾驶汽车的广泛采用可能引发的此类问题的更多信息,请参阅我的报道 这里这个链接,描述了我在这些主题上合​​着的一项哈佛领导的研究。

在任何情况下,假设马已经离开谷仓并且这种情况不能立即接受总体解决方案。

那些想使用这些自动驾驶汽车的人会做什么?

最明显的方法是与社区领袖合作,让汽车制造商或自动驾驶技术公司重新考虑他们如何设置人工智能。 也许对在那个城市或城镇部署这些自动驾驶汽车而获得的任何许可或许可施加压力。 这些可能是带来积极变化的可行方法,尽管这些努力可能需要一段时间才能取得成果。

另一个角度是用人工智能武装自己。

设想有人巧妙地设计了一个基于人工智能的应用程序,该应用程序可以在您的智能手机上运行,​​并与正在接受乘车请求的汽车制造商或车队运营商的人工智能进行处理。 可能是您正在使用的人工智能利用了其他人工智能的关键元素,因此您对自动驾驶汽车的请求被给予更高的优先级。 请注意,我并不是在暗示正在发生任何非法行为,而是说您这边的 AI 是基于发现的“功能”甚至其他 AI 中的漏洞而开发的。

结论

关于通过使用 AI 武装自动驾驶汽车车队运营商的 AI 公然反击的故事引发了更多的 AI 伦理争议和考虑。

例如:

  • 如果一个人可以利用人工智能让他们比其他系统的人工智能更有优势,那么这在跨越人工智能伦理界限方面能走多远(我说服自动驾驶汽车来找我和我的朋友,排除所有其他人)?
  • 此外,是否有任何类似的 AI 伦理考虑,即如果有人知道或拥有 AI 与其他 AI 进行战斗,是否应该以某种方式提醒那些没有平衡 AI 的人并能够武装自己也相应地?

最后,所有这一切都将我们带入了一个看似诡异的未来,其中包括一场人工智能军备竞赛。 谁将拥有他们出行和生存所需的人工智能,谁不会? 是否总会有更多的人工智能出现并引发对平衡人工智能的需求?

受人尊敬的科学家卡尔·萨根(Carl Sagan)就特别是灾难性的军备竞赛提供了这种睿智的智慧:“核军备竞赛就像两个死敌站在齐腰深的汽油中,一个用三根火柴,另一个用五根火柴。”

在即将到来的人工智能军备竞赛中,我们必须果断地保持脚干,头脑清醒。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end-棒棒的/