人工智能伦理受到中国最新设计的人工智能党忠诚读心面部识别证明的干扰,这可能预示着压制性自治系统

你忠诚吗?

从理论上讲,检查您的公开行为并确定您的行为是否表现出忠诚度是可能的。

假设相反,有人试图读懂你的想法,同时扫描你的脸来确定你的忠诚商。 这令人毛骨悚然。 你可能会欣然谴责。 听起来像是一部设想未来反乌托邦社会的疯狂科幻电影。

谢天谢地,你偷偷对自己耳语,我们今天没有这样的事情。

哇,抓住你的马。

近期新闻头条报道称,1 年 2022 月 XNUMX 日在中国在线发布的一篇研究论文描述了一项据称涉及评估人们的脑电波和面部表情以计算他们是否忠于中国共产党 (CCP) 的研究. 所以,你去吧,未来越来越近,至少在实现我们害怕有一天会出现的反乌托邦社会方面。

该研究论文很快从其在线发布的链接中消失了。

想必,迅速席卷网络的轻蔑,足以让那篇论文被撤下。 或者,也许研究人员只是想进行一些措辞更改和其他无害的更正,目的是在他们有更彻底的机会确保 i 被点缀并且 t 都被交叉时进行重新发布。 我们必须睁大眼睛看看这张纸是否有第二次生命。

我将继续深入研究我们对这项研究的了解,并尝试将这种与人工智能相关的工作对我们所有人的意义联系起来,远远超出了看到这个的范围仅限于一个特定的国家。 我的报道将比最近关于这个具有新闻价值的其他报道更广泛,所以请多多包涵。

我还要强调的是,我们可以从所谓的论文中收集到大量重要的 AI 伦理课程。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

以下是迄今为止提到的关于这项研究的内容。

显然,一些“志愿者”被招募来参与一项关于对中共的看法的实验。 他们是自愿的志愿者,还是更类似于受刺激的志愿者,或者可能是受指导的志愿者,我们不得而知。 为了便于讨论,我们假设他们同意成为研究的对象。

我提出这不仅仅是简单的smarmy。 每当进行涉及人类受试者的实验时,都会有大量普遍接受的做法,即招募这些受试者并将其投入研究工作。 这部分可以追溯到以前的研究,这些研究经常欺骗或强迫人们进行实验,有时会对参与者造成不利的心理影响甚至身体伤害。 科学界已竭力遏制这些类型的阴险研究,并要求向那些寻求纳入人类相关研究的人提供各种披露和警告。

需要澄清的是,并非每个人都遵守这种谨慎和认真的指导方针。

再往前走,据报道有 43 名受试者,据说他们是中国共产党的成员。 请记住,实验对象的选择对实验非常重要,并且还必须考虑到您可能在之后尝试得出的关于实验结果的任何结论。

假设我想做一个关于人们如何看待广受好评的星球大战系列的实验。 如果我预先选择了所有人都非常讨厌《星球大战》的主题(这样的人怎么会存在?),然后我给他们看《星球大战》的视频剪辑,他们很可能会说他们仍然不喜欢《星球大战》。 基于这个伪科学实验,也许我偷偷地声称人们——总的来说——真的讨厌星球大战,这在我“精心”准备的研究环境中被“证明”(眨眼)。

你可能不知道我通过预先选择我预期会产生我暗中想要的结果的主题来操纵轮盘赌。 当然,如果我故意招募喜欢《星球大战》并且是狂热粉丝的人,他们很有可能会报告说观看那些《星球大战》剪辑欣喜若狂。 同样,任何关于人们一般如何对《星球大战》做出反应的结论都会受到为这项努力选择的预先选择的一组主题的影响。

以中共为重点的研究似乎让受试者坐在类似亭子的视频显示器前,阅读有关中共政策和成就的各种文章。 这可能是受试者正在接受的被认为是“实验性治疗”。 在计划实验时,您通常会想出一个实验因素或方面,看看它是否会影响参与者。

显然正在探索的研究问题是,审查这些材料的行为是否会对受试者产生任何影响,增加、减少或保持对他们随后对中共的印象的中立。

在经典的零假设中,您可以安排这样的研究来说明所消耗的材料对受试者表达的后续印象没有影响。 一旦你对他们对中共的观点进行了前后比较,你就会从统计学上尝试看看他们的印象是否发生了统计学上的显着变化。

可能是之前和之后在统计上没有差异,因此您可以合理地暂时得出结论,对于这项特定研究,展示的材料(实验处理)似乎没有对他们的印象产生影响。 另一方面,如果存在统计上有效的差异,您将查看之后是否大于之前,从而允许您谨慎地建议这些材料增强了他们的印象(并且,在硬币的另一面,如果之后比之前少,这可能意味着材料减少或降低了他们的印象)。

在这样的研​​究中,需要处理许多烦人的松散问题。

例如,我们通常希望有一个所谓的对照组,我们可以将其与接受实验治疗的人进行比较。 这就是为什么。 假设坐在信息亭前阅读材料的行为是改变印象的真正基础。 可能是所消耗材料的性质对印象影响大致无关紧要。 仅仅坐着阅读任何东西,例如关于猫做有趣事情的最新故事,单独可能会奏效。 因此,我们可能会安排一些受试者在我们的对照组中,这些受试者会接触到其他一些材料来阅读,而不是中共的政策和成就材料。

我们不知道在这种情况下是否这样做了(似乎还没有人提到这个方面)。

我意识到你现在对研究中的媒体爆炸部分感到不安。 我们将迅速进入那部分。

我们如何检测这个实验中的受试者是否会因阅读展示的材料而做出反应或改变他们的印象?

一个习惯的方法是问他们。

您可能会事先进行问卷调查,询问他们对中共的印象。 然后,在暴露于实验处理之后,就像阅读展示的材料一样,我们可以进行另一份问卷调查。 然后可以比较受试者在之前和之后给出的答案。 如果我们也使用对照组,我们会假设对照组的答案不会从之前到之后发生实质性变化(相信看关于嬉戏的猫的故事不应该影响他们的 CCP 印象)。

这种询问受试者印象的行为并不一定像看起来那么简单。

假设实验中的受试者有一种感觉或整体漂移,您希望他们以特定方式对实验处理作出反应。 在这种情况下,他们可能会故意夸大他们在实验管理后期的反应。 你肯定已经看到了这种情况。 如果我正在为即将上市的一种新苏打水进行口味测试,我可能会表现得好像我非常喜欢这种苏打水,这样做是希望可能会出现在苏打水制造商的广告中,并获得我当之无愧的 XNUMX 分钟成名.

要点是,仅仅询问人们的意见并不是衡量变化的万无一失的方法。 这是一种方法。 可以而且也经常采用其他方法。

这项特殊的研究如何选择衡量受试者的反应?

显然,至少使用了两种方法。 一种方法包括进行面部扫描并使用基于人工智能的面部识别软件来评估受试者的反应。 据报道,另一种方法是某种形式的脑电波扫描。 目前还没有关于使用什么类型的脑电波扫描设备,也没有使用什么样的基于人工智能的脑电波分析软件的报道。

各种报道表明,该研究对实验的性质进行了说明:“一方面,它可以判断党员如何接受思想和政治教育。” 据说该研究也提到了这一点:“另一方面,它将为思想和政治教育提供真实的数据,从而可以对其进行改进和丰富。” 该研究归因于在中国合肥综合国家科学中心的主持下进行。

媒体报道表明,该研究暗示了面部识别扫描和脑电波扫描能够帮助检测到对中共的事后印象有所增强的说法。

我想提醒您,由于无法直接审查所使用的系统并仔细检查研究论文,我们不知道这些基于人工智能的系统是如何被准确使用的细节。

可能是受试者对实验环境做出反应,而不是对实验治疗做出反应。 首先,参与研究的任何人都可能会感到焦虑。 这可能会混淆进行脑电波扫描或面部模式分析的任何努力。 也有可能他们感到有动力取悦研究人员,在看到材料后选择炮制积极的想法,这在理论上可以反映在脑电波扫描和面部扫描中(也许,尽管请知道有一个很棒的对这些论点的有效性进行激烈的争论,我将稍后说明),希望扭曲结果并表明它们受到了积极影响。

Twitter 的反应强烈谴责使用人工智能赋能的脑电波扫描和面部识别的想法本身就是一种令人震惊和无耻的行为。 其中一些推文告诉我们,只有人类怪物才会使用这些设备。

我必须请你坐下来,为可能会是粗鲁和令人震惊的惊喜做好准备。

全世界有许多研究人员在他们的研究中使用这些相同类型的技术。 这当然不是第一次在研究工作中对人类受试者使用脑电波扫描功能。 这当然也不是第一次将面部识别用于人类受试者的实验目的。 即使是粗略的在线搜索也会向您展示在使用这些类型设备的各种国家和实验室中进行的大量实验研究。

现在,话虽如此,用它们来衡量对中共的忠诚度并不是你会特别关注的。 正如他们所说,当这种人工智能被用于政府控制时,已经越过了一条红线。

这显然是整个套件和一堆堆中令人不寒而栗的部分。

许多人表达的担忧是,如果政府选择使用脑电波扫描技术和面部识别来确定对当前政权的忠诚度,我们将发现自己处于一个充满伤害的反乌托邦世界。 当您走在公共街道上时,安装在灯柱上的设备可能会秘密确定您的忠诚度商数。

有人假设,如果你的脸似乎没有表明你足够忠诚,或者如果脑电波扫描显示相同,政府暴徒可能会突然冲上来抓住你。 令人不安。 糟糕透了。 绝对不允许。

这就是为什么在这个新闻项目上出现了头条新闻的愤怒和愤怒的症结所在。

想象一下。 我们可能会制作并投入使用基于计算机的系统,这些系统使用最新的人工智能来决定我们是否忠诚。 如果你试图雇人坐下来做同样的事情,你将需要很多人,而且你会遇到一个后勤问题,即试图让他们关注每个人。 对于基于人工智能的系统,您只需在灯柱、建筑物侧面等处设置电子设备即可。 忠诚度扫描可以 24×7 全天候进行,在任何时候,在所有配备齐全的地方。 然后可以将其输入到一个庞大的数据库中。

我们变成了人类,只是一个巨大的无所不包的社会压迫性生态系统中的齿轮。 看见的眼睛不只是看着我们所做的事情。 它还解释了我们的面孔声称我们对政府的忠诚度。 同样,我们的思想也将被检查是否有类似的可怕原因。

哎呀!

这还有一个次要问题,尽管与已经勾勒的老大哥的含义相比,可能并不那么棘手。

思考这两个紧迫的问题:

  • 我们能否可靠地断言脑电波扫描可以证明您的忠诚度?
  • 我们能否可靠地断言面部识别扫描可以证明您的忠诚度?

坚持住,你可能会大喊大叫。

我意识到并承认您可能不太关心可靠性方面本身。 这是否可以可靠地完成并不像它正在完成的事实那么重要。 没有人应该受到这样的审查。 忘记这项技术是否适合这项任务。 我们不应该一开始就承担这项任务。

无论如何,现在的答案是否定的,即现有的人工智能系统可以进行任何类似“脑电波扫描”和面部识别的能力不足以实现这一飞跃。

您最近可能已经看到,一些面部识别制造商在他们的面部识别系统如何投入使用方面做了一些回溯。 在即将发表的一篇专栏文章中,我将讨论最近的努力,例如微软试图阻止那些使用微软提供的面部识别工具的人的潮流,其目的远远超出该技术能够或应该用于的用途. 您可能会发现我之前对面部识别已经广为人知的 AI Ethics 疑虑感兴趣,请参阅 这里的链接. 我还讨论了脑电波扫描的领域,请参阅我的讨论 这里的链接.

简而言之,目前还没有可靠或明智的方法表明脑电波扫描或面部识别扫描可以声称描绘某人的忠诚度。 即使是基本的方面,例如您是否可以可靠地将这些扫描与某人是快乐还是悲伤相关联,仍在激烈争论中。 试图将赌注提高到像忠诚度这样无定形和多变的东西是一座太过分的桥梁。

我可以补充一点,有些人热切地相信我们最终会到达那里。 这就是为什么我小心翼翼地试图指出我们还没有到达那里,而不是说我们永远不会到达那里。 从来不是一个大词。 如果你要折腾,你必须绝对确定这会 决不要 是可行的(请记住,“从不”包括从现在开始的几十年、从现在开始的几个世纪以及从现在开始的数千或数百万年)。

一些人对有关这项中国实验室研究的新闻报道作出反应,认为这是世界转向不恰当和危险地使用人工智能的危险程度的指标。 我将暂时与您分享一下 AI Ethics 的全部内容。 这将帮助您更生动地了解为什么这项特定研究确实违反了许多(如果不是几乎所有)公认的道德 AI 规则。

信不信由你,有些人认为,对于这项特定的研究,也许我们正在从一座小山上爬出来。

我们呢?

反驳的观点是,一座鼹鼠山很快就会变成一座山。 众所周知,雪球滚下雪山时会变得越来越大,我们需要阻止雪球滚落。 如果我们容忍这些类型的研究,我们就会让雪球开始它的旅程。 通过大声疾呼并呼吁进行此类研究,也许我们可以阻止滚雪球。

有一点是肯定的,在人工智能方面,我们正处于打开潘多拉魔盒的边缘,问题仍然是我们是否可以阻止这个盒子的打开,或者至少找到一些方法来谨慎处理任何出现的问题一旦盒子释放了它的恶魔内容。

如果不出意外,这些媒体风暴有望引发广泛讨论,讨论我们将如何防止与人工智能相关的恶行并避免大量人工智能引发的生存风险。 我们需要提高我们对人工智能伦理和人工智能伦理考虑的社会意识。

在深入了解这些人工智能系统背后的狂野和模糊考虑之前,让我们建立一些关于非常重要的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到我们对用于不适当或可能完全不法行为目的的人工智能系统的关注,以及这与最近发布的关于 CCP 忠诚度的研究有何关系。

我想到了两个主要考虑因素:

1)这个人工智能实例是一个更大的持续模式的一部分,令人不安的人工智能使用,因此对于正在发生的事情是不祥的和令人大开眼界的

2)猫可以从袋子里拿出来,如果这样的人工智能在一个国家被采用,它也可以很容易地传播到其他国家

从关于这个 AI 实例是持续模式的一部分的第一点开始。

对这一特定研究特别感到不安的一个值得注意的重要基础是,它是人工智能旨在如何被某些人使用的更大模式的一部分。 如果这是有史以来唯一进行过的此类研究,我们可能会被它轻微地搅动。 尽管如此,它可能不会引起我们现在所看到的这种热情。

这也许是朝着即将失控的事物缓慢移动的滴滴答答。

正如新闻报道的那样,中国以坚持对中共的热情忠诚而闻名。 此外,已经建立或正在建立各种方法来确保人们被灌输到政府学说中。 已经引用了先前研究的实例,这些研究旨在设计可以衡量党员思想状况的人工智能算法(参见中国支持的 学习时间 2019 年提到了这些努力)。

你可能还记得,2018 年,副总统迈克·彭斯在哈德逊研究所发表演讲,强调“中国的统治者旨在实施一种奥威尔制度,其前提是几乎控制人类生活的方方面面”(这是指中共实施的社会信用评分系统,一个有突出争议的话题)。 你可以很容易地断言,最近的 CCP 研究是朝着这个方向迈出的又一步。

我们不知道最后一根稻草何时或是否会压垮骆驼,以至于这些一次性研究变成了广泛的基于人工智能的监测系统。

值得关注的第二点是,我们不能假设这种人工智能只会局限于中国。 从本质上讲,尽管在中国广泛使用这种类型的人工智能本身就令人不安,但其他国家可能也会这样做。

一旦据说这方面的人工智能已经准备好迎接黄金时段,其他国家可能不会花太多时间来决定他们也想要实施它。 猫会从袋子里出来的。 一些国家可能会以彻底的压迫方式使用这种人工智能,而不是试图为此提供任何借口。 其他国家似乎会寻求将这种类型的人工智能用于看似有益的目的,但最终会产生几乎不可避免的不利因素。

实际上,暗示这种类型的人工智能可能只会在被视为黄金时段准备就绪时才会被采用,这有点用词不当。 人工智能是否可以以这种方式可靠地工作可能不会有什么不同。 AI可以用作封面故事,请参阅我的解释 这里的链接. 不管人工智能实际上能够完成什么,其概念是人工智能可以成为一种方便的伪装,可以进行民众监测和衡量计划,并确保对当局的绝对忠诚。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了有关人工智能滥用的任何信息?如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能滥用

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

让我们勾勒出一个可能以粗略或错误的方式利用人工智能的自动驾驶汽车场景。

我将与你分享一些基于人工智能的自动驾驶汽车的后果,这些后果可能会让你不寒而栗和受到干扰。 这些是目前几乎没有人讨论的方面。 我一再提出这些问题,尽管公开承认,在我们普遍采用自动驾驶汽车之前,我们不会因为社会对今天看起来只是抽象概念的事物感到担忧或不安而获得太多关注.

你准备好了吗?

我们将从打基础开始。

基于人工智能的自动驾驶汽车将配备摄像机,这是明智的。 这允许自动驾驶汽车接收驾驶场景的视频图像。 反过来,在自动驾驶汽车的计算机上运行的人工智能驾驶系统旨在通过计算检查收集到的视频,并找出道路在哪里、附近的汽车在哪里、行人在哪里等等。 我意识到我正在背诵自动驾驶汽车 101 基础知识。

自动驾驶汽车的外部安装了摄像机,它们指向外面。 此外,总的来说,您可以预期车辆上或内部将有摄像机向内瞄准自动驾驶汽车的内部。 为什么这样? 简单易行,因为视频捕捉自动驾驶汽车内部的情况将有很多重要用途。

当您乘坐自动驾驶汽车时,您不再需要成为司机。 那么在自动驾驶汽车里你会做什么呢?

您可以做的一件事是在家中或办公室与他人互动。 你在上班的路上,说自动驾驶汽车需要一个小时的驾驶时间,你已经可以通过类似 Zoom 的在线实时交互会话开始你的一天的工作。 他们可以看到你,因为摄像头向内指向自动驾驶汽车。 你可以在自动驾驶汽车内的 LED 屏幕上看到它们。 在一天结束时,在回家的路上,您可能会与您的孩子进行类似的互动视频讨论,因为他们开始完成晚上的家庭作业。

另一个用途是上课。 既然您不需要浪费时间开车,您可以将在自动驾驶汽车中的无用时间转化为提高您的技能或获得认证或学位。 通过指向内部的摄像头,您的教练可以看到您并讨论您的训练进展如何。

另一个用途是尝试确保自动驾驶汽车的乘客不会发疯。 在人类驾驶的汽车中,驾驶员是成年人,通常会阻止骑手做一些滑稽的事情,例如在内部涂鸦。 基于人工智能的自动驾驶汽车会发生什么? 一些人担心骑手会选择撕毁车辆的内部。 为了防止这种情况发生,正在部署自动驾驶汽车的拼车公司可能会使用内向摄像机来监控人们在自动驾驶汽车内的行为。

我假设您确信我们将拥有指向自动驾驶汽车内部的摄像机,以及指向外部以识别驾驶场景的摄像机。

你现在已经准备好接受我所说的流动眼了,请参阅我的分析 这里的链接.

首先,考虑指向外部的摄像机。

无论自动驾驶汽车走到哪里,它都有可能对摄像机看到的任何东西进行视频记录。 一辆自动驾驶汽车可以将人们从家里接载到杂货店,它将穿越一个社区,视频不仅会记录道路,还会记录视线范围内发生的所有其他事情。 一对父子在自家院子里玩耍。 一家人坐在他们的前廊上。 继续进行。

目前,我们在公共道路上的自动驾驶汽车很少,因此这种捕捉日常活动视频的能力相对稀缺且无关紧要。

设想我们最终实现安全和广泛的自动驾驶汽车。 成千上万的人。 也许是数百万。 今天,我们在美国拥有大约 250 亿辆人工驾驶汽车。 最终,这些将被自动驾驶汽车取代,或者干脆不再使用,我们的道路上将主要有自动驾驶汽车。 这些自动驾驶汽车由人工智能驱动,因此基本上可以 24×7 漫游。 没有休息时间,没有浴室休息时间。

视频数据可以通过 OTA(空中下载)电子网络连接从这些自动驾驶汽车上传。 自动驾驶汽车将使用 OTA 将最新的 AI 软件更新下载到车辆中。 此外,OTA 可用于将自动驾驶汽车的数据上传到基于云的数据库中。

总而言之,将这些上传的数据拼接在一起是可行的。 通过缝合,您可以将任何一天在任何广泛使用自动驾驶汽车的地区外出的任何人的日常进出拼凑起来。

那就是我一直在警告的流动的眼睛。

我们现在可以将 CCP 的研究与这种能力相吻合。 假设政府可以访问所有这些收集到的视频数据。 然后,他们可以使用基于人工智能的面部识别算法来确定您在一天中的什么时间、在您的日常生活中去了哪里。 此外,他们可能会使用他们的“忠诚度”基于人工智能的分析器来查看你的脸上是否看起来很忠诚。

想象一下,在一个星期二的下午,你步行去当地的一家餐馆买三明治。 自动驾驶汽车在马路上经过。 当你步行五分钟去吃点东西时,所有许多视频都捕捉到了你。 数据被上传到中央数据库。 政府在数据上运行了人工智能面部识别程序。

事实证明,人工智能“确定”了你脸上不忠的表情。

或许这种不忠的眼神只是一瞬间。 你在街角等着灯光变亮,这样你就可以过马路去餐厅了。 那一刻,你有一种轻微的厌恶感,你不得不等待太久才能看到步行符号。 这是否表明您对政府不忠?

是的,人工智能计算出来的,你在那一刻非常不忠诚。 当你那天晚上回家时,政府已经安排逮捕你。

但是,等等,还有更多。

请记住,摄像机也指向内部。

在同一个星期二,当您乘坐自动驾驶汽车上班时,摄像机正在捕捉您的每一刻。 这被上传到一个集中的数据库。 分析面部模式是否不忠诚的人工智能软件在去办公室的路上对你的面部表情进行了计算模式检查。

有一次,你漫不经心地向自动驾驶汽车外面看去,注意到一名建筑工人正在部分堵塞道路,并导致人工智能驾驶系统减慢自动驾驶汽车的速度。 有那么一瞬间,你的脸上露出了嘲笑这位正在减速交通的建筑工人的表情。

人工智能面部模式分析将此解释为对政府不忠的标志。

一天内对你进行两次打击。

你生活在薄冰上。

当然,在这种情况下,人工智能在确定你的忠诚度方面是“正确”还是“错误”几乎是无关紧要的。 要点是人工智能已为此目的而实施。 部署 AI 的人可能会或可能不会关心 AI 是否适合此类任务。 人工智能允许政府控制,而不管技术本身的有效性。

这涵盖了面部扫描。

如果我们最终有任何类型的便携式低成本设备来进行(据称)脑电波扫描,这当然也可以包括在自动驾驶汽车中。 摄像机现在是肯定的。 拥有这种口径的脑电波扫描设备的可能性目前还没有,但显然是未来的设想。

对于我对政府如何试图通过控制自动驾驶汽车来控制民众的探索,请参阅 这里的链接. 存在类似的可能性,恶意行为者可能会尝试做同样的事情,请参阅 这里的链接. 这些并不是针对这些相关主题的恐吓策略,而是对网络安全和其他预防措施的重要性的提醒,作为一个社会,我们必须针对无处不在的自动驾驶汽车和其他自动驾驶汽车。

结论

我想快速介绍一个关于人工智能被用来确定忠诚度的另外一个方面,我认为这是一个有点独立的话题,但是一些推文和社交媒体一直在讨论这个话题。

我之前提到过,我们没有感知人工智能,我们不知道是否或何时会有。 让我们考虑一下我们将拥有感知人工智能的想法。 在这种情况下,请考虑以下情况。

我们通过非感知人工智能选择广泛使用人工智能,通过面部扫描、脑电波扫描等,通过计算确定人们是否忠于政府。 这完全由权威人士运行和使用。 这就是我刚才描述的令人不安的情况。

是时候加大赌注了。

AI变得有感知力。 我们现在可能已经将一种广泛的能力交给了这个有感知力的人工智能,它可以识别人类的忠诚和不忠诚。 一个正在考虑消灭人类的邪恶人工智能可能会利用这种能力来决定人类确实会不忠诚,应该被彻底摧毁。 或者也许只是那些通过他们的脸或他们的想法表现出不忠的迹象的人将​​被特别废弃。

另一个角度是人工智能希望奴役人类,见我的讨论 这里的链接.

我们似乎已经给了人工智能一个完美的礼物来完成这个任务。 我们建立的现有基础设施使人工智能能够密切关注我们人类。 那些似乎表达了不忠的面部表情或想到人工智能霸主的人将会感受到人工智能的愤怒。

我意识到我说过这是加大赌注。 我不确定情况是否如此。 在我看来,我们是否有 AI 霸主直接决定我们的命运,而人类霸主可能使用 AI 系统来确定忠诚度,嗯,这两个提议似乎都不是特别可取的。

现在做最后的评论。

罗马学者和哲学家马库斯·图利乌斯·西塞罗说,没有什么比忠诚更崇高、更令人尊敬的了。 我们可能会让人工智能领先于我们,成为一种以可怕的方式争取和确保“忠诚度”的工具。

将 AI 道德放在我们的待办事项列表顶部的一个值得铭记的理由。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition-证明可能预示压迫性自治系统/