人工智能伦理和人工智能诱导的心理接种以帮助人类处理虚假信息

我们将如何处理大量的虚假信息和错误信息?

显然,这一切都变得越来越糟,一天天过去。

也许人工智能 (AI) 可以拯救我们。 是的,没错,我们或许能够利用人工智能的有益用途来应对不断涌现的虚假信息和错误信息的海啸。 尝试这样做可能是明智的。 每条潜在解决方案的途径似乎都值得追求。

顺便说一句,我想立即承认并指出,人工智能无疑会 也成为问题的一部分。 毫无疑问,人类可以很容易地利用人工智能来产生虚假信息和错误信息。 此外,人工智能还可以偷偷地被用来使虚假信息和错误信息看起来非常有效,并欺骗人类相信所提供的信息是非常准确和真实的。 人工智能带来的明显悲伤的一面。 我们将在本次讨论结束时回到这个下行难题。

现在,让我们戴上我们的笑脸,探索人工智能如何有益于将虚假信息和错误信息带到它的强大膝盖上。 一个重要的暗流将是所有这些都与人工智能伦理的重要元素相吻合。 我对 AI Ethics 和 Ethical AI 的专栏报道正在持续且广泛,包括 这里的链接这里的链接,仅举几例。

考虑一下人工智能可以成为打击虚假信息和错误信息战争中特别有用的盟友的这些基石方式:

  • 停止在开始: 人工智能可用于检测并尝试在虚假信息和错误信息散布之前消除它
  • 过滤之前看到: 人工智能可用于过滤虚假信息和错误信息,让您不必担心看到它
  • 准备好免疫: 人工智能可以用来增强你应对虚假信息和错误信息的准备和能力(在某种程度上被正式称为提供一种心理疫苗)
  • 其他名称

第一个列出的要点需要在内容进入世界之前尽早阻止虚假信息和错误信息。

这是一个非常有问题的方法。 有些人会大声争辩说,这可能是老大哥压制言论自由的企图。 这个AI能走多远? 它会阻止人们自由表达自己的观点吗? 这诡异地可能成为人工智能的滑坡,最终成为邪恶结果的最糟糕的噩梦,从善意开始。

我相信你明白了。

第二个要点比较温和,建议我们可以使用 AI 为我们过滤内容。

您可能有一个 AI 过滤器机器人,它将扫描来自各种新闻和其他来源的所有传入数据馈送。 人工智能专为捕捉符合您个人标准的任何虚假信息或错误信息而定制。 因此,在这种情况下,这不是老大哥审查的情况。 您可以控制 AI 以及它如何代表您过滤您真正的信息收件箱。

听起来不错。

尽管有一些值得注意的问题。

例如,我们的观点已经非常两极分化,而人工智能的这种使用可能会使这种两极分化更深更暗。 想象一下,有了这个 24×7 不间断工作的智能 AI,你永远不需要看到任何被你归类为潜在虚假信息和错误信息的信息。 你的两极分化的观点现在几乎可以保证保持不变。 整天,无论何时,当您试图查看等待您注意的信息时,它始终是完全预先选择的,并且没有机会瞥一眼所谓的虚假信息和错误信息。

我说虚假信息和错误信息可能是 所谓 因为对于什么是虚假信息和错误信息存在巨大争议。 一些权威人士坚持认为,确定什么是虚假信息和什么是错误信息是有绝对基础的。 有对有错。 一切都可以计算出来,而不会错误地认为某些东西是虚假信息或错误信息。

不是每个人都认为事情如此明确。

众所周知的开或关相互排斥的二分法对比据说是一种误导性的思维框架。 一个人的虚假信息可能不会被视为对另一个人的虚假信息。 同样关于错误信息。 断言是虚假信息和错误信息的范围在性质和规模方面。 试图将所有信息明确归类为一堆或另一堆比挥手所暗示的要困难得多。

要点是关于使用 AI 作为过滤机制的第二个要点有其权衡。 毫无疑问,人工智能将越来越多地用于这种用途。 与此同时,我们需要注意这种人工智能将带来的挑战。 人工智能作为虚假信息和错误信息的过滤器不是什么灵丹妙药或灌篮高手。

这将我们带到第三点,即使用人工智能让人类更好地处理虚假信息和错误信息的可能性。

我怀疑你可能听说过很多关于在这种情况下使用人工智能的第三种途径。 它才刚刚开始出现。 您现在处于可能会发展并逐渐投入使用的事物的最前沿。 请注意,随着这种流行度的扩大,关于它是否合适的方法的争议也将变得非常明显。

部分问题在于,人工智能在某种程度上被用于某些人会以贬义方式称为 和人类玩智力游戏.

这似乎不祥。

这也将我们带到了人工智能伦理的领域。

所有这一切也与对当今人工智能的清醒关注有关,特别是机器学习和深度学习作为一种技术形式的使用以及它是如何被利用的。 你看,ML/DL 的一些用途往往涉及让 AI 被广大公众拟人化,相信或选择假设 ML/DL 是有感觉的 AI 或接近(它不是)。 此外,ML/DL 可能包含不合需要或完全不正确的计算模式匹配方面,或者从道德或法律角度来看是非法的。

首先澄清我在整体上提到 AI 时的意思,并简要概述机器学习和深度学习可能会很有用。 关于人工智能的含义有很多困惑。 我还想向您介绍 AI 伦理学的规则,这对于本次演讲的其余部分尤其重要。

陈述关于人工智能的记录

让我们确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。

我们没有这个。

我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有知觉的人工智能,也没有人能准确地预测有知觉的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常被称为奇点,请参阅我的报道: 这里的链接).

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习和深度学习,它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

部分问题是我们倾向于拟人化计算机,尤其是人工智能。 当计算机系统或人工智能似乎以我们与人类行为相关的方式行事时,几乎有一种将人类品质归因于系统的强烈冲动。 这是一个常见的心理陷阱,即使是最顽固的怀疑论者也能抓住获得感知的机会。

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。

人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括评估公司如何采用 AI Ethics。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。 例如,请参阅我的报道 这里的链接.

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

让我们脚踏实地,专注于当今的计算非感知人工智能。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

我相信我现在已经为充分讨论人工智能的作用做好了准备,以促进与处理虚假信息和错误信息相关的心理接种。

进入人类的思想

让我们从错误信息和虚假信息的基础或基本原理开始。

一般来说,错误信息是指虚假或误导性信息。

虚假信息大致相同,但包括添加的元素 意图. 当它是信息时,我们通常将信息解释为虚假信息 误导。

我可能会告诉你,现在是晚上 10 点,假设是假的,因为时间真的是午夜。 如果我在 10 点钟的时候告诉你是一种预感而不是想欺骗你,我们通常会说我误导了你。 我传达了错误信息。 也许我很懒惰,或者我真的相信现在是 10 点。 另一方面,如果我之所以提到 10 点,是为了故意欺骗你,让你以为时间是 10 点,而我知道时间实际上是午夜,这可以说是一种虚假信息。 .

整体信息的一个值得注意的方面是,通常我们能够传播信息,因此信息可能会变得有些广泛。 从广义上讲,信息确实可以像水一样流动。

我告诉你现在是晚上 10 点。 你现在有了那条特定的信息。 您可能会向附近的一群人大声喊道,现在是晚上 10 点。 他们现在也有同样的信息。 也许其中一些人打开他们的手机并打电话给其他人,告诉他们现在是 10 点。 总而言之,信息可以传播或共享,有时做得很快,而在其他情况下做得很慢。

从某种意义上说,您可以争辩说信息可以传播开来。

有一个你可能没有特别看到或使用过的新词或术语有助于描述这种信息传播的现象,这个词是 信息流行病. 这个词是信息和流行病的混搭。 总的来说,信息流行病与涉及错误信息或虚假信息传播的情况有关。 这个概念是,虚假或误导性信息可能会像病毒或疾病的不良传播一样传播开来,这是不受欢迎的。

在时间是晚上 10 点的例子中,这个看似事实的信息是传给附近人群的一条信息。 他们反过来将事实传播给其他人。 如果 10 点是伪造的,那么这种虚假信息或错误信息的特殊实例就会传播给许多其他人。 他们可能不知道这些信息是错误信息或可能是虚假信息。

我相信所有这些定义和基本原理似乎都是明智的,并且到目前为止您已经加入了。

太好了,让我们继续。

我已经在某种程度上偷偷地将你引向了一个令人着迷和焦虑的事情。 要点是,在哪些疾病通过病毒传播与哪些错误信息或虚假信息通过病毒传播之间,可以说存在合理合理的相似之处。

并非所有人都同意这些声称的相似之处。 尽管如此,它们很有趣,值得考虑。

请允许我详细说明。

你看,我们可以尝试利用人类传播的疾病和疾病的方便类比,这样做将类似的可能性与错误信息和虚假信息的传播进行比较。 为了试图阻止疾病的传播,我们的目标是及早发现并设法控制新出现的疾病源点,即疾病的潜在传播。 应对传播疾病的另一种方法是通过谨慎使用口罩或防护装备来防止感染。 第三种方法可能包括接种疫苗以尝试建立与疾病相关的免疫力。

我们现在已经完成了一个完整的循环,即那些应对疾病的相同方法可以明确地比作处理错误信息和虚假信息。 我之前提到,为了应对虚假信息和错误信息,正在努力使用人工智能,特别是(如前所述):

  • 停止在开始: 人工智能可用于检测并尝试在虚假信息和错误信息散布之前消除它
  • 过滤之前看到: 人工智能可用于过滤虚假信息和错误信息,让您不必担心看到它
  • 准备好免疫: 人工智能可以用来增强你应对虚假信息和错误信息的准备和能力(在某种程度上被正式称为提供一种心理疫苗)
  • 其他名称

第三方面将是本文最感兴趣的。

这笔交易。

我们知道疾病通常会袭击 人体. 以错误信息和虚假信息如何发生的类比,我们可以建议错误信息袭击 人类思维. 是的,您可能会接触到流入您脑海中的虚假信息或错误信息。 虚假信息或错误信息可能会破坏或毒化您的思维方式。

人体可以接种疫苗以尝试为接触疾病做好准备。 一个大问题出现了,我们是否可以为人类思维做同样的事情。 是否有可能尝试为思想接种疫苗,以便当虚假信息或错误信息出现在您的脑海中时,您已经准备好接受它并相应地接种了疫苗?

一个研究领域被称为 心理接种 假设思想确实可以在准备好处理错误信息或虚假信息的意义上进行接种。

在最近的一项关于心理接种的研究中考虑这个描述,以及有时被标记为做的事情 预铺:

  • “揭穿错误信息也存在问题,因为纠正错误信息并不总是完全消除其影响,这种现象被称为持续影响效应。 因此,与揭穿相比,预先掩饰已成为一种抢先建立抵御预期暴露于错误信息的能力的手段。 这种方法通常以接种理论为基础。 接种理论遵循医学免疫的类比,并假设可以对不必要的说服尝试建立心理抵抗力,就像医学接种对病原体建立生理抵抗力一样”(科学进展,24 年 2022 月 XNUMX 日,合著者 Jon Roozenbeek、Sander van der Linden、Beth Goldberg、Steve Rathje 和 Stephan Lewandowsky 撰写的“心理接种提高了对社交媒体上错误信息的抵御能力”)。

回到我关于时间是晚上 10 点的例子,假设我之前告诉过你,有时声称的时间不是实际时间。 从今以后,你有一种接种形式来警惕声称的时代。 这种接种已经让你准备好接触声称的虚假信息或错误信息的时代。

如果我在几年前就预先警告过您声称的时间不是实际时间,那么您可能不会想到很久以前的警告。 因此,较早的接种已经(我们应该说)消退了。 我为你接种的疫苗可能需要加强。

也有可能是接种不够具体,您在需要时使用它。 如果我几年前曾警告过您声称的时间与实际时间,那可能过于宽泛了。 在您被告知大约 10 点钟的特定情况下,接种可能不起作用。 从这个意义上说,也许我的接种应该是,当使用声称的 10 点钟时,你应该小心。 当然,在疾病的情况下接种有些相同,有时对已知疾病非常具体,而在其他情况下则范围很广。

哥伦比亚大学的威廉·麦奎尔(William McGuire)于 1961 年对心理接种进行的一项经常被引用的研究现在被普遍认为是该研究领域的经典之作。 您可能会对他当时提出的这些关键点感兴趣:

  • “这种广泛的免疫接种可能来自两种机制中的任何一种。 预先暴露可能会使人震惊,意识到他一直接受的“老生常谈”确实是脆弱的,从而激发他为自己的信念进行辩护,结果他对强烈的反驳更加抗拒。 或者,预先曝光中涉及的反驳可能会使随后提出的所有反对该信念的反驳显得不那么令人印象深刻”(William McGuire,“Resistance To Persuasion Conferred By Active and Passive Prior Refutation Of The Same and Alternative Counterarguments”,Journal of Abnormal and社会心理学,1961)。

您是否发现这种接种和免疫的类比与错误信息和虚假信息领域的比较有用且恰当?

有些会,有些不会。

出于本次讨论的目的,请接受该前提是合理且恰当的。

我们如何尝试接种或免疫人们的思想?

我们可以让人们阅读可能启发他们思想的书籍。 我们可能会告诉他们这件事,或者让他们看视频或听录音带。 等等。

我们可能会使用人工智能来做同样的事情。

人工智能系统可能被设计为你的接种者。 每当您开始上网(例如上网)时,基于 AI 的应用程序可能会为您的在线旅程做好准备。 AI 可能会为您提供极少量的虚假信息,这些虚假信息被标记为此类信息,让您意识到您即将看到故意虚假的东西。

在接触到这种由 AI 提供的虚假信息后,您的大脑现在已经准备好应对您在互联网上可能遇到的虚假信息或错误信息。 你的头脑已经准备好了。 瞧,你在互联网上看到一个博客,声称来自火星的外星生物已经在地球上并且隐藏在显而易见的地方,但是由于之前的接种,这种看似虚假的信息或错误信息很容易被你的大脑拒绝(嗯,再说一次,也许这是真的,他们真的在这里!)。

无论如何,我希望你现在能够辨别人工智能如何帮助人类接种或免疫虚假信息或错误信息。

正在设计各种人工智能应用程序,它们将充当虚假信息或错误信息的接种者。 人工智能可能会寻求提供广泛的接种,并提供整体的免疫外观。 人工智能也可以设计用于更具体的接种形式。 此外,人工智能可以根据您的特定需求或兴趣进行个性化工作。 该领域的高级 AI 还将尝试确定您在撰写和呈现所谓的免疫注射时的容忍度、精神吸收率、保留能力和其他因素。

看起来很方便。

人工智能作为危险的智力游戏玩家

以这种方式使用的 AI 乍一看似乎很方便(嘿,我刚刚提到过)。

有许多潜在的不利因素和问题令人担忧,甚至可能令人恐惧。

在我的专栏中,我经常讨论人工智能的两用能力,例如 这里的链接. 人工智能可以成为人类的重要贡献者。 唉,人工智能也受到许多危险和不幸的陷阱的阻碍。

对于人工智能作为灌输者的案例,让我们考虑这些与人工智能伦理相关的示范性问题:

  • 人类的不良反应
  • 人类的无反应反应
  • 人工智能错误定位
  • AI 目标不足
  • 人工智能的网络入侵
  • 其他名称

我们将简要探讨这些担忧。

人类的不良反应

假设接受这种基于人工智能的接种的人有不良反应或产生不良反应。

该人可能会误解免疫接种并突然变得无法接受他们收到的任何信息。 他们封锁了所有信息。 人工智能不知何故触发了他们把婴儿和洗澡水一起扔出去(一句老话,也许值得退休)。 该人不仅试图应对虚假信息和错误信息,还做出了反应,认为所有信息都是错误的。

我认为我们不希望人们过火。

人工智能可能会引发许多不良反应。 这部分是由于人工智能是如何尝试进行接种的,但我们也必须将部分问题放在接受接种的人的脚下。 他们可能会以狂野或奇怪的方式做出反应,而其他接受相同 AI 接种的人却没有这样做。

同样,你可以把它比作疾病接种的类比。

简而言之,重要的是,在使用此类人工智能工作时,必须以负责任的方式进行,以尽量减少不利影响。 AI还应该有一个后续方面来尝试确定是否发生了不良反应。 如果检测到不良反应,则应设计 AI 以尝试帮助该人进行不良反应,并寻求克服或减轻该反应。

人类的无反应反应

另一种可能性是,人工智能喂养的接种对接受者没有影响。

一个人获得了与错误信息或虚假信息相关的基于人工智能的疫苗。 尽管大多数人“得到它”并接种了疫苗,但肯定会有人根本不会做出反应。 他们从接种中一无所获。 他们对人工智能试图让他们免疫所有或某些类型的错误信息或虚假信息的尝试没有反应。

再一次,这可以与疾病接种相媲美。

应该设计人工智能来应对这种情况。

人工智能错误定位

想象一下,人工智能希望针对某个特定主题对人们进行免疫,我们会说它是主题 X,但事实证明,主题 Y 被覆盖了。 AI 定位错误。

这是一个双重问题。 首先,主题 X 并没有被涵盖为 AI 接种者的假定和希望的目的。 其次,涵盖了主题 Y,但我们可能不希望人们对该主题免疫。

哎呀。

问题比比皆是。 可以防止这种情况发生吗? 如果发生这种情况,我们可以撤消 Y 免疫的话题吗? 我们是否可以寻求涵盖主题 X 接种,或者由于 AI 最初的错误定位,该人是否会较不接受或不接受?

出现了许多有问题的问题。

人工智能目标不足

人工智能提供了关于主题 Z 的接种。接受接种的人似乎有最小或几乎可以忽略不计的反应。 接种不足以保持住。

您可能很想快速声称这很容易解决。 您所要做的就是重复接种。 可能是,可能不是。

人工智能接种的价值可能如此有限,以至于无论你是否让人们体验一百次,结果仍然是一个边际结果。 您可能需要加强接种,而不是简单地重复接种。

同时,想象一下试图增加 AI 喂养的接种,但这太过分了。 增强版会引起过度反应。 是的,我们已经变得更糟了。

人工智能的网络入侵

设想人工智能被广泛用于帮助人们预防虚假信息和错误信息。

人们普遍依赖。 他们知道并期望人工智能会向他们展示一些片段,这些片段会让他们睁开眼睛看到所谓的虚假信息和错误信息。

似乎一切都很好。

作恶者能够以某种方式对 AI 进行网络入侵。 他们偷偷地将一些他们希望人们认为不是虚假信息的虚假信息强加到人工智能中。 人工智能被安排使实际的虚假信息看起来是真实的信息。 同样,真实信息也被伪装成虚假信息。

人们完全被斯诺克了。 他们被人工智能误导了。 最重要的是,因为他们已经变得依赖于人工智能,并且由于相信人工智能在做正确的事情,他们为这个被破坏的人工智能陷入了困境。 不加思索。

鉴于虚假信息很容易进一步传播,作恶者可能会喜欢这种人工智能的存在是他们让他们阴险的谎言传播到世界各地的最简单、最快的方法。 当然,具有讽刺意味的是,利用人工智能接种器基本上传播了疾病。

结论

我们应该让人工智能和我们玩智力游戏吗?

用于虚假信息和错误信息接种的人工智能可能是一种威胁性的特洛伊木马吗?

你可以为担心这样的噩梦提出一个实质性的理由。

其他人则对这种可能性嗤之以鼻。 人们足够聪明,可以知道人工智能何时试图欺骗他们。 人们不会为这样的运球而堕落。 只有白痴才会被这种人工智能误导。 这些是通常的反驳和反驳。

我不想让自己看起来对人类和人性的完全钦佩,我只是建议有充分的迹象表明人类可能会爱上误导他们的人工智能。

还有一个更大的问题可能笼罩着这一切。

谁制造了人工智能,人工智能如何通过算法决定什么是虚假信息和错误信息?

今天,全世界正在就什么是虚假信息和错误信息展开一场全面的交火。 有些人断言事实就是事实,因此永远不会混淆什么是正确信息与不正确信息。 尽管有时魔鬼在细节中,但这是肯定的。

现在做最后的评论。 亚伯拉罕·林肯有句名言:“你可以有时愚弄所有人,也可以一直愚弄一部分人,但你不能一直愚弄所有人。”

用于帮助人类预防虚假信息和错误信息的人工智能是否会成为确保并非所有人都能一直被愚弄的重要工具? 或者它可能被用来在更多的时间里愚弄更多的人?

时间会告诉我们。

这肯定不是虚假信息或错误信息。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/