那些以人工智能为中心的边缘领主激怒了人工智能伦理

有些人的人生使命似乎是刺激和激怒我们其他人。

你肯定认识这样的人。 他们会在谈话中发表无耻的、毫无必要的声明,让每个人都感到不安,并引发一场口头争吵。 尽管对话中的溅射相当于一枚爆炸性手榴弹,但可能会暗示这种令人讨厌和破坏性的行为仅仅是经验丰富的挑衅者的标志。 也许对话完全是平凡而无趣的,因此有理由需要叛逆的努力来活跃互动。

另一方面,挑衅也可能只是试图阻止任何实质性的玩笑。 一个出乎意料的表演者似乎可以实现这个不合时宜的目标。 通过将注意力转移到其他一些极具争议性的话题上,一切都将崩溃,没有人会记得刚才被认为是集体关注焦点的思路。

让我们明确一点,插入语句将是一个古怪的语句。 如果感叹词被认为是相关的,或者甚至是不相关的,那么关键是该声明或断言是否可以引起平衡讨论。 任何不能提供丰富和绝对震撼和敬畏的方式都不会让真正具有破坏性的煽动者满意。 他们试图想出绝对“最好”的震撼器,让所有参与者都感到头晕目眩。

刺激的头晕越大越好。

正如您稍后会看到的,在人工智能 (AI) 领域有很多推动者。 这些人喜欢煽动他人进行人工智能讨论,这些讨论并非出于教育或信息目的,而是仅仅作为对人工智能是什么以及我们需要对人工智能做些什么的破坏性和令人恼火的错误想象。

那些煽动者通常会把事情搞砸,特别是通过甩掉那些不了解人工智能的人,并可悲地削弱了朝着道德人工智能的协调运动。 我还将从另一个角度阐述人工智能的这种交织,即一些煽动者正在使用人工智能驱动的在线工具来代表他们进行刺激的可悲目的。 俗话说,这似乎证明了你就是不能给一些人新的闪亮玩具(因为他们必然会使用不当)。

有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

在我们进入 AI 主题本身之前,让我们检查一下这些煽动者是如何整体地和秘密地执行他们的刺激任务的。

正如你无疑知道的那样,虔诚的健谈破坏者并不局限于面对面的口头交流。 我相信你在网上也经历过同样的行为。 这种类型的活动可能发生在任何一系列发布的文本消息中,例如当人们以电子方式回复直播视频并陈述他们对正在发生的事情的看法时。 很有可能你会得到一个只需要投入两分钱并且以最不守规矩的方式这样做的人。

反应可能是其他人开始跳到新引入的主题上。 一步一步地,电子来回从讨论直播流中分道扬镳,转而全神贯注于煽动者抛出的任何其他重磅炸弹。 一定会发生堆积。

与此同时,一些发帖者会对这个破坏者劫持短信评论的能力感到沮丧。 将努力使注意力重新回到手头的问题上。 你会立即看到一些将破坏者标记为巨魔、煤气灯刺激物或可能被称为 边缘领主.

您可能不熟悉作为 Edgelord 的俚语。 通常,该术语指的是在网上发帖并选择插入一些令人震惊的、有时是虚无主义的言论的人。 此外,这样做的人不一定相信自己的言论。 他们通常只对激怒人们感兴趣。 这句话是否真诚并不重要。 几乎任何脾气暴躁的声明都可以,只要它激怒了马蜂窝。

什么样的陈述可以让其他人分心并转向边缘领主试图编织的钝蜘蛛网?

以下是一些经常使用的方便的煤气灯片段:

  • 生命完全没有价值和意义 (这是一个温和的)。
  • 人们都是白痴,我们应该对愚蠢的人戴上嘴 (这是一个火花)。
  • 老实说,我们需要离开地球,在另一个星球上重新开始 (这是阴险的)。
  • 等等

考虑一下这些煤气灯示例的半聪明方面。

拿第一个关于生命的意义。 如果你几乎在任何谈话中插话说生命完全没有价值,想象一下你可能会引起的反应。 有些人可能会同情地回应。 他们担心你可能会感到沮丧和沮丧。 为了谨慎起见,他们可能会尝试提振撰写评论的人的精神。

其他人可能会争辩说生命并非毫无价值。 他们将热切捍卫生命是值得过的,我们都可以为我们周围的每个人增加价值。 然后,这可能会使有关获得附加值的各种方式的对话陷入困境。 建议将开始涌入对话中。

边缘领主或刽子手是否在接受延伸的同理心或尖锐地重新考虑他们对生命本质的态度的意义上关注这些反应?

哎呀没有。

这种轻率的谴责的关键是该小组已经分心了。 此外,该组织现在对歹徒给予的任何东西都充满热情,可以咀嚼。 这是成功的关键。 让每个人都转向煽动者提出的主题。 看看小组能走多远。 如果需要,请保持分心。

有时需要加油。 从本质上讲,该小组可能会暂时偏离轨道,但随后意识到他们想回到手头的现有问题上。 没那么快,谋士默默地思考着。 他们将尝试向火势添加更多弹药或燃料。

增加的火花可能需要对那些上钩的人做出回应。 也许煽动者会试图让同情者意识到,煽动者仍然处于困境中,需要更多的安慰的话。 或者,也许煽动者会试图反驳生命有价值的说法。 有很多角度可以确保分心不断滚动和拖曳。

当看起来再多的刺激也无法让人们分心时,边缘领主可能会选择向人群抛出另一个话题。 例如,考虑我之前提到的第二个例子,关于人们愚蠢的断言,他们应该戴上枪口。 这真的会得到一些人的山羊。 他们会愤怒地回应称人们愚蠢是错误的,并指责煽动者不宽容。 有些人会完全震惊于宣称的让人们闭嘴的想法,这可能会导致言论自由和人类权利长期偏离轨道。

这一切都带来了那句著名的格言,那就是永远不要选择与猪搏斗。

为什么这样?

因为你们都陷入了泥潭,再加上猪喜欢它。

简而言之,edgelord gaslighting 的全部意义在于让他人脱颖而出,同时分散其他注意力的焦点。 推进智能对话并可能就任何重要问题对人们进行教育并没有特别的兴趣。 没有真正的尝试来提供见解并帮助人们过得更好。

所涉及的偷偷摸摸几乎令人叹为观止。 鉴于现在我们经常在寻找那些故意试图发起口头斗争的人,那些进行这些恶魔般努力的人必须比过去更加精明。

可以使用各种技巧:

  • 从一个似乎与手头主题相关的陈述开始,这样做是为了让谈话逐渐被遗忘,而不是被直接抓住试图这样做
  • 在对话中扔了一个 zinger,但似乎后悔你这样做了,道歉,然后回来更强烈地发现你最初所说的确实是真实和有价值的
  • 声称其他人提出了您现在正在使用的 zinger,表现得好像您在无辜地回应其他人提供的“离谱”评论
  • 如果受访者分道扬镳,有人支持有人反对你的煽动言论,就跳到一边,补充评论,等着看情况,然后跳到另一边,充当虽然你被说服来回
  • 似乎要收回你最初的激怒言论,但在这样做的过程中,一定要“笨拙地”强化它,让其他人陷入困惑和惊愕中
  • 当有人上钩时,鼓励他们积极前进(他们将成为你不知情的帮凶),但如果他们发现他们正在被你利用,那么很快就会找到另一个毫无戒心的皈依者。
  • 坦率地承认你在煽动团队,然后突然告诉他们全是羊,这势必会引发一场关于你所做的事情和你有多卑鄙的新风暴(值得注意的是,这仍然会产生更多相同的煤气灯活动,无论如何这是目标)。
  • 等等。

我敢说,在当今这个分工思维比较明显的社会里,煤气灯的领域是盛行的。 通过提供方便的火花,引导者可以坐下来观看烟花。 他们甚至可能不必关注正在发生的事情。 几乎就像一个热核反应已经开始,分散注意力的谈话将成为它自己的永动机。 狡猾而狡猾的边缘领主可以一路狂笑到银行。

说到银行,您可能会对为什么存在这些边缘领主或刽子手感到困惑。 他们为什么要做他们所做的事? 他们似是而非的活动的货币化是什么? 他们会因为导致公民对话的崩溃而得到报酬吗? 是否有一些隐藏的邪恶资金留给那些可以让世界走向混乱的人?

采取这些刺激策略的原因可能会有很大差异。

有可能获得一些货币支出,尽管总体上这种可能性较小。 通常的因素是这个人喜欢这个动作。 有些人喜欢去赌场赌博。 有些人喜欢以跳伞者的身份跳下飞机。 有些人喜欢并公开热衷于激怒人们。

对于这种行为,互联网的美妙之处在于,您通常可以匿名且无情地逃脱惩罚。 穿着睡衣的时候。 在白天或晚上的任何时间。 在全球范围内。

相比之下,在现实世界中,在现实世界中,你的身份可能很容易被发现。 此外,您将自己置于实际的身体危险中,因为有人可能会对您如此生气,以至于口头争吵会导致身体瘀伤的斗殴。 通过在线,您几乎可以避免您的疯狂行为带来的不利后果。 话虽这么说,仍然有可能有人知道你是谁,可能会以某种方式叫你出来或对你撒娇。

人们还可以建议,有些人可能会这样做,因为他们是一个热心且有争议的人 善良的 原因。

这就是这个意思。

其中一些煽动者会试图声称他们正在通过这些看似古怪或邪恶的努力来帮助世界。 他们正在让人们超越他们的鼻子思考。 据称,激怒或挑衅的争论会迫使人们仔细地重新考虑他们的立场,即使所提供的姿势超出了现有对话的范围。

最重要的是,声称人们能够在一个主题上发表的越多,任何主题,他们的思维过程就会越好。 是的,尽管看起来很滑稽,但争论的焦点是,煤气灯所产生的热烈对话将为参与者带来精神上的加成。 由于这些激烈的辩论,他们将成为更强大的思想家。 也许我们应该拍拍边缘领主或煽动者的后背,以深深地促使人类成为更深入、更突出的思想家。

胡说八道,有些愤怒的反驳。

这些只是对不良行为的错误合理化。 边缘领主或刽子手试图为他们有问题和破坏性的行为开脱。 煤气灯所完成的一切都进一步使我们彼此分离。 Goaders 不是一些正在努力加强人类的英雄人物。 他们在整个社会中助长不满、愤怒和不文明行为。

令人眼花缭乱和不安。

我们现在已经准备好换档并深入到面向人工智能的激励方面。

人工智能瞄准边缘领主和煽动者的要点涉及使用人工智能的特定主题作为一种设计手段来激怒人们。 这满足了他们存在的理由。 他们特别喜欢选择人工智能,因为它几乎是一个万无一失的话题,可以在试图分散人们注意力时加以利用。 大多数人对人工智能都有自己的看法,尽管他们可能对人工智能知之甚少。 此外,在我们阅读和听到的日常新闻中,有大量关于人工智能的狂野而令人窒息的头条新闻,让我们意识到人工智能正在发生事情,我们必须保持警惕。

人工智能是目前最好的引爆话题之一。

谈一谈人工智能将消灭我们所有人,或者说人工智能是自切片面包以来最好的东西,然后等着看会发生什么。 希望人群的注意力会从之前的一切改变,现在完全专注于在他们中间投下的人工智能重磅炸弹。

人工智能突然出现的背景可能以多种方式出现。 您可以尝试使 AI 主题看起来好像与正在讨论的其他任何内容相关。 很有可能已经在对话中的人会找到一种方法来为你建立与人工智能主题的进一步联系,试图帮助你,就好像你是真诚的一样,你可能会因为你聪明的“闪现”而感到惊讶甚至有些预示着洞察力”认为人工智能是一个相关方面(好吧,即使它可能不是)。

当然,如果人工智能话题已经摆在桌面上,那么煽动者就需要采取更极端的行动。 他们不想仅仅让他们的人工智能重磅炸弹被卷入谈话中。 不,那不行。 请记住,煽动者打算造成严重破坏并破坏正在进行的对话。

在这种情况下,重点将放在提出超越主流讨论的关于人工智能的评论。 声明或断言必须是能激怒团队的东西。 如果你只能激怒一个人,那可能很好,因为这很可能足以让其他人也分心。 最佳做法是在讨论流中加入一个 AI 异常值评论 每个人 全力以赴的裂变红火。 这样做将是边缘领主成功的顶峰。

可以使用哪些类型的 AI 激励语句?

考虑这些:

  • 人工智能将消灭我们所有人,我们需要立即停止制造人工智能 (这势必引发一场辩论)。
  • 人工智能将拯救全人类,我们必须让人工智能完全自由漫游 (一个有点刺激的说法)。
  • 我知道 AI 是有感觉的,因为前几天我和 AI 交谈过,它告诉我是这样的 (注意使用这个需要小心,其他人可能会认为你已经失去了你的弹珠而完全无视这句话,因此他们不会上钩)。
  • 仔细听我说,人工智能永远不会存在,句号,故事结束 (这可能有一些价值,因为人们假设它可以就人工智能的定义进行对话,但这不是煽动者关心的,他们希望这种争论能够转移和分散注意力)。
  • 等等

我意识到你们中的一些人对那些据称是煽动性的言论有些焦虑。

当然,这些言论中的每一个都具有健康的价值。 我们不应该担心人工智能是否会最终消灭我们吗? 是的,这当然看起来很有用。 难道我们不应该考虑人工智能是否可以拯救人类,因此我们应该把我们的人工智能工作集中在这方面吗? 是的,确实如此。

你几乎可以提出一个合理的案例,即几乎任何关于人工智能的角度或评论都会有一些深思熟虑和积极的内涵。 希望我们讨论人工智能的次数越多,我们就越能更好地应对人工智能的未来。 社会绝对应该对人工智能的发展给予应有的考虑。 那些有时对 AI 话题不以为然的人,因为他们只与直接在 AI 领域的人相关,他们错过了对 AI 将如何影响社会的更宏观的理解。

话虽如此,有适当的时间和地点来讨论这些有争议的人工智能话题。 回想一下,边缘领主并没有试图教育或告知。 因此,他们正在安排这些人工智能争议的插入时间,只是为了引发混乱的争论。 希望盲人能引导盲人,因为那些对人工智能主题一无所知的人最终会无意中煽动其他人进行同样空洞的争论。 这将是一个巨大的泥球和污垢。 当煽动者故意在他们知道或相信会产生大量愤怒的热度并且几乎不会产生任何明智的光的情况下故意引发争议时,你很难说讨论这些肉肉的人工智能话题会提高任何人的理解力。

在深入探讨推动人工智能背后的狂野和毛茸茸的考虑之前,让我们建立一些关于非常重要的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到我们对推动人工智能的关注。

边缘领主恶棍已经分支到现在已成为他们最喜欢的人工智能的助长争吵的子主题,即人工智能伦理。 是的,煽动者发现,对 AI 道德发表无耻评论是 AI 爱好者的完美素材。 非 AI 人士可能不知道对 AI 道德的刻薄评论是否值得愤怒,而 AI 浸淫的人则知道。

这是破坏性的最新经验法则:

a) 对于非 AI 人员,就 AI 将如何摧毁我们所有人或将拯救我们所有人发表一般性评论

b) 对于 AI 人,对 AI 伦理提出尖锐的批评,并观察火花飞扬

c) 不要将关于 AI 伦理的刻薄言论浪费在非 AI 人身上,因为他们无论如何都不会明白(因此不会发火)

d) 不要使用关于 AI 的刻薄评论作为对 AI 人员的破坏性或拯救我们,因为他们之前已经听过很多次并且已经习惯了(相应地减少他们的反应)

可以使用哪些类型的 AI 道德激励评论?

试穿这些尺寸:

  • 人工智能将永远是公平和完全不偏不倚的
  • AI完全值得信赖
  • 人工智能确保我们的隐私得到完全保护
  • 人工智能永远不会做错任何事
  • 人工智能保障人类安全
  • 人工智能将永远尊重人
  • 等等

任何称职的人工智能伦理学家都会对这些断言产生令人痛苦的反应。 一种回应是冷静而系统地解释为什么这些评论会被误导。 对刽子手来说好消息是,做出如此回应的人正在做刽子手想要的事情,并且已经上钩了。

刽子手虽然真的想要更多的东西,比如一个光荣的不稳定和火热的愤慨反应。

如果一个小组参与者的回答类似于他们一生中见过的最疯狂和最错误的言论,那么煽动者将开始跳起仪式性的中奖吉格舞。 受访者在吹他们的筹码时摇摇欲坠。 如果这不是自然发生的,刽子手将确保添加最后一根稻草来压垮骆驼。 刽子手快速跟进,武断地指出这句话是绝对坦率直截了当的真理,几乎肯定会导致大坝决堤。

这些令人头疼的言论的另一种变体是这些,尽管它们并不那么可靠:

  • 人工智能永远不会公平和完全不偏不倚
  • 人工智能永远不值得信赖
  • 人工智能确保我们的隐私完全不受保护
  • 人工智能永远不会是对的
  • 人工智能保证人类完全缺乏安全
  • AI永远不会尊重人
  • 等等

我想你可能会猜到为什么这些言论没有那么有力。 例如,第一点说人工智能会 决不要 公平公正。 你可以在某种程度上提出一个合乎逻辑的论点,即这有一个真理的核心,尽管“从不”这个词有点语义上的诡计,这使得这成为一个有争议的争论。 将措辞与声称人工智能将 时刻 公平公正。 “永远”这个词有一个强大的内涵,它会让任何人工智能伦理学家都站起来。

如果这些腐蚀性的评论让你感到不安,请稍作休息。

只是为了让你知道,我已经保存了最尖酸的言论,试图让你轻松进入我现在要与你分享的最后一个。 如果你是一个容易被触发的人,你可能想坐下来。 确保你附近没有任何易碎的东西,否则你可能会发现自己本能地猛烈抨击并将附近的盆栽植物从厨房窗户扔出去。

你准备好了吗?

记住,我给了你很多预先警告。

在这里,它是:

  • AI Ethics 是一堆胡说八道的东西,应该把所有东西都冲掉。

哎呀!

那些是拳打脚踢的诱导词。

煽动者通常会把这种特别冒泡的声明放在他们的后兜里,只有当任何人工智能人对其他关于人工智能伦理的严厉言论有抵抗力时才会把它拿出来。 正是边缘领主使用的火箭筒,他们希望将尽职尽责的 AI 人送入边缘,进入分心和争论的深渊。

对于那些已经在你身上玩过的人,我假设你现在已经准备好处理它了。 稍后我将详细说明如何应对这些激怒的言论。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了任何关于人工智能的刺激?如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

让我们考虑一下在基于人工智能的自动驾驶汽车的背景下,边缘领主可以使用什么样的人工智能刺激。 方便的方面是,在自动驾驶领域可以很容易地设计自动驾驶汽车和人工智能人的按钮。 也意识到这些可以潜在地用于任何类型的自动驾驶交通工具,包括自动驾驶汽车、自动驾驶卡车、自动驾驶踏板车、自动驾驶摩托车、自动驾驶潜水器、自动驾驶无人机、自动驾驶驾驶飞机、自动驾驶船舶和其他自动驾驶车辆。

我向您介绍了这些天使用的一些收藏夹:

  • 人工智能永远无法自行驾驶
  • 人工智能在驾驶中永远不会安全
  • 人工智能永远不会取代人类司机
  • 人工智能将接管我们的车辆,我们将完全受人工智能支配
  • 等等

所有这些言论都值得争论。

我已经在我的专栏中介绍了每一个,这里不再重复我的分析。

现在的重点是,这些评论是故意构建的,目的是让那些对自动驾驶和自动驾驶汽车感兴趣的人脱颖而出。 同样,我并不是说这些是不值得的言论,而只是强调,如果一个煽动者想要分散与这些问题无关的谈话,他们很容易引起骚动。

结论

既然现在你可能会对那些煽动者使用的所有这些尖刻的评论感到不满,我们将轻松进入一个平静的冥想心理空间。 在你进入梦幻般的精神状态之前,请知道这些边缘领主越来越多地使用人工智能聊天机器人为他们做肮脏的工作。 这意味着煽动者可以大规模地增加他们的对话破坏性努力。 这很简单。 只需敲几下键盘,他们就可以指挥他们的 AI “edgelord 授权”在线聊天机器人大军潜入对话,并发布大量令人愤怒的重磅炸弹声明。

好吧,也许这并没有帮助你变得沉思和平静。

让我们都花点时间,想想小鹿斑比吧。

Bambi 可以为我们提供有关此主题的一些敏锐见解。 我假设你对小鹿斑比的故事了如指掌。 有一次,一只名叫 Thumper 的皮疹孩子般的兔子遇到了小鹿斑比。 从众所周知的辣妹口中,Thumper 发表了一条看起来相当严厉和不必要的评论,即 Bambi 似乎有点摇摆不定。 站在附近的是桑珀的母亲。

她让 Thumper 想起了 Thumper 父亲那天早上发出的智慧:“如果你不能说好话,就什么也不说。”

我们可能希望边缘领主和刽子手会明显采纳这条建议。 唉,这个世界上似乎铁定的一件事,就是他们绝对不会说什么。 他们有动力说些什么。 他们会说的话是恶意计算的,以制造风暴。 风暴除了造成破坏外没有其他目的。

你能做些什么呢?

首先,不要玩他们的游戏。 如果你被卷入了口头争吵的虫洞,你将很难将自己从其中解脱出来。 稍后,一旦你明白了,你很可能会回头看发生的事情,并为自己陷入阴谋中而自责。 正如我之前所说,与猪一起进入泥泞只会让你变得泥泞,令人遗憾的是会点燃并强化野兽的行为。

尝试忽略引导者。

如果他们坚持下去,看看是否有办法将他们从谈话中剔除。

小心不要在误报的基础上这样做。 不要关闭可能合法且真诚地尝试参与讨论的人。 对于那些似乎在这个阵营中的人,当你礼貌地告诉他们这不是他们提出问题的时间或地点时,他们大概会理解。 寻求提出建议,说明他们的言论何时更适合被考虑。

对于那些认为你可以改变边缘领主或煽动者并让他们改过自新的人,我祝你好运。 这并不容易。 这可能是不可能的。

正如圣雄甘地的名言:“你无法改变人们对待你的方式或他们对你的评价。 你所能做的就是改变你对它的反应。”

有时,这是您可以争取的最大努力。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/07/10/ai-ethics-exasperated-by-those-gaslighting-ai-focused-edgelords-that-goadingly-say-outlandishly-infuriating-关于人工智能伦理和人工智能自治系统的事情/