面对愤怒的人类是否暴力粉碎或虐待人工智能是非常不道德的,比如那些愤怒的人猛烈抨击完全自主的人工智能系统,人工智能伦理

这就是为什么我们不能拥有美好的事物。

您可能已经听过或看过这个非常流行的表达方式,并立即知道它所暗示的内容。 信不信由你,聪明的圣人智慧似乎至少可以追溯到 1905 年,当时类似的措辞出现在 人道主义评论 伊丽莎·布文。 一般来说,洞察力的要点是,有时我们最终会砸碎、猛击、破坏或完全破坏原本不值得如此对待的物体或文物。

你可能会说我们有时 虐待 物品和人工制品,甚至是我们本应崇拜或珍视的物品。

这可能是偶然发生的,例如粗心大意,将您珍爱的智能手机掉入马桶(遗憾的是,这是智能手机变得无法使用的最常被引用的方式之一)。 另一方面,也许一怒之下,您选择将智能手机扔到房间另一边,它会撞到一件沉重的家具或直接撞到墙上。 很有可能显示器会破裂,并且电子胆必然不再正常工作。

这种愤怒可能与智能手机本身没有任何关系。 也许您正在与某人争吵,并且碰巧将您的愤怒发泄在当时可能在您手中的事情上。 智能手机只是在错误的时间出现在了错误的地方。

尽管有时该物体确实与猛烈的爆发有关。 例如,您正在拼命等待一个重要的电话,而您的智能手机却出人意料地停止工作。 多么沮丧! 你心想,这款该死的某某智能手机似乎总是在最糟糕的时候失效。 好吧,真见鬼,智能手机将被立即扔到房间的另一边,从而为最新的罪行付出代价。 拿那个,你不是好的智能手机。

愤怒总是需要成为一个组成部分吗?

也许您冷静地认为您的智能手机已达到其效用的尽头。 你会得到一个新的。 因此,现有的智能手机价值下降。 您当然可以尝试对有些过时的智能手机进行以旧换新,但也许您会做出一个有意识的决定,即您宁愿找点乐子,看看它可以承受多少身体上的屈辱。 因此,经过深思熟虑的推理后,您将设备猛烈地扔过房间并观察会发生什么。 这只是一种物理实验,让您可以衡量智能手机的性能。

我怀疑我们中的许多人在对物体或人工制品进行攻击时会使用这种精心调整的逻辑。 更常见的是,该行为可能是在不同的心态下完成的。 这似乎是那些一时冲动的反动行为之一。 之后,您可能会后悔自己的所作所为,并思考导致这种爆发的原因。

这种对无生命物体的猛烈行为可能会告诉我们关于做出如此厚颜无耻和看似不愉快行为的人的什么?

该对象本身可能不是故意试图弄脏你。 当您的烤面包机无法正确烘烤您的面包时,很难想象烤面包机那天醒来时会想到它会通过燃烧您的吐司来破坏您的早餐。 这有点不太可能。 烤面包机只是一个机械装置。 它有效或无效。 但是,认为烤面包机计划不工作或通过违背您的意愿工作而对您进行快速烤面包机的想法,这是一个延伸的概念。

有些人认为所有物体都具有因果报应或精神。 在该理论中,如果您之前没有适当地照顾烤面包机,人们假设烤面包机可能正在寻求报复。 虽然这是一个有趣的哲学观点,但我将跳过那个形而上学的概念化,并坚持对象只是对象的更日常的假设(为了澄清,我不提供关于另一种可能性的决定,只是把它放在一边此时此刻)。

关于业力或精神的这种切线是值得的,因为它提出了与人类行为相关的方面。 你看,我们可能会倾向于将某种形式的活力归因于更接近我们通常认为的有知觉的物体。

一个 XNUMX 美元的烤面包机是一个准系统设备,我们几乎不会倾向于用一种类似感知的光环来涂抹它。 如果你愿意,你可以这样做,但这是一个延伸。 您不妨开始为各种物体分配感知,例如椅子、灯杆、消火栓等。如果我们要“合理”分配感知,物体似乎应该具有更多的先天能力- 像发光一样的东西。

当您使用 Alexa 或 Siri 时,设备本身只是一个扬声器和一个麦克风,但这种现代便利无疑是赋予类似感知能力的更好候选者。 您显然可以与该设备进行交互并进行对话,尽管不可否认的是一个不稳定的设备并且缺乏正常的以人为本的交互的流畅性。 尽管如此,允许 Alexa 或 Siri 滑向类似感知的可分配性是特别容易的(请参阅我对最近 Alexa 提供关于将一分钱放入带电电源插座的建议的案例的指示,在 这里这个链接).

假设我们用自然语言处理(NLP)之类的东西来修饰烤面包机,类似于 Alexa 或 Siri。 你可以对着你的烤面包机说话,告诉它你想让它烤多少。 烤面包机会回应您的话语,然后在烤面包准备好时告诉您。 这似乎重新调整了我们的信念,即烤面包机实际上越来越接近类似感知能力的能力。

我们似乎将设备的特征推向人类设施的特征越接近,同样会引导我们走上将类似感知的属性归因于设备的道路。 其中最明显的是机器人。 任何最先进的步行和说话机器人都必然会唤起我们的内心印象,即该设备不仅仅是机械或电子装置。

让我问你一个问题,请诚实回答。

在我这样做之前,我猜你已经以某种方式看到了那些展示了相当漂亮的机器人的病毒视频,这些机器人可以行走、爬行、跳跃或奔跑。 在其中一些视频中,一个人站在附近,起初,如果机器人蹒跚而行,似乎准备在那里接住机器人。 我敢打赌,我们大多数人都认为这是一种善意的行为,就像一个蹒跚学步的孩子学习走路并在他们把头撞到地板上之前抓住他们。

你很少看到人类抓住机器人,相反,你会看到人类敲打机器人,看看机器人接下来会做什么。 有时使用长棍,可能是曲棍球棍或棒球棒。 人类会故意且毫无羞耻地攻击机器人。 机器人受到了打击,有人可能会与之抗衡,我们拭目以待,看看机器人会如何反应。

这是你的问题。

当你看到机器人被当场重击时,你会为机器人感到难过吗?

很多人都这样。 当此类视频刚开始发布时,成千上万的评论表达了对机器人虐待的愤怒。 人们热切地问,机器人做了什么才应该受到这种不利的虐待? 一些人愤愤不平地说,那些人应该被拿出来,自己踢几脚。 停止这种行为并大声删除任何此类视频。

你很容易对 XNUMX 美元的准系统烤面包机有同样的感觉,但它可能不会引起同样的发自内心和令人震惊的担忧。 似乎是这样的情况,一个对象越接近与人类能力没有相似之处的完全无生命的对象,越接近更接近于人类感知的对象,就会震动我们想要为该对象赋予类人道德的感觉。 .

让我们进一步解开它。

如果您拥有一部智能手机并想破坏它,并且这样做不会伤害到其他任何人,那么在道德上我们似乎几乎不会反对这种行为。 你拥有它,你可以随心所欲地使用它(假设该行为不会影响他人)。

当然,我们可能会认为您这样做很愚蠢,这可能会产生溢出效应。 如果你愿意毁掉你的智能手机,你还能做什么? 也许破坏性和看似毫无意义的行为是对你内在某种更糟糕潜力的预警。 以这种思维方式,我们并不关心智能手机,而是关心您在智能手机上的行为如何反映您和您的行为。

对于那些在行走或爬行的机器人上戳和推的人,当你发现这些人是实验者时,你可能会松一口气,他们是有报酬的,或者出于一般正当的理由专业地攻击机器人。 他们正试图看看机器人和机器人底层的人工智能如何应对破坏性事件。

想象一下,有人编写了一个人工智能程序来帮助机器人能够行走或爬行。 从逻辑上讲,他们想知道当机器人误入歧途并绊倒某物时,人工智能的表现如何。 机器人可以自行平衡或根据需要重新平衡吗? 通过让人类在附近,可以通过戳或刺来测试机器人。 正如他们所说,这一切都是以科学的名义。

一旦你理解了人类为什么“虐待”机器人的警告,你可能会收回你的愤怒。 你可能仍然有挥之不去的疑虑,因为看到类似人类的构造被击中会让人想起人类或动物被击中。 虽然你知道机器人没有“感觉”任何东西,但这些动作仍然让我个人感到有些痛苦(关于人类对机器人等人工智能系统的亲和力的更多见解,包括一种被称为不可思议的现象山谷,请参阅我的讨论 这里这个链接).

人工智能伦理领域的人正在研究我们在人工智能系统受到严厉对待时所经历的道德心理难题。 最令人担忧的问题之一是,那些实施这种“虐待”的人可能正在使我们所有人对各种虐待不那么敏感,包括并且危险地愿意虐待人类同胞的滑坡。

在最近发表在 人工智能与伦理杂志 题为“民间人工智能伦理和风险话语中的社会认知偏差”,研究人员这样描述这个发人深省的问题:“在人工智能和机器人时代,同样的现象可能成为道德心理问题。 当我们的日常现实充斥着各种缺乏道德耐心的智能系统时,人们可能会习惯于残忍和冷漠。 因为我们有时认为机器人好像它们是有生命的和有意识的,所以我们可能会含蓄地采用可能对我们与他人的关系产生负面影响的行为模式”(Michael Laakasuo、Volo Herzon、Silva Perander、Marianna Drosinou、Jukka 合着的文章Sundvall、Jussi Palomaki 和 Aku Visala)。

底线是,我们可能会发现自己无情地接受虐待几乎是可以接受的,无论是针对诸如基于人工智能的机器人还是活生生的人类之类的对象。 您也可以在此列表中添加增加虐待动物的可能性。 总而言之,虐待的闸门可能是一场可怕的海啸,它将危险地淹没我们所做的一切。

一寸一寸,我们将习惯人工智能系统的虐待,这反过来又会一寸一寸地减少我们对虐待的排斥。

这是一个正在被仔细研究的道德人工智能理论。 这在现在尤其及时,因为正在制作和部署的人工智能系统看起来和行为比以往任何时候都更类似于人类的能力。 人工智能正在转向看起来像人类的感觉,因此我们可能会进一步降低令人毛骨悚然的可怕虐待范围。

正如我稍后将详细说明的那样,我们倾向于将人工智能系统拟人化。 我们将外观类似人类的 AI 解释为等同于人类方面,尽管事实上今天没有任何 AI 具有感知能力,而且我们还不知道是否会达到感知能力。 人们是否会陷入接受对人工智能的虐待的心理陷阱,就好像它为促进对人类和动物(任何生物)的虐待开绿灯一样?

有人认为我们需要将其扼杀在萌芽状态。

告诉人们不应该虐待人工智能系统。 即使是那些使用行走和爬行机器人的实验者也似乎在兴高采烈地展示他们努力的视频,这对他们造成了伤害。 这是削弱社会关于虐待的观点的另一块砖。 不要让雪球开始滚下尖利的雪山。

坚持我们以应有的尊重对待一切,包括物品和人工制品。 并且,尤其是当这些物体或人工制品与人类形态有相似之处或相似之处时。 如果我们无法阻止那些想把智能手机扔到墙上的人,那就这样吧,但是当他们试图砸碎机器人或对任何具有强大的类人光环的设备进行类似虐待时,我们必须脚踏实地.

胡说八道,有些人非常不屑地反驳。

人们对待人工智能系统的方式与他们将以某种方式改变对待人类和动物的方式的想法之间没有任何联系。 这是两个不同的话题。 不要把它们混为一谈,相反的说法。

人们足够聪明,可以将对物体的行为与对生物的行为区分开来。 您正在通过尝试连接这些点来挥手。 使用允许玩家射击和摧毁视频角色的视频游戏长大似乎也出现了类似的担忧。 在那种情况下,它可能比伤害人工智能机器人更糟糕,因为视频游戏有时会展示与人类完全相似的视频角色。

与这种反驳相反的是,电子游戏不是在处理真实的物体。 玩家知道他们沉浸在梦境中。 这与将智能手机扔过房间或用棍子敲打爬行机器人相去甚远。 此外,有研究确实支持电子游戏如何影响现实世界行为的疑虑。

人工智能伦理正在探索人类行为的驱动因素,以及相对复杂的基于人工智能的系统的出现将如何受到影响,特别是考虑到人类有时会滥用这种人工智能系统。 说到驾驶(是的,我把它偷偷带进去了),这让我可以转移到基于人工智能的真正自动驾驶汽车这个话题,这将很好地融入这个整体主题。

您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了有关物体或人工制品虐待的任何事情?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间无需任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADA 的自动加载项ADA
S(高级驾驶辅助系统)。

5级还没有真正的无人驾驶汽车,我们甚至都不知道是否有可能实现这一目标,也不知道需要多长时间才能到达那里。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人类的仇恨

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和道德人工智能问题,这些问题围绕着我们对那些自吹自擂的自动驾驶汽车的潜在虐待。

首先,你可能会自然而然地认为没有人会虐待基于人工智能的自动驾驶汽车。

这似乎合乎逻辑。 我们普遍接受这样一种观点,即拥有自动驾驶汽车的主要好处之一是与人类驾驶汽车相比,它们发生的车祸要少得多。 AI不会酒后驾车。 AI 不会在开车时观看猫视频。 仅在美国,每年就有大约 40,000 人死于车祸,大约 2.5 万人受伤,一旦我们在道路上普及自动驾驶汽车,预计其中大部分将不再发生。

自动驾驶汽车有什么不喜欢的,你可能会对自己说。

好吧,列表相当广泛,请参阅我的报道 这里这个链接,但由于篇幅限制,我将只介绍一些更值得注意的不受欢迎的方面。

正如我之前在我的专栏中提到的,有人向路过的自动驾驶汽车投掷石块,并且据报道在街道上放置钉子等金属物体以刺穿自动驾驶汽车的轮胎。 这样做是出于各种声称的原因。 一是自动驾驶汽车漫游地区的人们一直担心人工智能驾驶系统还没有为黄金时段做好准备。

令人担忧的是,人工智能驾驶系统可能会出错,可能会撞到一个穿过马路的孩子,或者撞到一条可能在马路上蜿蜒而行的心爱的宠物狗。 根据前面关于我们似乎被视为豚鼠的观点,人们认为测试和准备不足,自动驾驶汽车被不恰当地放开。 试图减少试用是为了公开展示对自动驾驶汽车被合法允许在周围漫游的焦虑。

实例中可能混杂了其他原因。 例如,一些人认为依靠拼车谋生的人类司机担心人工智能即将取代他们。 这对他们的生计构成了威胁。 你当然知道,基于人工智能的真正自动驾驶汽车的出现还有很长的路要走,工人流离失所问题也不是迫在眉睫的问题。 因此,看起来扔石头和其他事件可能更多的是出于安全考虑。

就我们在​​这个关于人工智能虐待的主题中的目的而​​言,出现的问题是,愿意对基于人工智能的自动驾驶汽车采取这些有点破坏性的行为是否是从虐待人工智能到虐待人类的滑坡的早期指标。

坚持这个想法。

另一个考虑虐待基于人工智能的自动驾驶汽车的角度包括一些人类驾驶员甚至行人针对这些自动驾驶汽车的“欺凌”,请参阅我的分析 这里的链接这里的链接.

简而言之,正在驾驶的人类驾驶员可能会遇到自动驾驶汽车,有时会选择在无人驾驶汽车上玩与驾驶相关的技巧。 这种诡计有时只是为了好玩,但更重要的是,其基础通常是由于对当今人工智能驾驶系统的挫败感和愤怒。

大多数人工智能驾驶系统都经过编程,以严格合法的方式驾驶。 人类司机不一定以严格合法的方式驾驶。 例如,人类司机经常以超速行驶,有时以最令人震惊的方式这样做。 当人类驾驶员在自动驾驶汽车后面时,人类驾驶员会发现自己被“slowpoke”人工智能驾驶系统所阻碍。

居住在目前自动驾驶汽车密集地区的人们在看到自动驾驶汽车在他们面前时往往会立即感到不安。 他们知道自动驾驶汽车会使他们的驾驶旅程变得比需要的更长。 因此,这些司机会选择对自动驾驶汽车采取积极的态度。

司机们知道他们可以绕着自动驾驶汽车飞驰而过,然后将其切断。 人工智能驾驶系统只会减慢自动驾驶汽车的速度,不会以任何路怒症的方式做出反应。 如果一个人类驾驶员试图对另一个人类驾驶员做出同样的激进举动,那么几乎肯定会出现报复。 在某种程度上,人类驾驶员基于意识到受害驾驶员可能进行报复而缓和了他们的攻击性驾驶。

这种人类对基于人工智能的自动驾驶汽车的驾驶行为会打开潘多拉的不良驾驶行为盒子吗?

结论

我们已经列出了两个人似乎虐待基于人工智能的自动驾驶汽车的一般实例。 第一个例子涉及投掷石块并试图阻止在道路上使用自动驾驶汽车。 第二个例子需要在自动驾驶汽车上积极驾驶。

这至少带来了以下担忧:

  • 这种虐待的出现会延伸到人类驾驶的汽车吗?
  • 如果这种情况继续或进一步扩大,这种虐待是否会蔓延到人类努力的其他方面?

一种回应是,这些只是对基于人工智能的自动驾驶汽车的暂时反应。 如果公众可以确信自动驾驶汽车在我们的道路上安全行驶,那么扔石头和此类繁重的行为将几乎消失(顺便说一句,这些行为似乎已经平息了)。 如果可以改进人工智能驾驶系统以减少我们道路上的瓶颈,那么附近的人类驾驶员可能不太倾向于对自动驾驶汽车咄咄逼人。

整个讨论的焦点一直是虐待可能会导致虐待。 你虐待的越多,比如虐待人工智能,虐待就越容易被接受和承担,比如对人类和动物的虐待。

信不信由你,这枚硬币还有另一面,尽管有些人认为这是对此事乐观的笑脸扭曲。

这是一个非常乐观的主张: 也许适当的治疗会产生适当的治疗。

这就是我的意思。

一些权威人士认为,由于人工智能驾驶系统被编程为合法且谨慎地驾驶,因此人类驾驶员可能会从中吸取教训并决定更加理智地驾驶。 当你周围的其他汽车都严格遵守限速时,也许你也会。 当那些自动驾驶汽车在停车标志处完全停下来而不是试图闯红灯时,人类司机也会受到同样的启发,以谨慎驾驶。

持怀疑态度的人会发现这种思维方式很薄弱,甚至可能是幸福的睁大眼睛和荒谬的天真。

称我为乐观主义者,但我会投票支持人类驾驶员将被激励更明智地驾驶的梦幻概念。 当然,基于人工智能的真正自动驾驶汽车将通过视频和其他传感器捕捉附近其他人类驾驶汽车的古怪动作,并且只需按一下按钮就可以明确地向警察报告非法驾驶,可能会提供更好的人类驾驶所需的“灵感”。

有时需要胡萝卜和大棒才能让人类行为和谐一致。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/07/30/ai-ethics-confronting-whether-irate-humans-that-violently-smash-or-mistreat-ai-is-alarmingly-不道德的,例如那些愤怒的人,他们在完全自主的人工智能系统上大肆抨击/