人工智能伦理和对人工智能自我意识的追求

你有自我意识吗?

我敢打赌,你相信你是。

问题是,据推测,我们中很少有人特别有自我意识。 存在一定范围或程度的自我意识,据称我们所有人的自我意识的敏锐程度各不相同。 你可能认为你是完全自我意识的,只是勉强如此。 你可能缺乏自我意识,并意识到那是你的精神状态。

同时,在频谱的最高部分,你可能会相信你完全有自我意识,坦率地说,你确实和他们一样有自我意识。 对你有益。

说起来,极度自我意识有什么好处呢?

根据公布的研究 “哈佛商业评论” (HBR) 由 Tasha Eurich 撰写,据报道,您能够做出更好的决定,您对自己的决定更有信心,您的沟通能力更强,整体效率更高(根据题为“自我意识真正是什么(以及如何培养它)。”奖励因素是,那些具有强烈自我意识的人据说不太倾向于作弊,偷窃或撒谎。从这个意义上说,避免成为恶棍或骗子是双重的,以及努力成为一个更好的人,美化你的人类同胞。

所有这些关于自我意识的讨论都提出了一个有点明显的问题,即自我意识这个词实际上是什么意思。 你可以很容易地找到关于复杂的各种定义和解释,我们应该说糊状结构需要自我意识。 有些人会通过建议自我意识包括监控自己,知道自己在做什么来简化问题。 你敏锐地意识到自己的想法和行为。

据推测,当没有自我意识时,一个人不会意识到自己在做什么,也不知道为什么会这样,也不会意识到其他人对他们的评价。 我相信你遇到过这样的人。

有些人似乎在这个世界上行走,对他们自己在做什么一无所知,他们也不知道别人对他们的评价。 我猜你可能会说它们就像在精致的易碎品精品店里一头低头冲锋的公牛。 我们习惯上倾向于相信公牛不知道它在做什么,并且对其他人的观点一无所知,除非其他人试图在物理上操纵或圈养这个毫无头绪的生物。

据说,自我意识可以有些递归。

让我画一个例子来说明这个递归。 您正在智能手机上观看一段引人入胜的猫视频(似乎每个人都这样做)。 除了那些可爱的猫的奇妙而温暖的滑稽动作之外,有些人不会有其他明显的想法。 同时,任何有一点自我意识的人都知道他们正在看猫视频。 他们也可能意识到他们周围的其他人注意到他们正在观看猫视频。

请注意,您可以有自我意识,并且仍然沉浸在我们应该说的特定主要活动中。 在这种情况下,主要活动是观看猫视频。 其次,同时,你可以认为你实际上是在看猫视频。 当您观看完全有趣的猫视频时,您还可以携带其他人正在观察您的想法。 您不一定要停止一项活动,例如停止观看猫视频,然后单独考虑您正在(或刚刚)在观看猫视频。 这些想法似乎可以同时发生。

有时,我们的自我意识可能会将我们踢出或至少中断主要的心理活动。 也许,在考虑观看猫视频时,您的思想会部分分散,因为它过度专注于视频本身。 您选择然后倒带视频以重新访问您看过的部分,但您在精神上分心而无法完全理解。 自我意识扰乱了你的主要心理活动。

好的,我们现在已经为递归方面的出现做好了准备。

你准备好了吗?

您正在观看猫视频。 你的自我意识告诉你,你正在看猫视频,而其他人也在看你,就像你在看视频一样。 这就是现状。

接下来,您将进行一次额外的精神飞跃。 你开始思考你的自我意识。 你是自我意识的,你正在参与你的自我意识。 事情是这样的:我是不是在想我看猫视频的事情太多了,你绝望地问自己? 这是自我意识的另一层。 自我意识排名高于其他自我意识。

古语有云,一路下都是乌龟。 对于自我意识现象,你可以是:

  • 不了解自己
  • 自我意识
  • 自我意识你的自我意识
  • 自我觉察你的自我觉察你的自我觉察
  • Ad Infinitum(即,等等)

你可能已经意识到,我之前巧妙地指出,自我意识似乎有两大类。 一个特定的理论假设我们有一种专注于我们内部状态的内部自我意识,我们也有一种外部自我意识,它有助于衡量我们周围的人对我们的看法。

根据 HBR 的文章,这里是对理论上的两种自我意识类型的快速描述:“第一种,我们称之为 内部自我意识,代表我们如何清楚地看到自己的价值观、激情、抱负、与环境的契合度、反应(包括思想、感受、行为、优势和劣势)以及对他人的影响。” 同时另一个是:“第二类, 外在的自我意识, 意味着根据上面列出的相同因素了解其他人如何看待我们。 我们的研究表明,了解他人如何看待自己的人更善于表现出同理心和接受他人的观点。”

通过断言内部和外部自我意识的范围从高到低,可以得出一个方便的 XNUMX×XNUMX 矩阵或四方阵,并且您可以将这两个类别相互配对。 HBR 研究表明,你被认为是以下四种自我意识原型之一:

  • 内省者:外部自我意识低+内部自我意识高
  • 寻求者:外部自我意识低+内部自我意识低
  • 取悦者:高外部自我意识+低内部自我意识
  • 意识:高外部自我意识+高内部自我意识

顶峰将是“意识”原型,包括处于外部自我意识的顶层,同样处于内部自我意识的顶层。 澄清一下,你不会以一种必然永久的方式达到这种自吹自擂的姿势。 你可以在内部和外部的自我意识领域之间来回穿梭。 这可能取决于一天中的时间、您所处的情况以及许多其他显着因素。

既然我们已经亲切地介绍了一些关于自我意识的基本要素,我们可以将其与道德行为的主题联系起来。

关于自我意识的通常说法是,当你有自我意识时,你更有可能光明磊落。 这意味着,如前所述,您不太容易出现偷窃、欺骗和撒谎等不良道德行为。 这种倾向的基本原理是,你的自我意识的积极性会让你意识到你自己的行为是令人讨厌的或不道德的。 当您转向泥泞的不道德水域时,您不仅会抓住自己,而且您还倾向于将自己引回陆地(道德领域的神圣领域),就像它一样。

你的自我意识有助于你锻炼自我控制。

当自我意识很少或没有时,可能会形成对比,这表明某人可能没有注意到他们倾向于不道德的行为。 你可以争辩说,这样一个不知情的人可能没有意识到他们的表现不佳。 就像易碎品商店里的公牛一样,除非有更明显的东西引起他们的注意,否则他们不太可能自我调节自己。

顺便说一句,不是每个人都买这个。 有些人会争辩说,自我意识可以很容易地应用于不道德和道德。 例如,一个作恶的人可能完全有自我意识,并喜欢他们正在做错事。 他们的自我意识甚至驱使他们更加严厉地采取越来越大的邪恶不当行为。

这上面的混浊比直接看到的要多。 假设某人具有强烈的自我意识,但他们不了解特定社会或文化的道德规范。 以这种方式,他们没有任何道德指导,尽管他们有自我意识。 或者,如果你愿意,也许这个人知道道德戒律,但不相信它们适用于他们。 他们认为自己是独一无二的,或者超出了传统伦理思维的范围。

一遍又一遍。

自我意识可以被解释为一把双刃的伦理剑,有些人会强烈强调。

目前,让我们使用由自我意识组成的快乐面孔版本,主要是引导或推动我们走向道德行为。 在其他条件相同的情况下,我们会做出大胆的假设,即自我意识越多,你就会越有道德倾向。 希望它确实看起来令人愉快和鼓舞人心。

让我们换档,将人工智能 (AI) 带入画面。

我们正处于本次讨论的关键时刻,将所有正在进行的纠缠与新兴的道德人工智能领域联系起来,也通常称为人工智能伦理。 有关我对 AI 伦理的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

道德人工智能的概念需要将道德和道德行为领域与人工智能的出现交织在一起。 你肯定已经看到头条新闻对充满不平等和各种偏见的人工智能敲响了警钟。 例如,有人担心基于人工智能的面部识别系统有时会表现出种族和性别歧视,这通常是由于基础机器学习 (ML) 和深度学习 (DL) 设施是如何训练和部署的(参见我的分析在 这里这个链接).

试图阻止或至少减轻混乱的冲向 坏的人工智能由无意中或有时故意塑造为不良行为的人工智能系统组成,最近迫切需要将道德准则应用于人工智能的开发和使用。 真正的目标是为 AI 开发人员、构建或部署 AI 的公司以及依赖 AI 应用程序的公司提供道德指导。 作为制定和采用道德 AI 原则的示例,请参阅我的报道 这里的链接.

给一个反思的时间来考虑这三个非常关键的问题:

  • 我们能否让 AI 开发人员接受 Ethical AI 原则并将这些准则付诸实践?
  • 我们可以让那些制造或应用人工智能的公司也这样做吗?
  • 我们能否让那些使用人工智能的人同样认识到道德人工智能方面?

我会毫不掩饰地说,这是一项艰巨的任务。

制造人工智能的快感可以压倒任何对人工智能伦理的关注。 嗯,不仅仅是刺激,赚钱也是这个等式不可或缺的。 您可能会惊讶地发现,人工智能领域的一些人倾向于说,一旦他们的人工智能系统推出,他们就会开始处理道德人工智能“东西”。 这是典型的技术人员口头禅,确保快速失败并经常失败,直到你做对了(希望做对了)。

当然,那些立即将道德上可疑的人工智能推向公众的人正在让马离开谷仓。 他们宣称的延伸的想法是 坏的人工智能 日常使用后就修好了,马已经肆无忌惮地乱跑了,不利的是迟到了。 伤害是可以做到的。 在使用 AI 时,也很有可能不会修复或调整任何内容。 一个常见的借口是,在那个时候摆弄人工智能可能会使已经不道德的算法决策 (ADM) 完全失控的情况变得更糟。

可以做些什么来让道德 AI 在那些正在构建 AI、部署 AI 和使用 AI 的人的头脑中成为一盏明亮的灯和指路明灯?

答: 自我意识。

是的,这个概念是,如果人们对他们如何使用人工智能或与人工智能互动有更多的自我意识,这可能会增加他们希望道德人工智能成为常态的倾向。 人工智能开发人员和与人工智能系统相关的公司也是如此。 如果他们对自己在做什么有更多的自我意识,也许他们会更多地接受人工智能的道德规范。

已经规定的部分逻辑是,自我意识倾向于成为一个道德上更好的人,同时也避免成为一个道德上糟糕的人。 如果我们能够保持这个前提,这意味着更倾向于自我意识的人工智能开发人员将倾向于道德行为,因此倾向于生产符合道德的人工智能。

那座桥对你来说是不是太远了?

有人会说间接性有点过分。 自我意识、道德美德和将道德戒律应用于人工智能之间的巨大联系链可能难以接受。 一个反驳的观点是尝试并没有什么坏处。

怀疑论者会说 AI 开发人员可能具有自我意识,并且可能更有道德意识,但他们不一定会飞跃将这种心理营地应用到道德 AI 的道德规范中。 对这种疑虑的回答是,如果我们能够宣传和普及 Ethical AI 问题,那么原本看似微弱的联系将变得更加明显、令人期待,并可能成为制作 AI 时的标准做事方式。

我现在要为这个传奇添加一个转折点。 扭曲可能会让你头晕目眩。 请确保您就座并为我将要说明的内容做好准备。

有人指出,我们应该将道德 AI 直接构建到 AI 本身中。

你可能会被那个声明弄得不知所措。 让我们打开它。

程序员可能会创建一个人工智能系统,并通过他们自己的编程自我意识来尝试防止人工智能体现偏见和不公平。 开发人员不仅仅是在编程上耕耘,而是在自己的肩膀上观察,询问他们正在采用的方法是否会导致人工智能中必要的不利元素缺失。

太好了,我们的 AI 开发人员似乎有足够的自我意识,试图接受道德行为,并且在他们设计 AI 系统时看到了包含道德准则的光明。

为 Ethical AI 赢得胜利!

一切都很好,尽管这可能会在以后发生。 人工智能已部署并投入日常使用。 部分人工智能包括一个能够动态“学习”的组件。 这意味着人工智能可以根据新数据和原始编程的其他方面进行自我调整。 顺便说一句,这并不意味着人工智能是有感知的。 我们没有感知人工智能。 忽略那些愚蠢的头条新闻,说我们这样做。 没有人能说我们是否会有有感知的人工智能,也没有人能充分预测它何时会发生。

回到我们的故事,人工智能被有意设计为在进行中自我改进。 很方便的概念。 与其让程序员不得不不断地进行改进,不如让 AI 程序自己来做(哇,这是让自己失业吗?)。

在人工智能一寸一寸地自我调整的过程中,各种肮脏的不平等和偏见正通过其自身的改变行为潜入人工智能系统。 虽然程序员最初将这些不完善的方面排除在外,但由于 AI 即时调整,它们现在正在制定。 遗憾的是,这可能以如此微妙的幕后方式发生,没有人比这更聪明。 那些早先可能在最初的详尽测试后给人工智能开绿灯的人,现在盲目地不知道人工智能已经走上了一条烂路 坏的人工智能.

防止或至少抓住这种不受欢迎的出现的一种方法是在 AI 中构建一种道德 AI 双重检查器。 AI 中的一个组件被编程为监视 AI 的行为并检测不道德的 ADM 是否开始出现。 如果是这样,该组件可能会向 AI 开发人员发送警报,或者向运行 AI 系统的公司发送警报。

此组件的更高级版本可能会尝试修复 AI。 这将是对调整的调整,将出现的不道德方面转变为适当的道德参数。 你可以想象这种类型的编程很棘手。 它有可能会误入歧途,可能会将不道德变成非常不道德。 也有可能误报触发组件采取行动,并可能相应地搞砸事情。

无论如何,在不被这个双重检查器的功能所困扰的情况下,我们将对它做出一个大胆的声明。 你可以建议以某种有限的方式,说人工智能是有自我意识的。

是的,对于许多人来说,这些都是争吵的话。

几乎每个人都普遍认为,今天的人工智能没有自我意识。 句号,句号。 在我们到达有感知力的 AI 之前,我们不知道它是否会发生或何时会发生,没有任何类型的 AI 具有自我意识。 至少在以人为本的自我意识的意义上。 甚至不要暗示它会发生。

我当然同意我们需要小心拟人化 AI。 稍后我会详细说明这种担忧。

同时,如果您为了讨论而愿意以松散的方式使用阶段性“自我意识”,我相信您会很容易理解为什么可以说 AI 遵守了自我的整体概念。意识。 我们有一部分 AI 正在监控 AI 的其余部分,密切关注 AI 的其余部分在做什么。 当 AI 的其余部分开始过度使用时,监控部分会试图检测到这一点。 此外,AI 监控部分或双重检查器可能会将 AI 的其余部分引导回正确的通道。

这看起来是不是有点像观看那些猫的视频并有你这样做的自我意识?

它有一个熟悉的戒指。

我们可以进一步扩展它。 AI 双重检查器组件不仅被编程为观察其余 AI 的行为,而且还记录使用 AI 的人的行为。 用户在使用 AI 时的表现如何? 假设一些用户对人工智能似乎歧视他们表示愤慨。 AI 双重检查器可能会发现这一点,将其用作其他 AI 误入歧途的另一个危险信号。

这就提出了内部自我意识和外部自我意识的分类。

AI 双重检查器正在内部和外部进行扫描,以确定 AI 的其余部分是否已进入令人不安的海域。 检测将引发标志或导致实施自我纠正。

让我们添加另一个令人难以置信的扩展。 我们构建了另一个 AI 双重检查器,旨在对核心 AI 双重检查器进行双重检查。 为什么这样? 好吧,假设 AI 双重检查器似乎步履蹒跚或未能完成其工作。 双重检查者的人工智能双重检查者将寻求检测此故障并相应地采取必要的行动。 欢迎来到自我意识的递归性质,有些人可能会自豪地宣称,正如计算 AI 系统所展示的那样。

对于那些已经对此感到不安的人,目前的最后一条评论是,我们可以尝试建议,如果你让人工智能系统“具有自我意识”,那么它们可能会倾向于道德行为。 他们这样做是在有情的基础上吗? 果断,不。 他们是在计算的基础上这样做的吗? 是的,尽管我们必须明确指出它与人类行为的能力不同。

如果您对自我意识的概念被错误地扭曲以使其适合计算方案感到不舒服,那么您对此的疑虑是显而易见的。 我们是否应该阻止正在进行的利用这一概念的人工智能努力是另一个悬而未决的问题。 你可以有说服力地争辩说,至少它似乎引导我们朝着人工智能可能做的更好的结果前进。 在发生这种情况时,我们需要睁大眼睛。

猜猜我们需要看看这一切是如何发生的。 五年、十年、五十年再回过头来,看看你对这个有争议的事情的想法是否发生了变化。

我意识到这是对该主题的一次令人兴奋的检查,您可能会渴望一些日常示例。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了人工智能具有“自我意识”的任何一面,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间无需任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5级还没有真正的无人驾驶汽车,我们甚至都不知道是否有可能实现这一目标,也不知道需要多长时间才能到达那里。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

具有所谓自我意识的自动驾驶汽车和人工智能

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和道德人工智能问题,如果你愿意的话,人工智能具有一种自我意识的令人惊叹的概念。

让我们使用一个简单明了的例子。 一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免你认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆,看我的分析 这里这个链接. 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。 有一天,假设您所在城镇或城市的一辆自动驾驶汽车接近停车标志并且似乎没有减速。 天哪,看起来人工智能驾驶系统会让自动驾驶汽车直接驶过停车标志。 想象一下,如果行人或骑自行车的人在附近的某个地方,突然发现自动驾驶汽车不会停下来。 可耻。 危险的!

而且,违法。

现在让我们考虑人工智能驾驶系统中的一个人工智能组件,它充当一种自我意识的双重检查器。

我们将花点时间深入了解 AI 驾驶系统内部发生的事情的细节。 事实证明,安装在自动驾驶汽车上的摄像机检测到了似乎是停车标志的东西,尽管在这种情况下,一棵杂草丛生的树严重掩盖了停车标志。 最初在停车标志上训练的机器学习和深度学习系统主要是根据完全停车标志的模式设计的,通常不受限制。 在对视频图像进行计算检查后,该特定地点存在停车标志的概率很低(作为增加的复杂性,进一步解释,这是一个新发布的停车标志,没有出现在先前准备的数字地图上人工智能驾驶系统所依赖的)。

总而言之,人工智能驾驶系统在计算上决定继续前进,就好像停车标志不存在一样,或者可能是另一种可能类似于停车标志的标志(这可能发生,并且确实以某种频率发生)。

但是,值得庆幸的是,人工智能自我意识的双重检查器正在监控人工智能驾驶系统的活动。 在计算审查数据并由人工智能的其余部分进行评估后,该组件选择覆盖正常的进程,而是命令人工智能驾驶系统适当地停止。

没有人受伤,也没有发生违法行为。

你可以说,人工智能自我意识的双重检查器就像一个嵌入式法律代理一样,试图确保人工智能驾驶系统遵守法律(在这种情况下,是一个停车标志)。 当然,安全也是关键。

该示例有望展示构想的 AI 自我意识双重检查器如何工作。

接下来,我们可以简要考虑一个更突出的道德 AI 示例,该示例说明了 AI 自我意识双重检查如何提供面向道德 AI 的嵌入式功能。

首先,作为背景,人们对基于人工智能的自动驾驶汽车的出现表达的担忧之一是,它们最终可能会以某种不经意的歧视方式被使用。 就是这样。 假设这些自动驾驶汽车的设置是为了尝试最大限度地提高他们的收入潜力,这对于那些运营着可提供拼车的自动驾驶汽车车队的人来说绝对是有意义的。 车队所有者希望进行有利可图的运营。

可能是在给定的城镇或城市,漫游的自动驾驶汽车逐渐开始服务于社区的某些部分,而不是其他地区。 他们这样做是为了赚钱,因为较贫穷的地区可能不像当地较富裕的地区那样能产生收入。 这不是服务于某些领域而不服务于其他领域的明确愿望。 取而代之的是,自动驾驶汽车的人工智能通过计算“计算出”,通过专注于地理上收入较高的地区,可以赚到更多的钱。 我已经在我的专栏中讨论过这种社会伦理问题,例如在 这里的链接.

假设我们在人工智能驾驶系统中添加了一个人工智能自我感知双重检查器。 一段时间后,人工智能组件通过计算注意到自动驾驶汽车在哪里漫游的模式。 值得注意的是,在某些领域,但在其他领域则不然。 基于已经编码了一些道德人工智能规则,人工智能自我意识双重检查器开始将自动驾驶汽车引导到城镇的其他地方,否则这些地方会被忽视。

这说明了人工智能的自我意识概念,并结合了道德人工智能元素。

再一个这样的例子可能会提供这样的见解,即这种道德人工智能考虑也可能是一个非常清醒和严重的生死攸关的后果。

考虑一个关于最近车祸的新闻报道。 据报道,一名人类司机正驶向一个繁忙的十字路口,并获得了绿灯直行。 另一名司机冲过红灯,在他们不应该这样做的时候进入了十字路口。 开绿灯的司机在最后一刻意识到,另一辆车要严重撞上他的车。

据这位身陷险境的司机说,他有意识地计算着要么他会被另一辆车撞到,要么他可以转向试图避开闯入者。 转弯的问题是附近的行人会受到威胁。

你会做出哪个选择?

你可以做好被击中的准备,并希望伤害不会伤害或杀死你。 另一方面,您可以彻底偏离,但严重危害并可能伤害或杀死附近的行人。 这是一个难题,包括道德判断,并且完全沉浸在道德(和法律)含义中。

有一个通用的道德困境涵盖了这种困境,著名或可能臭名昭著地称为电车问题,请参阅我的广泛报道 这里这个链接. 事实证明,这是一个可以追溯到 1900 年代初期的道德激励思想实验。 因此,这个话题已经存在了很长一段时间,最近已经普遍与人工智能和自动驾驶汽车的出现联系在一起。

用嵌入自动驾驶汽车的人工智能驾驶系统代替人类驾驶员。

那么想象一下,一辆人工智能自动驾驶汽车正在进入一个十字路口,自动驾驶汽车的传感器突然检测到一辆人类驾驶的汽车危险地直接闯红灯并瞄准无人驾驶汽车。 假设自动驾驶汽车车内有一些乘客。

你想让 AI 做什么?

人工智能驾驶系统应该选择继续前进并被撞到(可能会伤害或杀死车内的乘客),还是您希望人工智能驾驶系统抓住机会并转向离开,尽管转向动作需要自动驾驶汽车危险地冲向附近的行人,并可能伤害或杀死他们。

许多自动驾驶汽车的 AI 制造商正在对这些道德 AI 激烈的困境采取直接的方法。 总的来说,目前编程的人工智能只会向前推进并被另一辆车猛烈撞击。 人工智能没有被编程为寻找任何其他规避动作。

我一再预测,人工智能自动驾驶汽车制造商的这种不闻不问不闻不问的立场最终会反过来咬他们(我的分析是在 这里的链接)。 你可以期待涉及此类车祸的诉讼,这些诉讼将试图找出人工智能被编程做什么。 开发和部署 AI 的公司或 AI 开发人员或车队运营商是否疏忽或对 AI 所做或未做的事情负责? 您还可以预期,一旦发生此类情况,将在公众范围内引发一场道德 AI 意识风暴。

我们自吹自擂的以道德为导向的 AI 自我意识双重检查器进入了这个道德 AI 困境。 也许这个特殊的人工智能组件可能会参与这些情况。 该部分正在监控人工智能驾驶系统的其余部分和自动驾驶汽车的状态。 当出现这样的可怕时刻时,人工智能组件将充当电车问题解决者,并提供人工智能驾驶系统应该做的事情。

我向你保证,编码不是一件容易的事。

结论

我将与您分享关于这个主题的最后一个想法。

你可能会觉得它很有趣。

你知道吗 镜像测试?

这在自我意识的研究中是众所周知的。 这件事的其他名称是镜子自我识别测试,红点测试,胭脂测试和相关的措辞。 该技术和方法最初是在 1970 年代初制定的,用于评估动物的自我意识。 据报道,成功通过测试的动物包括猿、某些类型的大象、海豚、喜鹊和其他一些动物。 被测试并据报道未通过测试的动物包括大熊猫、海狮等。

这笔交易。

当动物在镜子里看到自己时,它是否意识到所显示的图像是自己的,还是动物认为它是另一种动物?

据推测,动物在视觉上认出了自己的物种,看到了其他同类,因此可能认为镜子中显示的动物是表亲或可能是好战的竞争者(特别是如果动物对镜像咆哮,这在转身似乎在向他们咆哮)。 也许您已经看到您的家猫或心爱的宠物狗第一次在家用镜子中看到自己时也会这样做。

无论如何,我们会假设野生动物以前从未见过自己。 好吧,这不一定是真的,因为也许这只动物在平静的水池中或通过闪亮的岩层瞥见了自己。 但这些被认为是不太可能的机会。

好的,我们想以某种方式评估一种动物是否能够弄清楚它实际上是镜子中显示的动物。 思考这个看似简单的行为。 人类在很小的时候就知道他们的存在,并且通过在镜子中看到自己来证明他们的存在。 他们开始意识到自己。 理论上,你可能不会意识到你就是你,直到在镜子里看到自己。

也许动物无法以同样的方式在认知上变得自我意识。 可能是一种动物会在镜子中看到自己,并永远相信它是其他动物。 不管它看到自己多少次,它仍然会认为这是一种与自己不同的动物。

这其中的技巧部分开始发挥作用。 我们在动物身上做标记。 只有当动物在镜子中看到自己时,才能看到这个标记。 如果动物可以扭转或转动并(直接)看到自己身上的标记,那就会破坏实验。 此外,动物无法感觉、闻到或以任何其他方式检测到标记。 再一次,如果他们这样做,就会破坏实验。 动物不能知道我们在它上面做了标记,因为这会提示野兽有什么东西。

我们希望缩小范围,以便发现标记的唯一可能原因是通过在镜子中观察自己。

啊哈,测试已经准备好了。 动物被放在镜子前或游荡到镜子前。 如果动物随后试图触摸或挖掘标记,我们可以合理地得出结论,发生这种情况的唯一方法是动物意识到标记在自己身上。 很少有动物物种能够成功通过这项测试。

有很多关于测试的批评。 如果人类测试人员在附近,他们可能会通过盯着标记泄露东西,这可能会导致动物刷或摸它。 另一种可能是动物仍然相信镜子中出现了另一只动物,但它是同一类型,因此动物想知道它是否也有与另一只动物一样的标记。

不断下去。

我相信你很高兴知道这一点,并且今后会明白为什么动物身上会有一个点或一些奇怪的标记,否则不会有这样的标记。 谁知道,它可能最近完成了一个镜像测试实验。 安全地祝贺动物成为慷慨的参与者。

这些与基于人工智能的自动驾驶汽车有什么关系?

你会喜欢这部分的。

一辆自动驾驶汽车在一条长长的高速公路上行驶。 人工智能驾驶系统正在使用传感器来检测其他交通。 这是一条两车道的高速公路,一条车道向北行驶,另一车道向南行驶。 有时,汽车和卡车会试图通过对方,进入对面的车道,然后跳回正确的车道。

你已经看到了,毫无疑问你已经做到了。

我敢打赌,下一个方面也发生在你身上。 在自动驾驶汽车前面是一辆大型油罐车。 它由闪亮的金属制成。 像口哨一样抛光和清洁。 在这样的卡车后面时,您可以通过油罐车的后部看到您汽车的镜像。 如果你看过这个,你就会知道它是多么令人着迷。 在那里,你和你的汽车,倒映在油罐车后部的镜面反射中。

坐下来享受疯狂的转折。

一辆自动驾驶汽车出现在油罐车后面。 摄像头检测到像镜子一样的反射中显示的汽车图像。 哇,人工智能评估,那是一辆车吗? 它是在自动驾驶汽车上吗? 随着自动驾驶汽车离油罐车越来越近,汽车似乎也越来越近了。

哎呀,人工智能可能会计算出这是一个危险的情况,人工智能应该对这辆疯狂的流氓车辆采取规避行动。 你看,人工智能并没有在镜子里认出自己。 它没有通过镜像测试。

该怎么办? 也许人工智能自我意识的双重检查器会介入此事,并向人工智能驾驶系统的其余部分保证这只是一种无害的反射。 避免了危险。 世界得救了。 成功通过AI镜像测试!

有了一个半开玩笑的结论,我们甚至可以建议,有时 AI 比普通熊更聪明,或者至少更有自我意识(尽管熊的功劳,它们通常在镜像测试中表现出色,通常已经得到习惯了它们在水池中的倒影)。

更正,也许人工智能比大熊猫和海狮更具有自我意识,但不要告诉动物,它们可能会试图粉碎或抨击人工智能系统。 我们不想这样,对吗?

资料来源:https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/