AI 伦理在基于 AI 的自主武器系统的火热一击二拳和对被恶魔武器化的 AI 驱动的自主系统的利用中苦苦挣扎

那些惊人的跳舞四足机器人。

我敢肯定,你已经看过那些四足机器人系统的病毒视频,它们以看似令人愉快且像狗一样喜爱的方式跳舞和腾跃。 我们似乎很高兴看到那些由人工智能驱动的机器人越过障碍物,当它们栖息在盒子顶部或被摇摇晃晃地放在酒醉的橱柜顶部后,它们似乎获得了一个微妙的立足点。 他们的人类操作员有时会戳或推嬉戏的四足机器人,这似乎非常不公平,并且很容易让你对那些策划人形机器人的粗暴对待感到愤怒。

我想知道您是否看过完全不同口径的不那么流行的视频。

做好准备。

广泛发布的视频显示了相同类型的四足机器人,这些机器人配备了一种或另一种明显的武器。

例如,机关枪或类似的枪支安装在其他熟悉的跳舞和跳跃机器人的顶部。 四足机器人与武器的发射机构之间存在电子联动。 现在武器化的计算机行走装置大步走到放置靶心目标的地方,机枪猛烈地朝目标开火。 在钉牢随后被部分摧毁的目标后,四足机器人会在附近的障碍物周围跳舞和腾跃,并排成一列,在其他新目标上一遍又一遍地重复相同的动作。

不完全是您可能期望看到的。 这无疑消除了坦率地看着那些可爱的四足机器人做他们的事情时的轻松和相对的快乐。 欢迎来到看似残酷的现实 无害的 自主系统被转换或转变为被尖锐武器化的系统。 不费吹灰之力,你就可以在一夜之间拥有一个被认为是“非武器化”的自主系统,改装后包含全套武器。

在某些情况下,这几乎很容易。

我将讨论这个备受争议的话题,并讨论出现的相当严重的 AI 伦理问题。 我们将探索自主系统、人工智能、自动驾驶汽车、武器化以及一系列相关的道德 AI 战斗问题。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

让我们从一些基本的基石开始。

为了便于讨论,接受有两种主要方法可以对配备武器的自主系统进行分类:

1) 自主武器系统 (按设计)

2) 武器化的自治系统 (事后)

这两个类别之间有一个重要的区别。

首先,我们将定义一个 自主武器系统 从一开始就是一个旨在成为武器的计算机化创作的基础。 开发人员认为他们想设计一种武器。 他们明确的追求是生产武器。 他们知道他们可以将武器与最新的自主系统技术整合在一起。 这是一种驾驭高科技浪潮的武器,可以实现自主运动和自主行动(稍后我将更详细地阐述)。

相比之下,在第二种情况下,我们将考虑完全不偏向武器的自主系统的问题。 这些是为其他目的而开发的自治系统。 设想一种自动驾驶汽车,例如自动驾驶汽车,它将用于为所有人提供移动性,并帮助减少每年因人类驾驶和人工驾驶汽车而导致的数千人死亡(请参阅我的深入报道在 这里的链接)。 对于那些积极推动社会推动人类摆脱方向盘并将人工智能置于驾驶座上的努力,似乎没有考虑任何武器。

但如果人类愿意,这些无害的自治系统可以被武器化。

我将第二类称为 武器化的自主系统. 自治系统最初是出于非武器目的而虔诚地制作的。 尽管如此,梦幻般的利他主义希望被某个地方的某个人颠覆了,他们认为这种发明可以被武器化。 突然之间,看起来很可爱的自主系统通过标记某种形式的武器能力(例如前面提到的四足狗状机器人,其特征上添加了机关枪或类似枪支)变成了致命武器.

可悲的是,这两个类别最终在同一个地方结束,即提供在可能致命的基础上利用自主系统制造武器的能力。

到达该端点的过程可能会有所不同。

对于与武器挂钩的完全武器化的自主系统,武器方面通常是前端和中心。 你可能会说自主系统的各个方面都围绕着正在考虑的任何武器的基石。 开发人员的思考过程有点类似于武器如何利用自主系统的出现。

另一种观点通常根本不是那种心态。 开发人员希望获得一个最先进的自治系统,也许是为了人类的福祉。 这些开发人员将他们最真诚的心和灵魂投入到自主系统的制作中。 这是他们发明的核心。 他们可能无法想象有人会篡夺或颠覆他们的神奇设备。 他们幸福地沉迷于与正在塑造和生产的自治系统相关的社会效益。

在某个时候,假设第三方意识到自治系统可以重新调整为武器化。 也许他们欺骗开发人员让他们拥有自治系统,以实现所谓的崇高目的。 在闭门造车的情况下,这些作恶者选择偷偷地为自主系统增加武器化能力。 瞧,纯真变成了彻头彻尾的武器。

事情不必以这种方式进行。

也许开发人员被告知他们正在开发一个无辜的自治系统,但那些资助或指导这项工作的人有其他目的。 也许自治系统的努力确实是无辜地开始的,但是当必须支付账单时,领导层与出于邪恶原因想要自治系统的资金来源达成协议。 另一种可能性是,开发人员知道以后可能会用于武器化,但他们认为他们会在这座令人痛苦的桥梁出现时或如果它出现的话。 等等。

关于这一切如何发挥作用,有很多不同的路径。

你可能会发现我在之前的专栏中描述过的关于 AI 道德意识正在提高的兴趣 双重用途 当代人工智能的元素,见 这里的链接. 让我简要介绍一下。

一个被设想为好的人工智能系统有时可能处于坏的边缘,也许通过一些相当简单的改变,相应地被认为具有双重用途。 最近在新闻中出现了一个人工智能系统,该系统旨在发现可能是杀手的化学物质,开发人员希望确保我们可以避免或警惕这些构思不周的化学物质。 事实证明,人工智能可以很容易地进行调整,以专门发现那些致命的化学物质,从而有可能让坏人知道可能为他们的邪恶计划制造什么样的化学物质。

自治系统显然可以适应这种双重用途的环境。

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。 人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括(可能令人惊讶或具有讽刺意味地)评估 AI Ethics 如何被公司采用。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而削弱金鹅。

自治与武器为两条戒律

有些人用一个流行语来警告各种武器化的自治系统,这些系统被集体创造为 屠宰机器人.

这带来了我们应该仔细考虑的另一个方面。

自主武器系统和/或已武器化的自主系统是否必须具有致命或杀手机器人优势?

有些人会争辩说,我们可以果断地 非致命 武器化的自主系统也是如此。 因此,从这种观点来看,使用诸如屠宰机器人或杀手机器人之类的措辞似乎是非常不合适的。 一种非致命的变体可能能够抑制或造成非致命结果的伤害。 那些这样的系统不是杀人,它们产生伤害的能力较小。 不要夸大能力,说那些坚持我们不必全神贯注于彻头彻尾的杀人机器比喻的人。

因此,我们可能有这个:

  • 致命的自主武器系统
  • 武器化的致命自主系统
  • 非致命自主武器系统
  • 已武器化的非致命自主系统

当然,反驳的观点是,任何已被武器化的自主系统似乎都有可能滑入致命领域,即使据说只是设想在非致命基础上使用。 一旦你已经在自主系统中掌握了武器,从非致命到致命的增量两步将很快进行。 你将很难提供一个铁定的保证,即非致命的东西不会进入致命的领域(尽管有些人正试图这样做,在数学上)。

在我们深入探讨自主系统和武器化的整体主题之前,指出一些其他的东西可能会很方便,尽管这些东西可能很明显,但不一定是显而易见的。

在这里,它是:

  • 有一个人工智能方面是自治系统的重要组成部分
  • 有一个武器方面是这个等式的武器方面
  • AI也可能与武器相互关联

让我们打开包装。

我们将假设今天的自治系统需要人工智能作为产生自治方面的基础计算机化手段。 我之所以提到这一点,是因为您可能会争辩说我们可能会使用非 AI 相关的技术和技术来构建自治系统,尽管这确实如此,但似乎越来越不可能。 基本上,人工智能倾向于允许更高水平的自主性,并且大多数人都在相应地利用人工智能高科技。

好的,所以我们已经有了一种基于人工智能的能力,它以某种方式注入到自治系统中,并起到引导和控制自治系统的作用。

作为经验法则,请保持触手可及。

很明显,我们还需要某种形式的武器,否则我们为什么要在这里讨论自主系统的话题 武器。 所以,是的,显然,有一种或另一种武器。

我不打算深入研究可能使用的武器类型。 您可以简单地替换想到的任何武器。 可能有精确的武器。 可能有面向大规模的破坏性武器。 它可能是带有子弹或弹丸的东西。 它可能是含有化学物质或原子挥发性成分的东西。 名单是无穷无尽的。

额外的考虑是人工智能是否与武器相互关联。 人工智能可能只是带着武器兜风。 在四足机器人射击枪的情况下,也许枪是由具有连接到触发武器的遥控器的人发射的。 像狗一样的机器人在场景中导航,然后由远程人来扣动扳机。

另一方面,人工智能可能是扳机扳机,实际上。 人工智能可能被设计为不仅可以导航和机动,还可以激活武器。 从这个意义上说,人工智能正在做从头到尾的所有事情。不依赖远程人类来执行武器方面的事情。 人工智能被编程来做到这一点。

为了澄清在这个被武器化的自治系统的特殊用例中,我们有以下几种可能性:

  • 自治系统: 人工智能完全独立运行自治系统
  • 自治系统: 人工智能运行自治系统,但人在回路中也可以干预
  • 武器: 远程人类运行武器(AI 没有)
  • 武器: 人工智能运行武器,但人在回路中也可以干预
  • 武器: AI 完全独立运行武器

我之前已经介绍过关于自动系统和自动驾驶汽车的人在循环中的变化,请参阅 这里的链接.

当您观看那些跳舞和腾跃的四足机器人的有趣视频时,它们通常应该是完全由 AI 导航运行的机器人(嗯,这是那些深入研究的习惯或被认为是适当的礼仪)进入这些问题)。 这也是你可能正确假设的。 当然,你不确定。 可能是远程操作员正在指导机器人。 人工智能也有可能做部分引导,远程人类操作员也这样做,如果机器人进入一个艰难的位置并且无法通过计算计算出一种可行的方法来自由摆动自己,那么它可能会帮助人工智能。

这里的要点是,人工智能、自主系统和武器化如何能够混合使用有多种形式。 有些人拥有运行自主系统但不运行武器的人工智能。 一个人可能远程操作武器。 另一个角度是武器可能是预先激活的,自主系统交付激活的武器,因此人工智能本身并不直接参与武器的触发,而是充当运载工具。 人工智能可能是众所周知的万事通,并且在自主系统方面的整个范围也可以用于武器的使用。

随便你吧。

同时,请注意,在有关该主题的辩论中,人机交互是一个重要因素。

一些人的分界线是,如果 AI 进行瞄准和射击(或武器需要的任何东西),那么整个套件和 caboodle 已经越过了禁地。 这似乎不同于具有预先确定目标的人类决定选择的常规发射后不管武器,例如一架巡逻无人机,它有一枚准备好向目标发射的导弹。 已经 由人类选择。

一些人想知道为什么武器化的自治系统在自治系统处于积极进行状态的整个过程中并不总是包括一个人在回路中。 似乎我们可能会更好,如果一个尖锐的要求是所有这些武器化的自主系统都必须有一个人在循环中,要么是为了自主系统的操作,要么是为了操作武器(或两者兼而有之) . 在这种 AI 组合中保持一个假定的稳妥的人手似乎完全是精明的。

准备好一长串为什么这不一定可行的原因。

考虑这些困难:

  • 人在环可能不够快,无法及时响应
  • Human-in-the-loop 可能没有足够的信息来尽职尽责地做出回应
  • Human-in-the-loop 可能在需要的时候不可用
  • Human-in-the-loop 可能尚未决定,不会在需要时采取行动
  • Human-in-the-loop 可能会做出“错误”的决定(相对而言)
  • 在需要的时间,系统可能无法访问人在环
  • Human-in-the-loop 可能会感到困惑和不知所措
  • 等等

毫无疑问,你很想看看人类的弱点和限制清单,然后得出一个庄严的结论,即切除人类在环并始终使用人工智能显然是有意义的。 这可能是排除了人在回路,也可能是让人工智能能够覆盖根深蒂固的人在回路设计。 请参阅我对 AI 和人类在环之间的分歧如何导致不稳定情况的分析,涵盖在 这里的链接.

通常,这些以人为中心的实时缺点的轻描淡写列表会自动留下,并留下挥之不去的印象,即人工智能必须以某种方式实现跨越式发展,这是比让人类参与其中更明智的选择. 不要落入那个危险的陷阱。 这涉及到令人清醒的权衡。

考虑人工智能的这些后果:

  • AI 可能会遇到导致其误入歧途的错误
  • 人工智能可能会不堪重负并无响应地锁定
  • AI 可能包含导致行为不稳定的开发人员错误
  • AI可能被植入的邪恶病毒破坏
  • 人工智能可能会被网络黑客实时接管
  • 由于复杂性,人工智能可能被认为是不可预测的
  • 人工智能可能会在计算上做出“错误”的决定(相对而言)
  • 等等

我相信您可以看到在使用人工参与与仅依赖人工智能之间存在权衡。 如果您想建议现成的解决方案是同时使用两者,我只想强调您可以两全其美,但也可以两全其美。 不要假设它总是并且肯定是两全其美的。

你可能对上面列出的关于人工智能的缺点之一感到有些惊讶,特别是人工智能可能是 变幻莫测. 我们习惯于相信人工智能应该是严格的逻辑和数学精确的。 因此,您可能还期望 AI 将是完全可预测的。 我们应该确切地知道人工智能会做什么。 期,故事结束。

很抱歉让气球破裂,但这种可预测性的神话是用词不当。 现代人工智能的规模和复杂性通常是一个无法完全预测的泥潭。 这一点在当今一些机器学习 (ML) 和深度学习 (DL) 使用的道德 AI 骚动中可以看出。 我会稍微解释一下。

此外,您可能想看看我对即将到来的趋势的最新分析,这些趋势试图通过最新的人工智能安全性来确保可验证和数学上可证明正确的人工智能系统,在 这里的链接.

反思道路规则

我已经提到了目标和目标的概念,这是一个相当繁重的术语,值得密切关注。

我们可以这样思考:

  • 目标是人类
  • 目标不是人类而是生物
  • 被解释为财产的目标

假设我们有一个已被武器化的自治系统。 人工智能用于引导自主系统并用于武器装备。 人工智能从头到尾做所有事情。没有人在循环中的规定。 在目标方面,人工智能将选择目标。 人类没有建立预先定位。 取而代之的是,人工智能已被编程为通常确定是否有人类成为目标(可能扫描敌对行动、某些类型的制服等)。

到目前为止和我在一起?

这种情况几乎是引起对武器化自主系统最强烈抗议的一种情况。

所陈述的担忧是,人工智能正在(至少)做三件不应该被允许做的事情:

  • 以人为目标
  • 不使用人在环的目标
  • 潜在行为不可预测ly

请注意,有一个重点提到了对 AI 不可预测的担忧。 可能是因为虽然 AI 被编程为针对某些类型的人类,但 AI 编程并不是我们想象的那样,并且 AI 最终针对的是除了那些被 AI 解释为“敌对者”之外的“友军” ”(或者,也许可以代替)。 最重要的是,即使我们选择包含人工参与的条款,人工智能的不可预测性也可能意味着当人工智能应该与人工参与进行协商时,它无法做到所以并且在没有任何人为干预的情况下采取行动。

您可能会感兴趣的是,红十字国际委员会 (ICRC) 就自主武器系统提出了三点总体立场,详细阐述了这些类型的担忧(根据 ICRC 网站):

1. “应明确规定不可预测的自主武器系统 输出,特别是因为它们的不分青红皂白的影响。 最好的办法是禁止自主武器系统的设计或使用方式无法充分理解、预测和解释其影响。”

2. “出于维护人类和维护国际人道主义法规则以保护平民和失去战斗力的战斗人员的道德考虑, 应排除使用自主武器系统瞄准人类. 这最好通过禁止设计或用于对人使用武力的自主武器系统来实现。”

3. “为了保护平民和民用物体,维护国际人道主义法规则和维护人类,应该对不会被禁止的自主武器系统的设计和使用进行规范,包括通过以下方式的结合: 目标类型的限制,例如将它们限制在本质上是军事目标的物体上; 对持续时间、地理范围和使用规模的限制,包括使人类能够对特定攻击进行判断和控制; 使用情况限制,例如将它们限制在没有平民或民用物体的情况下; r人机交互要求,特别是要确保有效的人工监督,以及及时的干预和停用。”

根据在线发布的官方报告,联合国 (UN) 通过日内瓦的《特定常规武器公约》(CCW)制定了 XNUMX 项关于致命自主武器的非约束性指导原则(包括对相关国际人道主义法或国际人道法但书):

(a) 国际人道主义法继续全面适用于所有武器系统,包括可能开发和使用致命自主武器系统;

(b) 必须保留人类对武器系统使用决定的责任,因为责任不能转移到机器上。 这应该在武器系统的整个生命周期中加以考虑;

(c) 人机交互可以采取各种形式并在武器生命周期的不同阶段实施,应确保基于致命自主武器系统领域新兴技术的武器系统的潜在用途遵守适用的国际法,尤其是国际人道法。 在确定人机交互的质量和程度时,应考虑一系列因素,包括作战环境以及整个武器系统的特性和能力;

(d) 必须根据适用的国际法确保在《特定常规武器公约》框架内开发、部署和使用任何新兴武器系统的责任,包括通过在负责任的人类指挥和控制链中运行此类系统;

(e) 根据各国在国际法下的义务,在研究、开发、获取或采用新武器、作战手段或方法时,必须确定在某些或所有情况下使用该武器是否会国际法禁止;

(f) 在基于致命自主武器系统、物理安全、适当的非物理保障(包括防止黑客攻击或数据欺骗的网络安全)领域的新兴技术开发或获取新武器系统时,恐怖组织获取的风险并应考虑扩散风险;

(g) 风险评估和缓解措施应成为任何武器系统中新兴技术的设计、开发、测试和部署周期的一部分;

(h) 应考虑使用致命自主武器系统领域的新兴技术来维护遵守国际人道法和其他适用的国际法律义务;

(i) 在制定潜在政策措施时,不应将致命自主武器系统领域的新兴技术拟人化;

(j) 在《特定常规武器公约》范围内进行的讨论和采取的任何潜在政策措施不应妨碍在和平利用智能自主技术方面取得进展或取得进展;

(k) 《特定常规武器公约》为在《公约》的目标和宗旨范围内处理致命自主武器系统领域的新兴技术问题提供了一个适当的框架,力求在军事必要性和人道主义考虑之间取得平衡。

我们陷入的困境

这些不同的战争法、武装冲突法或国际人道法(国际人道法)是重要且充满希望的指南,可以帮助我们考虑如何应对武器化的自主系统的出现,无论是通过基石设计还是通过事后的方法。

我们可以真诚地希望对致命武器化自主系统的禁令能够得到严格和顺从的遵守。 问题是,在任何最真诚的禁令中,一定会狡猾地发现很多回旋余地。 正如他们所说,规则是用来打破的。 你可以打赌,在事情松散的地方,痞子会找出差距并试图眨眼眨眼以绕过规则。

以下是一些值得考虑的潜在漏洞:

  • 非致命声明。 使 非致命 自主武器系统(看起来没问题,因为它在禁令边界之外),然后你可以很快变成致命的(你只会在最后一分钟超出禁令)。
  • 仅限自治系统的声明. 通过不制造以致命为重点的自主系统来维持禁令,同时,在设计尚未(尚未)武器化但您可以通过一角钱改装成武器化的日常自主系统方面取得同样大的进展。
  • 未整合为一体的主张. 制作完全没有武器化的自主系统,当时机成熟时,搭载武器化,这样你就可以尝试激烈地争辩说它们是两个独立的元素,因此争辩说它们不属于一体式的范畴自主武器系统或其近亲。
  • 声称它不是自治的. 制造一个似乎没有自主能力的武器系统。 在这个可能是非自治的系统中为基于人工智能的自治留出空间。 需要时,插入自治权,您就可以滚动了(在此之前,您似乎没有违反禁令)。
  • 其他名称

试图彻底禁止致命的自主武器系统还有很多其他明显的困难。 我将介绍其中的几个。

一些权威人士认为,禁令并不是特别有用,而是应该有监管规定。 这个想法是,这些装置将被允许但严格监管。 列出了一系列合法用途,以及合法的瞄准方式、合法的能力类型、合法的相称性等。

在他们看来,直截了当的禁令就像把头埋在沙子里,假装房间里的大象不存在。 这种争论虽然让那些反驳的人沸腾了,他们认为通过实施禁令可以大大减少追求这些系统的其他诱惑。 当然,有些人会炫耀禁令,但至少希望大多数人不会。 然后,您可以将注意力集中在炫耀者身上,而不必将注意力分散到每个人身上。

这些辩论一轮又一轮。

另一个经常被关注的问题是,即使好人遵守禁令,坏人也不会。 这使好人处于糟糕的状态。 坏人将拥有这些武器化的自主系统,而好人则不会。 一旦事情被揭露,坏人有他们,好人赶上来就太晚了。 简而言之,唯一精明的事情就是准备以火攻毒。

还有经典的威慑争论。 如果好人选择制造武器化的自主系统,这可以用来阻止坏人试图卷入争斗。 要么好人会得到更好的武装,从而劝阻坏人,要么当坏人揭露他们一直在秘密设计这些系统时,好人就会做好准备。

与这些计数器相反的是,通过制造武器化的自主系统,你正在进行一场军备竞赛。 另一方将寻求相同。 即使他们在技术上无法重新创建这样的系统,他们现在也可以窃取“好”系统的计划,对高科技的胆量进行逆向工程,或者模仿他们认为经过验证的任何东西完成工作的方法。

啊哈,有人反驳说,所有这一切都可能导致冲突的减少,表面上是相互的。 如果 A 方知道 B 方拥有那些致命的自主系统武器,而 B 方知道 A 方拥有这些武器,他们可能会坐稳,不会发生冲突。 这具有明显的相互确保破坏 (MAD) 氛围的光环。

等等。

自治中的人工智能

让我们确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

有了这些附加的基础背景,我们再次转向自主系统和武器化主题。 前面我们看到,人工智能进入自主系统组件,也可以进入武器化组件。 今天的人工智能没有感知力。 这值得重复,我将强调这一点,以增加对这些问题的见解。

让我们探索一些场景,看看这是一个关键的考虑因素。 我将暂时放弃关于这个话题的战时取向,并展示它如何渗透到许多其他社会环境中。 相应地稳定自己。

一个基于人工智能的自主系统,例如自动驾驶汽车,我们将说它与武器没有任何关系,它正在整个正常环境中普及。 一个人来使用自动驾驶汽车。 此人手持不祥的武器。 在这个特定场景中,为了便于讨论,假设这个人有一些不愉快的事情。 该人进入自动驾驶汽车(携带武器,无论是隐藏还是不隐藏)。

自动驾驶汽车会前往骑手要求的任何目的地。 在这种情况下,人工智能只是以编程方式将这名乘客从一个接送地点运送到指定目的地,就像它每天可能进行数十次或数百次旅行一样。

如果这是人类驾驶员和人类驾驶的车辆,那么人类驾驶员可能会意识到乘客是武装的并且似乎有不良意图。 人类驾驶员可能会拒绝驾驶车辆。 或者人类司机可能会开车去警察局。 或者,人类驾驶员可能会试图制服武装乘客(报告的实例存在)或劝阻乘客不要使用他们的武器。 它非常复杂,并且可以存在任意数量的变体。 你很难断言解决这种困境只有一个正确的答案。 可悲的是,情况令人烦恼,而且显然很危险。

在这种情况下,人工智能不太可能针对任何这些可能性进行编程。 简而言之,武装乘客可能能够在驾驶过程中使用他们的武器,在自动驾驶汽车内这样做。 人工智能驾驶系统将继续行驶,自动驾驶汽车将继续驶向指定的乘客(假设目的地未被视为超出范围)。

大多数当代人工智能驾驶系统只会在计算上关注道路,而不是骑手的努力。

事情可能会比这更糟。

假设有人想要将一堆杂货运送到一个为有需要的人提供额外食物的地方。 该人要求一辆自动驾驶汽车,并将食品杂货袋放入汽车的后座。 他们不会去兜风,只是使用自动驾驶汽车为他们运送食物袋。

似乎完全没问题。

设想一个卑鄙的人选择在自动驾驶汽车中放置某种形式的武器,而不是更和平的购物袋概念。 我想你可以猜到会发生什么。 这是我一直在我的专栏中反复告诫的一个问题,并警告我们需要尽快解决这个问题。

对这些类型场景的一种回应是,也许所有自动驾驶汽车都可以通过编程来利用它们的摄像头和其他传感器来尝试检测潜在乘客是否持有武器并且有邪恶的意图。 也许人工智能会被编程来做到这一点。 或者,人工智能以电子方式静默提醒远程操作员,然后操作员将通过摄像头进行视觉检查,并可能与乘客进行交互。 这都是复杂且可能难以处理的蠕虫的一部分,因此它会引发严重的隐私问题和大量其他潜在的道德 AI 问题。 请参阅我的报道 这里的链接.

另一个有点相似的选择是,人工智能包含某种嵌入式伦理程序,试图使人工智能做出通常留给人类决策者的伦理或道德判断。 我已经研究过这些正在酝酿中的 AI 嵌入式计算伦理预测器,请参阅 这里的链接这里的链接.

回到战场场景,设想一个致命的自主武器系统正在战区上空巡航。 人工智能正在运行自主系统。 人工智能正在操作船上的武器。 我们之前曾设想过,人工智能可能被编程为扫描看似敌对的动作或其他被视为有效战斗人员的人类目标的指标。

同样的人工智能是否应该有某种以伦理为导向的组件,努力在计算上考虑人类在环可能做什么,在某种意义上代替人类在环?

有人说是的,让我们继续这个。 一些人惊恐地退缩,说这要么是不可能的,要么违反了人类的神圣性。

又一罐虫子。

结论

对于那些对这个话题感兴趣的人,还有很多要讨论的。

我将让您快速了解一个棘手的难题。

我们通常期望人类最终将对战时发生的任何事情负责。 如果人工智能正在控制一个自主武器系统或控制一个可能已被武器化的自主系统,而这个系统在战场上做了一些被认为是不合情理的事情,那么这应该归咎于谁或什么?

你可能会争辩说应该追究人工智能的责任。 但是,如果是这样,那究竟是什么意思? 我们还不认为今天的人工智能是法人身份的体现,请参阅我的解释 这里的链接. 在人工智能的情况下,不要把尾巴钉在驴子上。 也许如果有一天人工智能变得有知觉,你可以尝试这样做。 在那之前,这有点遥不可及(另外,人工智能会受到什么样的惩罚或影响,请参阅我的分析 这里的链接这里的链接, 例如)。

如果人工智能不是负责任的嫌疑人,那么我们自然会说无论人类或人类设计了人工智能,都应该承担责任。 如果人工智能只是在运行一个自主系统,而一些人类随之而来,将其与武器化相结合,你能做到这一点吗? 你会追随 AI 开发者吗? 还是那些部署了人工智能的人? 还是只是武器化的演员?

我相信你会明白我在热烈的讨论中只是触及了冰山一角。

现在,让我们继续结束本次演讲。 你可能还记得约翰·莱利在 尤弗斯:智慧的剖析 在 1578 年令人难忘地指出,在爱情和战争中一切都是公平的。

他会想到自主武器系统的出现以及武器化的自主系统的出现吗?

我们当然需要立即将这一点放在首位。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous-武器系统和对人工智能驱动的自主系统的开发,这些系统被邪恶地武器化了/