五角大楼关于杀手机器人的最新政策是什么?

五角大楼发布了一份 更新其指令 3000.09,涵盖了他们的术语 武器系统的自主性 和其他人称'杀手机器人.' 当前的无人机,如空军和中央情报局 MQ-9 收割者 由遥控器操作:一个人 坐在视频屏幕前 识别数千英里外地面上的目标,将它们放在十字准线中并释放 地狱火导弹 或其他武器。 自主武器不同:它们在没有任何人为干预的情况下选择自己的目标。 关于何时以及如何使用它们需要明确的规则,而新指令使它们更近了一步。

十年前,当第一个版本 3000.09 发布时,自主武器看起来就像科幻小说。 现在它们非常真实。 联合国声称 土耳其提供的无人机自主攻击目标 2020 年在利比亚,俄罗斯现在正在乌克兰部署游荡弹药 自主能力。

许多活动家,如 阻止杀手机器人的运动,希望彻底禁止自主武器,坚持任何远程武器都在 有意义的人类控制 每时每刻。 联合国一直在讨论如何 控制这些武器多年.

然而,正如新指令所表明的那样,五角大楼坚持不同的路线。

“在涉及自主系统和人工智能系统时,国防部一直反对‘有意义的人类控制’的政策标准,” 格雷戈里·艾伦,人工智能治理项目主任 战略与国际研究中心, 告诉我。 “国防部首选的艺术术语是‘适当的人类判断水平’,这反映了这样一个事实,即在某些情况下——例如,自主侦察机和某些类型的自主网络武器——人类控制的适当水平可能很少甚至没有”

在什么情况下允许使用哪些自主武器? 艾伦认为该指令的先前版本非常不明确,以至于阻碍了该领域的任何发展。

“混乱是如此普遍——包括在一些国防部高级领导人中——以至于官员们避免开发一些系统,这些系统不仅是政策允许的,而且还明确免除了高级审查要求,”艾伦说。

自原始 3000.09 发布以来的十年里,没有一件武器被提交到自主武器审查程序中。

艾伦写了一篇 关于这个的文章 去年为 CSIS 描述了四个需要工作的领域——正式定义自主武器系统,说明“人工智能”对政策意味着什么,审查过程将如何处理机器学习模型的再训练,并阐明哪些类型的武器需要经历艰苦的审查过程。

“国防部已经实施了所有这些,”艾伦说。

那么原则上,这应该确保国防部所说的“坚定而持续地致力于成为透明的全球领导者,制定有关自主系统军事用途的负责任政策。”

然而,有一些可能被视为漏洞的补充,例如不以人为目标(“反物质武器”)但允许以导弹、其他无人机为目标的自主武器防御无人机免于高级审查以及可能的其他系统。

“'捍卫'这个词正在做大量的工作,” 扎克·卡伦伯恩,乔治梅森大学沙尔政策与政府学院的一名政策研究员告诉我。 “如果无人机在敌方领土上运行,几乎任何武器都可以被解释为‘保卫’平台。”

Kallenborn 还指出,虽然像地雷这样的有效自主武器已经使用了一个多世纪,但由于人工智能和特定机器学习的进步,情况正在迅速发生变化。 这些已经产生了非常有能力的系统,但是 技术上脆弱 – 当他们失败时,他们以人类不会的方式失败,例如 把乌龟当成步枪.

Kallenborn 说:“考虑到目前主导方法的脆弱性和缺乏可解释性,通过人工智能实现的自主权绝对值得更多关注。”

更新不是很大。 但这确实表明五角大楼继续致力于开发有效的自主武器,并相信他们可以遵守 国际人道法 — 区分平民和军事人员,力求避免伤害平民,并且只使用相称和必要的武力。

活动人士认为,人工智能将不具备在战时做出道德判断所需的理解力,并有可能创造一个战争自动化、人类不再受控的世界。 其他人认为美军将 被拥有自主武器的对手击败 除非人工智能被纳入战术层面,而且太多的人类参与 减慢军事机器人.

即使自主武器开始出现,争论也可能继续下去,结果将受到密切关注。 无论哪种方式,杀手机器人似乎都来了。

来源:https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/