人工智能伦理和人工智能法律通过跳舞机器人制造商说他们将避免人工智能武器化提出关于新承诺的难题

您可能在上周的新闻中看到或在社交媒体上注意到一些机器人制造商宣布的承诺,即他们声称的目标是避免通用机器人的人工智能武器化。 稍后我将向您介绍详细信息,所以如果您没有听到这件事,请不要担心。

对这一宣言的反应是迅速的,也许在我们这个两极分化的社会中,像往常一样,既是赞美的,有时是嘲弄的批评或彻头彻尾的怀疑。

这是一个两个世界的故事。

在一个世界里,有人说这正是我们所需要的 提供品牌战略规划 AI机器人开发商申报。

谢天谢地,你站在一个问题的正确一边,这个问题将逐渐变得更加明显和更加令人担忧。 那些可爱的跳舞机器人令人不安,因为很容易重新调整它们以携带武器并以最坏的方式使用(您可以通过访问社交媒体自己查看这一点,并且有大量视频展示了配备机枪的跳舞机器人和其他武器)。

这枚硬币的另一面说,所谓的承诺只不过是一种营销或公共关系的策略(作为旁注,有没有人熟悉承诺和捐赠之间的区别?)。 无论如何,怀疑者告诫说,在跳舞机器人的背景下,这是肆无忌惮的美德信号。 你看,哀叹通用机器人可以被武器化的事实当然是值得和认真寻求的考虑,尽管仅仅声称制造商不会这样做可能是一个空洞的承诺,一些人坚持认为。

总而言之,整个事件引发了相当多的 AI 伦理和 AI 法律考虑。 我们将一丝不苟地解开这个话题,看看这是一个道德和法律的人工智能泥潭的双重打击。 有关我对 AI 道德和 AI 法的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

在整个讨论过程中,我还将参考我之前对人工智能武器化危险的分析,例如我在 这里的链接. 您可能想查看该演讲以了解更多幕后细节。

打开一罐蠕虫的公开信

让我们通过对最近由六家相对知名的先进机器人制造商(即波士顿动力、Clearpath Robotics、ANYbotics、Agility Robotics、Open Robotics 和 Unitree)发布的公开信进行仔细的逐步探索来开始此分析。 总的来说,我猜你主要看到的是波士顿动力机器人,比如那些四肢腾腾的机器人。 它们看起来像狗一样,我们很高兴看到它们四处乱跑。

正如我之前反复警告过的那样,使用这种“跳舞”机器人来说服公众相信这些机器人是可爱的,令人遗憾的是会产生误导,并且会陷入将它们拟人化的大量陷阱。 我们开始认为这些硬化的金属和塑料件就好像它们相当于一只可爱忠诚的狗。 我们愿意接受这些机器人是基于一种错误的安全感和保证感。 当然,你必须赚钱,并且通过在跳舞机器人周围游行来增加这样做的几率,但遗憾的是,这忽略或似乎隐藏了这些机器人是机器人以及控制机器人的人工智能可能被错误设计的真实事实或出错。

考虑人工智能的这些后果(摘自我关于人工智能武器化的文章,见于 这里的链接):

  • AI 可能会遇到导致其误入歧途的错误
  • 人工智能可能会不堪重负并无响应地锁定
  • AI 可能包含导致行为不稳定的开发人员错误
  • AI可能被植入的邪恶病毒破坏
  • 人工智能可能会被网络黑客实时接管
  • 由于复杂性,人工智能可能被认为是不可预测的
  • 人工智能可能会在计算上做出“错误”的决定(相对而言)
  • 等等

这些都是关于人工智能的观点,它是真正在一开始就设计出来做正确的事情的类型。

除了这些考虑因素之外,您还必须包括从一开始就制作的用于做坏事的 AI 系统。 您可以拥有为有益目的而制造的 AI,通常称为 永远的人工智能. 您还可以拥有故意为不良目的而制造的 AI,称为 坏的人工智能. 此外,您可以拥有 永远的人工智能 被破坏或重新调整成为 坏的人工智能.

顺便说一句,这一切都与人工智能变得有知觉没有任何关系,我提到这一点是因为有些人一直在惊呼,今天的人工智能要么是有意识的,要么即将成为有意识的。 不是这样。 在我的分析中,我将这些神话拆开 这里的链接.

让我们确保我们在当今人工智能的本质上是一致的。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

现在我已经为进入公开信奠定了有用的基础,我们准备好深入研究了。

公开信的正式主题标题是这样的:

  • 致机器人行业和我们社区的公开信,通用机器人不应该被武器化”(根据网上发布的内容)。

到目前为止,一切都不错。

标题几乎看起来像冰淇淋和苹果派。 怎么会有人质疑这是从前的呼吁,以避免人工智能机器人武器化?

继续阅读以查看。

首先,作为考虑的素材,这是公开信的正式开头段:

  • “我们是一些世界领先的公司,致力于将新一代先进的移动机器人技术引入社会。 与前几代相比,这些新一代机器人更易于使用、更易于操作、更自主、更实惠且适应性更强,并且能够导航到以前无法使用自动化或远程控制技术的位置。 我们相信,先进的移动机器人将作为行业的同事和我们家中的伙伴为社会带来巨大的利益”(根据网上发布的内容)。

这些类型的机器人出现的积极一面是,我们可以预期会出现很多巨大的好处。 毫无疑问。 您的家中可能有一个机器人,它可以执行类似 Jetson 的活动,例如打扫房子、洗碗和其他家务活。 我们将拥有用于工厂和制造设施的先进机器人。 机器人可能会爬行或移动到狭窄的空间中,例如当建筑物倒塌并且人命危在旦夕时。 等等。

顺便说一句,你可能会感兴趣我最近对特斯拉人工智能日的眼睛批判性报道,埃隆马斯克将某种步行机器人描绘成特斯拉和社会的未来,见 这里的链接.

回到手头的事情。 在认真讨论跳舞机器人或步行机器人时,我们需要仔细考虑权衡或这种使用人工智能的总投资回报率(投资回报率)。 当还要考虑成本时,我们不应该让自己过分迷恋利益。

闪亮的新玩具可能有相当锋利的边缘。

所有这些都引发了一个重要但有些沉默的观点,即现在出现人工智能武器化问题的部分原因是人工智能向自主活动方向发展。 我们通常期望武器通常是人工操作的。 人类决定是开火还是使用武器。 我们大概可以让那个人对他们的行为负责。

被设计为自主工作或可以被欺骗这样做的人工智能似乎会将人类从循环中移除。 然后人工智能通过算法做出可能最终杀死或伤害人类的计算决策。 除了对人工智能缺乏控制的明显担忧之外,你还担心我们可能会在一段时间内对人工智能的行为承担责任。 我们没有明显的煽动者。

我意识到有些人认为我们应该简单直接地让 AI 对其行为负责,就好像 AI 已经获得了知觉或以其他方式被授予了法人资格(请参阅我关于 AI 获得法人资格的辩论的报道 这里的链接)。 这暂时行不通。 我们将不得不将人工智能追溯到设计它或部署它的人类。 毫无疑问,他们将试图通过争辩说人工智能超出了他们的设想,从而在法律上逃避责任。 这是我们需要处理的一个日益严重的争论(请参阅我的 AI 法律著作,了解所涉及的有争议问题的见解)。

根据在线发布的官方报告,联合国 (UN) 通过日内瓦的《特定常规武器公约》 (CCW) 制定了 XNUMX 项关于致命自主武器的非约束性指导原则(包括对相关国际人道法或国际人道法但书的引用) , 包含:

(a) 国际人道主义法继续全面适用于所有武器系统,包括可能开发和使用致命自主武器系统;

(b) 必须保留人类对武器系统使用决定的责任,因为责任不能转移到机器上。 这应该在武器系统的整个生命周期中加以考虑;

(c) 人机交互可以采取各种形式并在武器生命周期的不同阶段实施,应确保基于致命自主武器系统领域新兴技术的武器系统的潜在用途遵守适用的国际法,尤其是国际人道法。 在确定人机交互的质量和程度时,应考虑一系列因素,包括作战环境以及整个武器系统的特性和能力;

(d) 必须根据适用的国际法确保在《特定常规武器公约》框架内开发、部署和使用任何新兴武器系统的责任,包括通过在负责任的人类指挥和控制链中运行此类系统;

(e) 根据各国在国际法下的义务,在研究、开发、获取或采用新武器、作战手段或方法时,必须确定在某些或所有情况下使用该武器是否会国际法禁止;

(f) 在基于致命自主武器系统、物理安全、适当的非物理保障(包括防止黑客攻击或数据欺骗的网络安全)领域的新兴技术开发或获取新武器系统时,恐怖组织获取的风险并应考虑扩散风险;

(g) 风险评估和缓解措施应成为任何武器系统中新兴技术的设计、开发、测试和部署周期的一部分;

(h) 应考虑使用致命自主武器系统领域的新兴技术来维护遵守国际人道法和其他适用的国际法律义务;

(i) 在制定潜在政策措施时,不应将致命自主武器系统领域的新兴技术拟人化;

(j) 在《特定常规武器公约》范围内进行的讨论和采取的任何潜在政策措施不应妨碍在和平利用智能自主技术方面取得进展或取得进展;

(k) 《特定常规武器公约》为在《公约》的目标和宗旨范围内处理致命自主武器系统领域的新兴技术问题提供了一个适当的框架,力求在军事必要性和人道主义考虑之间取得平衡。

这些和其他各种战争法和武装冲突法,或国际人道法(国际人道法)作为一个重要且永远有希望的指南来考虑我们可能会尝试对武器化的自治系统的出现做些什么,无论是通过基石设计或事后的方法。

有人说我们应该彻底禁止那些可武器化的人工智能自治系统。 没错,世界应该放低姿态,强烈要求人工智能自治系统永远不会被武器化。 将实施全面禁令。 故事结局。 句号,句号。

好吧,我们可以真诚地希望严格和顺从地遵守对致命武器化自主系统的禁令。 问题是,在任何最真诚的禁令中,一定会狡猾地找到很多回旋余地。 正如他们所说,规则是用来打破的。 你可以打赌,在事情松散的地方,痞子会找出差距并试图眨眼眨眼以绕过规则。

以下是一些值得考虑的潜在漏洞:

  • 非致命声明. 制造非致命的自主武器系统(看起来没问题,因为它在禁令边界之外),然后你可以很快变成致命的(你只会在最后一分钟超出禁令)。
  • 仅限自治系统的声明. 通过不制造以致命为重点的自主系统来维持禁令,同时,在设计尚未(尚未)武器化但您可以通过一角钱改装成武器化的日常自主系统方面取得同样大的进展。
  • 未整合为一体的主张。 制作完全没有武器化的自主系统,并在时机成熟时搭载武器化,这样你就可以尝试激烈地争辩说它们是两个独立的元素,因此争辩说它们不属于一体式的范畴自主武器系统或其近亲。
  • 声称它不是自治的。 制造一个似乎没有自主能力的武器系统。 在这个可能是非自治的系统中为基于人工智能的自治留出空间。 需要时,插入自治权,您就可以滚动了(在此之前,您似乎没有违反禁令)。
  • 其他名称

试图彻底禁止致命的自主武器系统还有很多其他明显的困难。 我将介绍其中的几个。

一些权威人士认为,禁令并不是特别有用,而是应该有监管规定。 这个想法是,这些装置将被允许但严格监管。 列出了一系列合法用途,以及合法的瞄准方式、合法的能力类型、合法的相称性等。

在他们看来,直截了当的禁令就像把头埋在沙子里,假装房间里的大象不存在。 这种争论虽然让那些反驳的人沸腾了,他们认为通过实施禁令可以大大减少追求这些系统的其他诱惑。 当然,有些人会炫耀禁令,但至少希望大多数人不会。 然后,您可以将注意力集中在炫耀者身上,而不必将注意力分散到每个人身上。

这些辩论一轮又一轮。

另一个经常被关注的问题是,即使好人遵守禁令,坏人也不会。 这使好人处于糟糕的状态。 坏人将拥有这些武器化的自主系统,而好人则不会。 一旦事情被揭露,坏人有他们,好人赶上来就太晚了。 简而言之,唯一精明的事情就是准备以火攻毒。

还有经典的威慑争论。 如果好人选择制造武器化的自主系统,这可以用来阻止坏人试图卷入争斗。 要么好人会得到更好的武装,从而劝阻坏人,要么当坏人揭露他们一直在暗中设计这些系统时,好人就会做好准备。

与这些计数器相反的是,通过制造武器化的自主系统,你正在进行一场军备竞赛。 另一方将寻求相同。 即使他们在技术上无法重新创建这样的系统,他们现在也可以窃取“好”系统的计划,对高科技的胆量进行逆向工程,或者模仿他们认为经过验证的任何东西完成工作的方法。

啊哈,有人反驳说,所有这一切都可能通过一种相互的表象来减少冲突。 如果 A 方知道 B 方拥有那些致命的自主系统武器,而 B 方知道 A 方拥有这些武器,他们可能会坐稳,不会发生冲突。 这具有明显的相互确保破坏 (MAD) 氛围的光环。

等等。

仔细看第二段

我们已经在这里讨论了很多内容,到目前为止只考虑了公开信的第一段或开头段(总共有四段)。

是时候看看第二段了,给你:

  • “与任何提供新功能的新技术一样,先进移动机器人的出现提供了滥用的可能性。 不值得信任的人可能会利用它们来侵犯公民权利或威胁、伤害或恐吓他人。 一个特别令人担忧的领域是武器化。 我们认为,将武器添加到远程或自主操作、公众广泛使用、能够导航到人们生活和工作的以前无法到达的地方的机器人会带来新的伤害风险和严重的道德问题。 这些新能力机器人的武器化应用也将损害公众对该技术的信任,从而损害它们将为社会带来的巨大利益。 由于这些原因,我们不支持将我们的先进移动通用机器人武器化。 对于我们这些过去就这个问题发表过讲话的人,以及第一次参与的人,鉴于最近几个月公众对少数人明显宣传他们的临时行动引起了越来越多的关注,我们现在感到新的紧迫感努力将商用机器人武器化”(根据在线发布的内容)。

阅读第二段后,我希望你能看到我之前关于人工智能武器化的论述是如何脱颖而出的。

让我们检查一些额外的点。

一些人对某个引起皮屑的特定措辞方面有些疑虑是,叙述似乎强调“不值得信赖的人”可能会滥用这些人工智能机器人。 是的,确实,可能是坏人或作恶者带来了“滥用”人工智能机器人的卑鄙行为。

同时,正如本次讨论开始时所指出的,我们还需要明确人工智能本身可能会出错,这可能是由于嵌入的错误或错误以及其他此类并发症。 表达的担忧是,只强调 不信任的人 是它似乎忽略了其他不利的可能性。 尽管大多数人工智能公司和供应商都不愿承认这一点,但仍有大量人工智能系统问题可能会削弱自主系统的安全性和可靠性。 有关我对 AI 安全的报道以及对严格和可证明的保护措施的需求,请参阅 这里的链接,例如。

审查公开信的人中提出的另一个值得注意的观点是,其中包含的断言可能最终会削弱与人工智能机器人相关的公众信任。

一方面,这是一个有效的断言。 如果人工智能机器人被用来做坏事,你可以打赌公众会很生气。 当公众感到愤怒时,你可以打赌立法者会加入进来,并寻求制定法律来打击人工智能机器人和人工智能机器人制造商。 如果法律包罗万象,并阻止涉及人工智能机器人利益的努力,这反过来可能会削弱人工智能机器人行业。 从某种意义上说,婴儿可能会和洗澡水一起被扔掉(这是一个古老的表达方式,可能应该被淘汰)。

提出的一个明显问题是,这种关于避免公众对 AI 机器人信任度降低的断言是否是一种自私的信条,或者它是否是为了我们所有人的利益(可以两者兼而有之吗?)。

你决定。

我们现在来到公开信中特别丰富的部分:

  • “我们保证不会将我们的先进移动通用机器人或我们开发的支持先进机器人技术的软件武器化,我们不会支持其他人这样做。 如果可能,我们将仔细审查客户的预期应用,以避免潜在的武器化。 我们还承诺探索可以减轻或减少这些风险的技术功能的开发。 需要明确的是,我们不会对国家及其政府机构用来保护自己和维护法律的现有技术提出异议”(根据网上发布的内容)。

我们可以解压这个。

坐下来做好相应的准备。

你准备好迎接激烈的两极分化了吗?

从好的方面来说,一些人大声疾呼这些人工智能机器人制造商会做出这样的承诺。 谢天谢地,这些机器人制造商似乎不会将他们的“先进移动通用”机器人武器化。 此外,公开信中说他们不会支持这样做的其他人。

批评者想知道是否有一些巧妙的文字修饰正在进行。

例如,“高级移动性”从哪里开始和结束? 如果机器人制造商正在设计一个 简单- 移动人工智能机器人而不是先进的机器人(这是一个未定义的技术术语),是否会被排除在什么范围内 不能 被武器化? 因此,显然,将简单移动的 AI 机器人武器化是可以的,只要它们不是所谓的 高级.

通用机器人的措辞也是如此。 如果人工智能机器人是专门为武器化而设计的,因此我们不是应该说 一般用途 机器人,这是否成为可行的排除范围?

你可能会用这些狡辩来狡辩,并激烈地争辩说这只是一封公开信,而不是一份 XNUMX 页的法律文件,它阐明了每一个角落和缝隙。

这给我们带来了一些人表达的看似更宏观的疑虑。 本质上,“承诺”意味着什么?

有人问,牛肉在哪里?

做出这样的承诺的公司似乎在没有任何真正的赌注的情况下这样做。 如果签署此承诺的任何公司的高层决定不再履行该承诺,该公司会发生什么? 高管们会被立即封杀吗? 公司是否会因违反承诺而关闭并深表歉意? 等等。

据可以推断,对于任何违反承诺的行为都没有特别的处罚或处罚。

您可能会争辩说存在声誉受损的可能性。 一家承诺公司可能会因为做出不再遵守的承诺而在市场上受到抨击。 当然,这也假设人们会记得做出了承诺。 它还假设会以某种方式检测到违反承诺的行为(如果公司这样做,显然不太可能会告诉所有人)。 违反承诺的人将不得不被点名,但在关于人工智能机器人制造商的新闻海啸中,这样的问题可能只是噪音。

考虑另一个已经出现的角度。

一家质押公司被一些更大的公司收购。 较大的公司选择开始将先进的移动通用机器人变成人工智能武器化版本。

这是否违反了承诺?

较大的公司可能会坚持认为这不是违规行为,因为他们(较大的公司)从未做出过承诺。 与此同时,这家小公司拼凑和设计的无害人工智能机器人似乎带着最无私的意图,几乎在一夜之间就被改造成了武器化。

有点破坏了承诺,尽管你可能会说这家小公司不知道有一天会发生这种情况。 他们对自己的愿望很认真。 对于较大的采购公司选择做什么,这是他们无法控制的。

也有人问这是否有任何法律责任。

一家承诺公司在几个月后决定不再兑现承诺。 他们已经改变了主意。 该公司是否可以因放弃其做出的承诺而被起诉? 谁会起诉? 诉讼的依据是什么? 一系列法律问题随之而来。 正如他们所说,您几乎可以起诉任何人,但您是否会胜诉完全是另一回事。

换个方式想想这个。 一家有承诺的公司有机会做一笔真正的大交易,将其一大堆先进的移动通用机器人出售给一家愿意为获得机器人付出高昂代价的大公司。 这是千载难逢的巨额购买交易之一。

AI机器人公司应该怎么做?

如果这家 AI 机器人承诺公司公开交易,他们几乎肯定会以出售为目标(私人控股公司也可以这样说,但并非完全如此)。 想象一下,承诺公司担心买家可能会试图将机器人武器化,尽管假设桌面上没有任何这样的讨论。 只是有传言说买家可能会这样做。

因此,承诺公司在他们的许可中规定机器人不会被武器化。 买家对这种语言犹豫不决,并远离购买。

承诺的人工智能机器人公司刚刚离开了多少利润?

是否存在现有利润超过包含许可限制要求的点(或者,也许是法律上的限制,以允许回旋余地并仍然使交​​易发生)? 我认为你可以看到所涉及的困境。 很多这样的场景很容易被想象出来。 问题是这个承诺是否会生效。 如果有,什么样的牙齿?

简而言之,正如在本次讨论开始时所提到的,有些人对正在做出这种类型的承诺感到乐观,而另一些人则对承诺是否成立持较淡的看法。

我们继续前进。

做出承诺

公开信的第四段也是最后一段是这样说的:

  • “我们明白,仅凭我们的承诺不足以完全解决这些风险,因此我们呼吁政策制定者与我们合作,促进这些机器人的安全使用并禁止它们的滥用。 我们还呼吁机器人社区中的每个组织、开发人员、研究人员和用户做出类似的承诺,不制造、授权、支持或允许将武器附加到此类机器人上。 我们相信,这些技术对人类的好处远远超过了滥用的风险,我们对人类和机器人并肩工作以应对世界上的一些挑战的光明未来感到兴奋”(根据网上发布的内容)。

公开信的最后一部分有几个引起愤怒的额外元素。

一些人断言,呼吁政策制定者可能是明智的,也可能是不明智的。 你可能会得到不精通这些问题的政策制定者,然后他们会执行经典的仓促判断并制定篡夺人工智能机器人进展的法律法规。 根据前面的观点,推动人工智能机器人进步的创新可能会受到干扰或被踩踏。

批评者说,最好确保你知道你在要求什么。

当然,反驳的观点是,叙述清楚地表明政策制定者应该与人工智能机器人公司合作,以弄清楚如何合理地制定此类法律和法规。 与反驳相反的是,如果政策制定者迎合他们的心血来潮,他们可能会被视为对人工智能机器人制造商的关注。 与反论点相反的是,与那些了解该技术的人合作自然是必要的,否则结果可能会变得不平衡。 等等。

或许在狡辩的基础上,有些人已经对呼吁每个人做出类似承诺的线路感到胃灼热,不要 附加 武器装备到先进移动的通用机器人。 关键字就是这个词 附加. 如果有人正在制造一个结合或无缝嵌入武器的人工智能机器人,这似乎绕过了措辞 附加 某物。 你现在可以看到,有人激烈争辩说这个武器没有附加,它完全是人工智能机器人的一部分。 克服它,他们惊呼道,我们不在该承诺的范围内,他们甚至可以说他们是。

这引发了另一个关于承诺缺乏粘性的抱怨。

选择做出此承诺的公司或任何人是否可以在他们希望这样做的任何时候以及出于他们如此渴望的任何原因宣布自己未做出承诺?

显然是这样。

有很多关于做出承诺以及他们所灌输的牵引力的争论。

结论

哎呀,你可能会说,这些试图做正确的事情的公司正在因为试图做正确的事情而受到指责。

我们的世界发生了什么?

任何做出这样承诺的人都应该得到怀疑的好处,你可能会热情地坚持。 他们正在走出公共领域,做出大胆而重要的贡献。 如果我们开始诋毁他们这样做,那肯定会使事情变得更糟。 没有人愿意做出这样的承诺。 公司和其他人甚至不会尝试。 他们会躲起来,而不是预先警告社会那些可爱的跳舞机器人可能会危险地变成什么样子。

怀疑论者宣称,让社会变得更聪明的方式需要采取其他行动,例如放弃展示嬉戏跳舞的 AI 机器人的奇思妙想。 或者至少使它成为一个更平衡的行为。 例如,不仅仅是模仿心爱的宠物忠诚狗,而是说明跳舞机器人如何更类似于野性释放的愤怒狼,它们可以毫不犹豫地将人类撕成碎片。

他们恳求,这将比承诺更受关注。

承诺无疑是一个难题。

正如圣雄甘地雄辩地指出:“无论承诺多么明确,人们都会转而扭曲文本以适应自己的目的。”

托马斯·杰斐逊(Thomas Jefferson)也许要以令人振奋的语气结束本文,他谈到了承诺:“我们相互承诺我们的生命、我们的财富和我们的神圣荣誉。”

当谈到人工智能机器人、它们的自主性、它们的武器化等等,我们最终都会在一起。 我们的共同承诺至少需要将这些问题放在首位,我们将努力找到应对这些进展的方法,并以某种方式找到确保我们的荣誉、我们的财富和我们的生命的方法。

我们可以保证吗?

我希望如此。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing-机器人制造商说他们将避免人工智能武器化/