各国将人工智能作为地缘政治谈判筹码进行交易引发了对人工智能伦理和人工智能法律的担忧

分享和分享。

每个人都有很多值得去的地方。

一些人认为,那些流传已久的智慧之珠适用于人工智能 (AI)。 你看,一些国家在 AI 进步方面比其他国家走得更远。 令人担忧的是,这表明将存在 AI 富人与 AI 穷人之争。 或许正确或文明的做法是确保所有国家都能平等地分享人工智能蛋糕。

等一下,有人愤怒地反驳,想一想胜利者获得战利品的名言。

如果一个特定的国家大力投资于推进人工智能,那么与没有进行相同投资的其他国家相比,他们将受益更多,这似乎是适当且非常公平的。 你真的相信其他国家应该免费搭上那些将人工智能作为首要任务的国家的尾巴吗? 记住那个经典的故事 小红母鸡,母鸡独自制作面包,并不断请其他农场动物帮忙,但他们没有,最后,美味的新鲜出炉的面包给了母鸡,而其他人则错过了。

这个世界上没有吃白食的人。

因此,如果共享国家在契约本身的制定中并非都平等共享,那么共享和相似共享就没有意义。 这样看。 如果每个国家都确实在人工智能进步方面做出了自己的贡献,那么他们都会有一些东西可以与其他国家进行贸易。 结果将是交易者的天堂。 我用我的 AI 交易你,你用你的 AI 交易我。 就好像这只母鸡和农场里的其他人各自做了一些面包,最后选择给对方一点他们各自做的东西。

这提出了一个还没有多少人深入研究的话题。

我说的是 全球地缘政治 国家间和国家间的 AI 交易.

一口。

你打赌,这都是因为人工智能在全球范围内广泛交易。

请意识到并不是所有的人工智能都是一样的。 有玩游戏的AI。 有用于医疗保健和医疗用途的 AI。 有用于财务分析和货币计算的 AI。 有用于农业和农业目的的人工智能。 我可以继续下去。 各种各样的人工智能都存在,并且还在进一步编程和设计中。 今天已知或探索的 AI 用途还只是冰山一角。 可以肯定的是,人工智能将不断扩展和进步。 人工智能将不可避免地出现在地球的每一个角落。 说人工智能将无处不在并不过分。

各国都在为广泛应用的人工智能做准备。

我之前已经讨论过,有一个持续的,有时是激进的 人工智能竞赛 国家之间关于哪个国家将拥有最好或最先进的 AI 的争论——请参阅“AI 伦理和地缘政治角力赛,看谁将赢得这场获得真正 AI 的竞赛”,网址为 这里的链接 (兰斯艾略特,福布斯,15 年 2022 月 XNUMX 日)。

此外,我已经指出有很大的潜力 政治力量 由于持有或囤积最新的 AI 进步而可能在一个国家中出现——参见“AI 伦理和人工智能作为地缘政治强国的制造者或破坏者的隐现政治潜力”,网址为 这里的链接 (兰斯艾略特,福布斯,22 年 2022 月 XNUMX 日)。

所有这些人工智能阴谋都带有非常重要的人工智能伦理和人工智能法律后果。 我们希望 AI 遵守关于 AI 的组成和使用方式的各种 AI 道德准则或“软法”。 与此同时,关于人工智能的法律法规正在缓慢但肯定地进行辩论并付诸实施。 AI Law 将成为尝试处理 AI 以及我们作为一个社会与 AI 走向何方的巨大工具。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

今天的专栏将讨论一个相关的挑战和机遇,即从一个民族国家到另一个民族国家的 AI 交易。 你可以把这比作马匹交易,尽管我们拥有先进的人工智能而不是马匹,以及帮助人类摆脱困境或潜在破坏人类未来的相当可怕的机会(被称为 双重用途 AI,请参阅我的分析 这里的链接).

这真是一个交易难题。

如今,人工智能是相当大的东西。 你肯定读过或听说过 AI 是一种存在风险,请参阅我对此的报道 这里的链接. 人工智能变得疯狂有可能会让我们陷入非常不幸的境地。 此外,还有人担心,如果我们能够以某种方式获得有感知力的 AI(我们显然还没有实现),有感知力的 AI 可能会像人类一样聪明,甚至比人类更聪明。 超级聪明的人工智能可能想出办法成为我们的霸主。 我们可能会成为人工智能的奴隶。 有人认为,如果人工智能愿意,它可能能够消灭我们。

要点是,如果一个国家将人工智能王国的钥匙交给另一个国家,我们无法确定另一个国家会用它做什么。 让它自由,让 AI 进步并摧毁整个地球。 尝试将 AI 关在笼子里,让它不再作恶。 可能性的范围是无限的。 结果从好到坏不等,包括可怕的和毁灭性的坏。

人们很容易断言每个国家都应该将 AI 紧紧抱在自己的胸膛。

或许每个国家都将其 AI 封闭起来才是最明智的做法。 这在某种程度上是民族国家疯狂争夺 AI 的潜在困境。 一个民族国家可能认为精明的做法是找出人工智能并利用人工智能为该国服务。 想象一下,一个民族国家可以通过在人工智能方面领先于其他所有人而获得什么样的政治权力。 这类似于核军备竞赛,尽管问题和区别在于 AI 更加狡猾。

让人工智能遍及另一个国家并不是什么大不了的事。 我们拥有互联网作为电子连接,在大多数国家/地区通常都可以访问。 您可以穿着睡衣坐在卧室里,将您的 AI 偷偷带入另一片土地。 没有大型卡车或重型运输箱。 只需按下一个按钮,即可以电子方式传输您想要与另一个国家共享的 AI。

一完成。

另外,您不能特别改变主意并收回 AI。 复制 AI 通常是可行的。 那样的话,当某个国家强调你最好把AI归还的时候,你可以发给他们,然后声明你已经归还了。 同时,存在无数个副本,您可以随心所欲地使用它们。

有很多方法可以加密 AI。 有一些方法可以包含密码。 你可以偷偷地在 AI 中插入某种后门,这样你以后也许可以用它来禁用它。 我提到这一点是因为你们中的一些人现在可能正在劝告,如果需要的话,一旦 AI 被移交,通常可以将其关闭。 问题是,有很多方法可以规避或削弱这些预防措施,从而导致一场耗费精力且代价高昂的网络安全猫捉老鼠游戏。

总的来说,您必须接受这样一种观念,即一旦将 AI 提供给另一个国家,您很可能永远无法取回它。 他们也很有可能继续使用它,尽管你作为一个国家希望他们停止这样做。

当然,一个国家可以使用各种其他高压地缘政治压力让另一个国家停止使用人工智能系统。 威胁可以是军事性质的,也可以是经济性质的。 谈判和另一场民族国家谈判可以进行。

这里有一个你可能没有想到的转折点。

如果一个国家向另一个偏爱的国家提供 AI,是否泄露了秘密?

令人担忧的是,一个被认为是盟国的国家可能会无意中让人工智能与另一个不在首选名单上的国家共享。 除了无意中这样做,盟国还可能有意将 AI 交给非优先国家。 到底为什么一个盟国会做出这种“背叛”的行为,将宝贵的 AI 提供给一个不在首选名单上的国家?

讨价还价的筹码。

人工智能可以成为一个非常有用的讨价还价筹码。 一个想要看起来很大的小国可以用 AI 换取其他东西。 需要更多的油吗? 交易你的人工智能。 需要食物和用品吗? 交易你的人工智能。 想获得其他国家的最惠国待遇吗? 通过提供一些他们还没有其他方式可用的有趣的 AI 来吸引国家。

人工智能是造币。 人工智能就像金条。 人工智能是一种可以来回交易的资源。 美妙之处在于它是电子的,可以在没有人特别注意的情况下完成。 如果一个国家将成箱的黄金放在轮船或大型飞机上,肯定有人会注意到。 将人工智能系统传输到另一个国家是在黑暗中完成的,并且没有简单的方法来追踪它。

让我们回到富人和穷人。

一个没有人工智能的国家可能被归类为 缺乏人工智能. 设计人工智能通常会产生相当大的成本,包括昂贵的劳动力成本,以及使用庞大的计算机服务器。 有些国家有这个,但很多国家没有。 他们有限的资源正用于更基本的生存目的。

一些人认为,联合国最终将不得不权衡全球范围内的人工智能平衡问题。 联合国已经在考虑 AI 伦理和 AI 法律,稍后我会详细介绍。 联合国可能成为一种关于人工智能交易和共享的人工智能信息交换所。

荒谬的,有些人坚持。

激烈的争论表明,各国可以随心所欲地使用人工智能。 中介是不必要的,而且很麻烦。 任何想要与任何其他国家交易任何特定人工智能的国家都应该能够自由地这样做。 开放和自由的世界市场应该决定人工智能的去向。

一个反驳的观点是,如果人工智能有可能破坏人类,那么对谁获得人工智能进行某种形式的控制难道不是很合理吗? 只有负责任的国家才应该拥有特定种类的人工智能。 通过建立一个由假定的中立第三方运营的全球票据交换所,也许我们可以防止人工智能落入坏人之手。

能够将 AI 从一个国家转移到另一个国家的多孔方面使得这样的论点更难以接受。 人工智能国家间信息交换所可能只是一个瓶颈。 这是一个官僚机构,可以假定会抑制使用非常需要的 AI,并且不会在预防或减轻有害的 AI 方面做太多事情。

这些关于 AI 的激烈全球辩论势必会继续下去。

花点时间思考一下这三个相当引人注目的问题:

  • 对于各国与其他国家之间的人工智能全球贸易,我们应该怎么做?
  • AI 伦理和 AI 法对这个令人烦恼的问题有什么补充价值吗?
  • 可以设想什么样的人工智能交易安排(现在和将来)?

我很高兴你问了。

在深入探讨该主题之前,我想首先奠定一些关于 AI 的基本基础,尤其是 AI 伦理和 AI 法律,这样做是为了确保讨论在上下文中是合理的。

对道德 AI 和 AI 法的认识不断提高

最近的人工智能时代最初被认为是 永远的人工智能,这意味着我们可以使用人工智能来改善人类。 紧随其后 永远的人工智能 意识到我们也沉浸在 坏的人工智能. 这包括被设计或自我改变为具有歧视性的人工智能,并在计算选择中灌输不正当的偏见。 有时人工智能是这样构建的,而在其他情况下,它会转向那个令人讨厌的领域。

我想非常确定我们在当今人工智能的本质上是一致的。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

我最近还检查了 人工智能权利法案 这是美国政府官方文件“人工智能权利法案蓝图:让自动化系统为美国人民服务”的官方文件,这是科学和技术政策办公室(OSTP)一年努力的结果)。 OSTP 是一个联邦实体,负责就具有国家重要性的各种技术、科学和工程方面向美国总统和美国行政办公室提供建议。 从这个意义上说,你可以说这个 AI 权利法案是由现有的美国白宫批准和认可的文件。

在 AI 权利法案中,有五个关键类别:

  • 安全有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知及说明
  • 人类的选择、考虑和回退

我已经仔细审查了这些戒律,请参阅 这里的链接.

既然我已经为这些相关的 AI 伦理和 AI 法律主题奠定了有益的基础,我们就可以进入探索 AI 的全球民族国家贸易这一令人兴奋的话题。

贸易国家贸易人工智能的福音

让我们回顾一下我之前关于这个主题的假设问题:

  • 对于各国与其他国家之间的人工智能全球贸易,我们应该怎么做?
  • AI 伦理和 AI 法对这个令人烦恼的问题有什么补充价值吗?
  • 可以设想什么样的人工智能交易安排(现在和将来)?

第一个问题通常用几句简洁的话来回答。

提出的问题: 对于各国与其他国家之间的人工智能全球贸易,我们应该怎么做?

一些精辟的回答: 没事.

没错——别做该死的事。 涉足国家间的 AI 交易不是任何人的事。 国家做他们想做的事。 别理他们。

事实上,有时有人争辩说,如果试图打压民族国家的 AI 交易,那么这样做会阻碍 AI 的发展。 你会阻止人工智能的新创新。 观点是人工智能现在必须不受限制。 我们正处于人工智能发展的阶段,只有让所有人都参与进来,才能让我们获得真正的通用人工智能 (AGI)。

我相信你知道反驳。 我们在玩火。 AI 是一场可以烧毁我们所有房屋的大火。 你需要制定 AI 伦理,以防止 AI 成为破坏性的漩涡。 制定人工智能法律也是如此。 人工智能具有造成巨大伤害的巨大潜力。 马已经在谷仓外面戳了一下,别让它跑完剩下的路。

我们可能会制定一项要求,要求任何交易 AI 的国家都必须展示他们已经制定了国家 AI 道德政策。 AI 道德政策必须是坚定的并且被证明是被遵守的(没有空洞的努力)。 同样,任何交易 AI 的国家都必须制定适用的 AI 法律,而且法律必须得到执行(否则就是造假)。

当一个国家希望与另一个国家进行人工智能交易时,必须首先满足并批准人工智能伦理和人工智能法律的要求。 一个中立的第三方,例如在联合国的支持下,可以担任此职务。 希望这将防止或至少减少以破坏性方式交易和使用 AI 的巨大风险。

一个值得注意的重大问题笼罩着这一概念。

似乎所有国家都同意这种安排的可能性很小。 因此,不参与的“流氓”国家将能够按照他们认为合适的方式进行 AI 交易。 所有这些其他国家都在努力做正确的事。 不幸的是,他们将陷入做正确事情的泥潭,而其他异类国家却为所欲为。

恶棍、恶棍、不满者。

或者他们可能认为自己在 AI 交易实践和安排中是正当的、敏捷的和英勇的。

说到人工智能交易安排,这里有十种我在这个主题上确定的基石方法:

  • 人工智能赠品: 一个国家无偿将其 AI 提供给另一个国家(很难想象没有任何期望、罕见或不存在)
  • 人工智能直接交易: 国家将其 AI 提供给另一个国家以换取另一个国家拥有的一些 AI(直接的 AI-for-AI 贸易)
  • 杠杆人工智能交易: 国家将其 AI 提供给另一个国家以换取其他非 AI 性质的东西(例如,石油、谷物、食品、汽车、武器等)。
  • 发展中国家人工智能贸易: 国家将其 AI 提供给发展中国家,作为促进或帮助发展中国家的一种手段
  • Over-The-Top 人工智能交易: 一个国家将其 AI 提供给另一个国家,但通过交出 AI 的皇冠上的宝石以换取微薄的回报而搞砸了交易
  • 人工智能交易诈骗: 一个国家出于某种交易目的将其 AI 提供给另一个国家,但另一个国家不知道该 AI 是一个哑弹(这是一个骗局)
  • 多方面的人工智能贸易: 一个国家将其 AI 提供给另一个国家,以换取一组复杂的实际和预期交易项目作为回报
  • 多米诺骨牌人工智能贸易: 国家将其 AI 提供给另一个国家,而接受国家将 AI 交易给其他国家,并且该国家提供某种东西作为对开始该序列的国家的回报(一组复杂的相互关联的交易或一系列交易)
  • 特洛伊木马人工智能交易: 一个国家将其 AI 提供给另一个国家,尽管该 AI 包含某种特洛伊木马,使得提供国家将对接受国家有一些影响力或诈骗
  • 其他人工智能交易实践

仔细考虑这些类型的人工智能交易安排。

我敢肯定,我们会看到这些 AI 交易实践在起作用,尽管它可能会保密,而且广大公众不会知道这些恶作剧正在发生。

结论

我想我们几乎都同意我们应该这样做 东西 关于 AI 的国与国交易。

棘手的问题是我们能够或将会做什么。

有人说我们应该随和。 其他人惊呼我们需要加强各国的人工智能交易。 然而,另一种观点是,在考虑交易实践时,也许我们应该只关注某种人工智能。 例如,欧盟 AI 法案规定了 AI 的各种风险级别,请参阅我的报道 这里的链接. 可以说民族国家人工智能交易仅适用于最高级别的人工智能风险。

也许我们现在要做的只是手拧。 无论如何,请将我的 AI 交易安排清单放在手边。 一旦各国的 AI 贸易成为热门话题(它将标记我的话),您将需要该列表。

我希望很明显,AI 伦理和 AI 法律是整个主题不可或缺的一部分。 那些在人工智能伦理和人工智能法律方面做严肃而发人深省的工作的人可以实质性地帮助解决民族国家人工智能交易难题。 在涉及 AI 时,用于检查社会考虑因素的相同类型的技能无疑适用于这个特定的用例。

现在做最后的评论。

马商有自己的语言。

如果一位交易员告诉您,一匹马特别体贴,不会放过任何东西,您可能会认为这意味着这匹马特别专心并且敏锐地意识到周围的环境。 看起来很理想。 另一方面,一个更精明的艰苦训练学派的解释是,这匹马可能很胆小,会对最小的干扰因素做出反应。 想象一下,试图骑这样一匹马,因为它经常被一头站立的牛或一只懒洋洋地从头顶飞过的鹰偏离轨道。

交易者可能会尝试的另一个快速的俏皮话是,马相对温顺,很少雄鹿。 当然,这可能是一个微妙的线索,表明这匹马可能会在最糟糕的时候兴奋地冲撞。 当您在仙人掌丛中或小跑通过快速流动的溪流时,您可能正在骑马,但您的骏马出人意料地将您甩开。

关于马的所有谚语中最著名的一句是,你不应该在嘴里看礼物马。

我提出这个问题是为了将这句话纳入人工智能领域。 如果我们从另一个国家获得与他们交易 AI 的报价,并且如果他们告诉我们他们的 AI 很理想而且很少赚钱,请确保我们仔细看看那个 AI 野兽的嘴。 它可能是我们肯定不想要的人工智能。

或者,可能是 AI 决定它肯定不需要我们(如果你明白我的意思,这是一个糟糕的结果)。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/12/09/nations-trading-their-ai-as-geopolitical-bargaining-chips-raises-angst-for-ai-ethics-and-艾法律/