人工智能伦理考虑法律强制赎罪基金的优点,以确保对人工智能行为不当的问责制

谁应该责怪?

这似乎是一个直截了当的问题,尽管在传奇的阿博特和科斯特洛二人组关于棒球队的著名喜剧片中,“谁”可能会令人困惑。 你可能隐约熟悉 谁先上 他们制作的喜剧套路是有史以来最持久的短剧之一(对于那些没有听过的人来说,剧透警报)。

雅培告诉科斯特洛谁在第一,什么在第二,我不知道在第三。 巧妙的诡计是一垒手的名字叫Who,二垒手的名字叫What,三垒手的名字叫I Don't Know。 当然,这些短语也有其传统含义,因此试图解释雅培所说的话可能完全令人困惑。 事实上,科斯特洛问了一个看似无关紧要的问题,即谁先上,答案是肯定的。 但这对科斯特洛来说没有意义,因为他期待一个名字,而是得到一个令人困惑的“是”作为答案。

换档,当谈到人工智能 (AI) 的出现时,不断被问到的最令人烦恼的问题之一是当人工智能误入歧途时,谁或可能会追究什么责任。

我之前讨论过人工智能导致或进行犯罪行为时的刑事责任,请参阅我的报道 这里的链接. 还有民事责任问题,例如当 AI 对你做错时你可能会起诉谁或什么,这是我将在本文中讨论的主题。 所有这些都具有重要的人工智能伦理考虑。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括(可能令人惊讶或具有讽刺意味地)评估 AI Ethics 如何被公司采用。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

一场激烈的辩论是现有法律是否能够充分解决人工智能系统在整个社会中出现的问题。 法律责任通常要求您可以将尾巴钉在驴身上,以确定谁应对有害行为负责。 在人工智能的情况下,可能有一条相当不清楚的路径将一个或多个特定的人与执行某些有害行为的人工智能联系起来。 人工智能可能在很大程度上无法追溯到组成人工智能的来源或发明者。

另一个考虑因素是,即使人工智能的根源可以追溯到某人,问题是这个人是否可能无法合理地预见人工智能最终产生的不利结果。 可预见性的关键是评估法律责任时通常需要注意的一个因素。

您可能会想,您可以简单地追踪 AI 本身,并将 AI 命名为对据称所造成的任何伤害负责或负责的法律方。 总的来说,流行的法律观点是人工智能尚未达到法人地位。 因此,严格来说,您将无法寻求让 AI 支付费用,并且需要找到在幕后操纵杠杆的人类(关于我对 AI 的法人身份的分析,请参阅 这里的链接).

在所有这些潜在的法律泥潭中,有一个想法被提出来作为一种可能的补救措施,无论是短期的还是长期的。 这个想法是,也许应该建立一个特殊的补偿基金,为那些受到人工智能伤害的人提供经济救济。 如果您无法让 AI 补偿您,并且您无法确定应该承担责任的人,那么下一个最佳选择可能是利用旨在帮助受 AI 伤害的人的补偿基金。

这样的基金类似于某种形式的保险,正如一篇发人深省的研究论文所述:“这本质上是一种针对不确定性的保险机制:一个清晰透明的框架,用于在责任诉讼存在的情况下快速赔偿由于破坏性行为的不可预见性、损害本身的(类型)或程序的过度成本和/或复杂性,不确定或没有成功的前景”(Olivia Erdelyi 和 Gabor Erdelyi 的文章,“人工智能责任之谜以及基于基金的解决方法”, 人工智能研究杂志,2021)。

补偿基金将成为总体 AI 担保计划 (AIGS) 的一部分,并伴随对有关法律责任的现有法律的一些轻微改动。 如果对现有的法律制度进行一系列更令人痛心的示范性改变,那么轻触可能会更容易实施,并且不需要那种艰难的法律和社会焦虑。 根据研究人员的说法:“这反映了我们的信念——尽管这种快速修复的解决方案很有吸引力—— 不变 将现有的责任规则应用于人工智能或 保护主义动机 诉诸严格责任以不惜一切代价确定责任并不是正确的答案,原因有以下三个:首先,忽略这些规则是针对不同情况量身定制的,因此可能不适合人工智能,它们违反了“法律责任制度。 其次,他们通过采取过度惩罚性的方法来抑制人工智能创新。 第三,不正当诉诸严格责任只是以教条不一致的方式规避可预见性和过错问题,而不是对其进行补救”(根据上面引用的论文)。

支持这种人工智能补偿基金的论点包括:

  • 减少了应对人工智能造成的伤害的冗长和昂贵的法律审判的需要
  • 让人类放心,他们可以利用人工智能并在受到伤害时得到赔偿
  • 通过减轻 AI 创新者面临的法律不确定性来促进 AI 创新
  • 可以比对现有法律进行大规模修改更快地投入使用
  • 提供相对明确的补救措施,可靠且随时可用
  • 其他名称

与此同时,那些反对人工智能补偿金做法的人说:

  • 让 AI 制造商过分脱困,让他们逃避责任
  • 将鼓励人工智能制造商制造缺乏安全和适当控制的人工智能
  • 可能会促使人们错误地声称 AI 危害,以便他们可以利用资金
  • 回避并破坏了彻底改革法律以充分管理人工智能的真正需要
  • 可能成为陷入困境并滥用资金的官僚噩梦
  • 其他名称

显而易见,这个完全有争议的概念既有支持者也有反对者。

你将很难立即排除人工智能补偿基金作为一种潜在的方法来解决对人工智能造成伤害的日益增长的担忧。 提议的解决方案也不是灌篮。

一种观点是,人工智能制造商在设计和推广人工智能时需要将资金投入基金,作为他们努力的一部分。 这可以解释为他们必须承担的一种费用或税收,作为能够向世界发布他们的人工智能的一部分。 但是,这种增加的成本是否会抑制试图突破当今人工智能界限的初创公司的努力? 确保人工智能制造商支付费用或税款的执法将如何处理?

出现了一系列问题,需要解决:

  • 人工智能补偿基金在哪些国家最可行?
  • 是否可以建立全球范围内相互关联的人工智能补偿基金?
  • 与此类资金相关的详细和可行的机制是什么?
  • 人工智能补偿基金如何筹资(公共、私人、慈善)?
  • 这会是无过错保险的基础,还是会采取其他方法?
  • 等等

一个已经有人工智能补偿基金想法的领域包括自动驾驶系统,如自动驾驶汽车和自动驾驶汽车。 有关我对自动驾驶汽车和 AI 自主系统的报道,请参阅 这里的链接.

这是一个关于这可能如何适用于基于人工智能的自动驾驶汽车的草图。

假设一辆自动驾驶汽车撞到一个骑自行车的人。 骑自行车的人受伤了。 骑自行车的人可能会通过追究自动驾驶汽车的汽车制造商来寻求法律补救。 或者他们可能会瞄准制造人工智能驾驶系统的自动驾驶技术公司。 如果自动驾驶汽车作为车队运营,另一个法律途径是追究车队运营商。 由于人工智能的法人身份尚未确立,因此在这个关头试图起诉人工智能不是一种选择。

与其对任何一方采取法律行动,另一种方法是向适当的人工智能补偿基金提出申请或索赔。 该基金将制定涉及索赔审查的正式程序,然后确定是否可以向索赔人提供任何补偿付款。 可能有一个上诉程序来帮助那些认为他们被基金错误地拒绝或基金没有充分补偿的索赔人。

从理论上讲,人工智能补偿基金将是一条更快获得所造成伤害补偿的途径。 你可以想象诉讼可能是多么费力,被起诉的公司可能会试图拖延案件。

不过,律师们可能会强调,人工智能补偿基金可以让人工智能制造商等其他各方避免任何明确的惩罚,因为他们在公共道路上放开了他们的自动驾驶汽车,最终撞到了骑自行车的人。 这些公司可能会选择“不小心”做什么? 如果没有法律之剑悬在他们头上的若隐若现的幽灵,我们会发现自己每天都在面对充满危险能力的人工智能。

一轮又一轮的争论去。

结论

AI Ethics 提醒我们,我们应该始终考虑 AI 的道德和法律后果。 在这种人工智能补偿基金的案例中,提议的类似保险的资金池的概念似乎很有吸引力。 这些资金似乎就在那里等着,随时可以动用,并提供尽可能快的补偿。

权衡这是否可能打开闸门,使人工智能的安全控制越来越少,这是一个令人生畏且非常现实的问题。 我们可能不需要为可能已经在某种程度上发生的火灾添加燃料。

我们还能以某种方式让 AI 制造商设计适当的 Ethical AI 并同时建立这些 AI 补偿基金吗?

有人会说是的,我们可以。 通过重新调整现有法律以与 AI 补偿基金保持一致,那些受到 AI 伤害的人可能会有一条双重途径来寻求他们的公正补偿。

谁先上?

是的,这就是(就像我们所有人一样)首先注意到的人,我们应该考虑人工智能补偿基金的潜在用途并修改现有法律,即使只是轻微修改,提供一种方法来应对优秀人工智能和糟糕的人工智能。

对这一重要考虑没有任何混淆。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai-问责制/