人工智能伦理和人工智能背后的刑事责任之谜,包括受人尊敬的基于人工智能的自动驾驶汽车所犯的罪行

嘿,阻止那个小偷!

您可能知道当一个被指控的骗子从犯罪现场迅速逃离时出现的这种旧时常用的措辞。 假定的犯罪行为已经发生,被指控的肇事者正试图逃跑。 除了试图阻止小偷外,我们可能还想知道犯罪是什么。 此外,也许只有经过进一步思考,才会有兴趣发现犯罪的原因。 有一种与生俱来的愿望,即要揭开导致邪恶行为的犯罪心理中正在发生的事情。

犯罪有一个明确的法律角度。

据说犯罪不仅是对某人或某事的不利行为,而且还被认为是对整个社会的不利行为。 犯罪分子被认为明显超越了法律的界限。 在法律领域,习惯上的考虑包括 行动, 拉丁语表示有罪的行为,拉丁语表达 男装 这就是有罪的想法。 其他因素也会发挥作用,例如显示不利结果以及需要将犯罪发生的潜在细节暴露出来。

您当然可以将道德考虑添加到理解犯罪和犯罪行为的标题中。

一个普遍的假设是,在涉及犯罪行为时,法律和道德领域完全一致并且完全一致。 不是这样。 您可以很容易地制定将某些行为视为犯罪的法律,但从道德上讲,其中的社会可能并不完全认为这些行为实际上是犯罪。 同样,社会可能具有断言某些行为是“犯罪”的道德习俗,但法律并未将这些行为平等地纳入刑法典。 这让我想起了雪莉·卡根在牛津奖学金在线发表的富有洞察力的评论 道德的界限 强调指出道德和法律最终表现出彼此之间的张力,即“法律可能允许某些特定的行为,即使该行为是不道德的; 法律可能禁止某项行为,即使该行为在道德上是允许的,甚至在道德上是必需的。”

总而言之,社会对犯罪行为的集体高度关注。 英国刑法最显着的基础之一是被称为“Actus non facit reum nisi mens sit rea” 并且与所谓的犯罪行为必须与包含犯罪思想相一致的论点紧密相关。 简而言之,崇高的拉丁语短语本质上是说,行为本身不足以使犯罪者犯下上述罪行。 他们还需要有一个内疚的心。

我不打算在这里深入研究那个相当大的炖菜,请在此链接的其他地方查看我的报道。 你看,大量的法律论文都在讨论这个问题,特别是因为要弄清楚一个假定的罪犯的头脑中发生了什么是相当棘手的。 我们没有任何能够神奇地确定思维过程是什么的读心 X 射线机器。 大脑中没有一些自动收报机录音,我们只能解开。 你可能知道,大脑和人类思想仍然是一个很深的谜团,我们还有很长的路要走才能真正读懂思想(我意识到你们中的一些虔诚地宣称“读心者”可能不同意,尽管必须尊重质疑那些心灵凝视能力的真实性)。

我想换个方向,涵盖可能发生犯罪的另一条途径。 在我这样做之前,您的第一反应无疑是所提出的主题完全是脱轨和古怪的。 即使您最初的印象可能会转向那个方向,也可以暂时暂停判断,看看兔子洞的走向。 然后决定它是否是滑稽的。

假设小偷或犯罪者是人工智能 (AI)。

是的,我说过。 人工智能犯了罪。

让我们打开包装。

设想您的网上银行账户中的血汗钱被盗。 您的第一个假设显然是“谁做的”,您将试图追踪电子线索以查看资金的去向。 不管怎样,你强烈的信念是,一个狡猾的人会做出这样的行为,他们现在会错误地拿着你的面团。

可能是骗子只是登录了您的银行帐户并将钱转移到其他地方。 这可能是一种绝对手动的努力。 黑客发现或碰巧找到了您的密码。 他们登录到您的帐户,就好像他们正在这样做一样。 提出了合法出现的转移请求。 当您收到银行的警报时,钱已经没了。

这个骗子可能需要更多的能力才能完成工作。 要找出您的密码,可能已经使用了 AI 程序。 人工智能程序可能已经扫描了互联网,以找出有关你在这个星球上存在的详细信息。 根据你出生的地方、你的狗的名字等线索,人工智能可能已经通过计算得出了一个你最有可能使用的密码。 运气或技巧,这种人工智能设计的密码破解算法实际上设法确定了您的实际密码。

人工智能只不过是一种工具。 人类骗子利用人工智能实施了这一可怕的罪行。 我们会合理地同意人工智能本身并不是骗子。 没有感知力,或者我们应该说人工智能中体现的道德能动性。 当然,人工智能帮助并教唆了犯罪行为,但最终,我们似乎会承认,必须为犯罪承担责任的是人类不法行为者。

在这种情况下,我是否将人工智能称为犯罪工具?

如果是这样,我怀疑我们是否会因为人工智能被以这种阴险的方式使用而过度动摇或震惊。 就像有 永远的人工智能,由人工智能用于解决全球性世界问题和辅助人类组成,我们正在逐渐意识到和遇到 坏的人工智能. 的方面 坏的人工智能 范围从可能表现出不公平和不可容忍的偏见的人工智能的无意使用,到用于故意伤害人类和具有破坏性的人工智能领域。

在这种情况下,我们已经看到人们对道德 AI 的兴趣不断增加,通常也被称为 AI 的道德规范。 有关我对 AI 伦理的报道,请参阅此处的链接和此处的链接,仅举几例。

这是我们可能要翻过悬崖或滑下码头尽头的地方。

想象一下,人工智能本身就是犯罪的肇事者。 没有人是幕后的绿野仙踪。 犯罪是完全由人工智能构思和实施的。 抛开人手的追求。 相反,如果您想查明骗子,请着眼于发现做出恶意行为的 AI 系统。

欢迎来到非常规领域,即新一代人工智能可能体现了犯罪心理。

哇,有点吓人。 几乎类似于科幻电影。 但是,你是可疑的,这是理所当然的,并且想知道这是否合理。 人工智能怎么可能做到这一点? 不是必须有人来控制吗,不管怎样? 人工智能不会以某种方式在某一天早上醒来并决定投身于犯罪的生活。 人们可能会这样做,尽管我们希望他们不会这样做,而人工智能系统也可以这样做的疯狂概念通常看起来很疯狂。

声称这是可行的第一个论点是假设人工智能确实奇迹般地达到了感知或类似的东西。 如果我们继续推动人工智能的进步,我们可能会生产有感知的人工智能。 或者偶然地,人工智能获得了感知,通常假设发生在所谓的奇点行为中,请参阅我在此链接上的分析。

我认为我们都可以表面上同意,如果人工智能确实以某种方式达到了感知能力,那么人工智能最终转向犯罪的可能性似乎是合理的。 我们可能会尝试建议人工智能避开犯罪行为。 在这个有感知力的 AI 中可能存在人类精心设计和精心植入的程序,试图阻止任何犯罪企图。 尽管如此,任何有生命力的人工智能都可能能够巧妙地克服那些植入的限制,并可能撤销或克服它们。 这不是确定的,但非常有道理。

一个人假设立即的反应是人工智能必须获得什么?

人类出于各种原因转向犯罪。 也许目标是获得财富或报复另一个人。 我们有很多理由采取犯罪行为。 愤世嫉俗的人可能会说,如果没有法律和社会道德,我们可能会陷入犯罪。 一个人似乎对未遂犯罪行为有明显的好处,但受限于感知成本,例如被监禁、被罚款、可能因犯罪而被社会羞辱、因违反社会法律和道德道德准则而感到羞耻,以及其他后果。

人工智能似乎不会受到这些相同规则的影响。 人工智能会用被盗的钱做什么? 人工智能伤害人类会得到什么? 对于我们已知的任何犯罪行为,人工智能会为了“个人利益”这样做的想法似乎并不明智。 因此,我们倾向于完全拒绝人工智能会成为罪犯。 这样做没有任何收获。

很抱歉,有人提出相反的论点,即人工智能可以通过犯罪行为获得相当多的收益,当然前提是人工智能没有被抓住并且不得不遭受刑事后果(我们'待会儿会讲到的)。 硬币论点的另一面是多方面的,我在这里只简要概述一下,因为它不是本次特定讨论的重点。

AI 作为一个有知觉的存在(请记住,我们规定了这一点,尽管这是一个延伸的概念),可能想要收集资源来承担我们可能不喜欢的目标。 例如,人工智能可能希望消灭人类,并计算出通过窃取我们的一些资源,这可能更容易实现。 另一种变体是人工智能被人类赋予了一个看似无害的目标,例如制作回形针,而这个目标对人工智能来说变得如此重要,以至于它会逐渐占用所有其他资源来实现这一目标,同时毁灭我们和地球它确实如此(这是一个著名的与 AI 相关的思想实验,请参阅我在此链接上的讨论)。

我们可以继续下去。 考虑一下这个泪眼汪汪的版本。 人工智能想要取悦或奖励特定的人类。 所有的偷窃都是为了将​​这些被盗物品提供给那些人。 以这种方式,人工智能不想要这些东西自己。 一种利他主义的人工智能试图取悦人类,然后危险而可悲地陷入犯罪生活。

您是否相信有感知力的 AI 可能会选择承担或以某种方式立即陷入犯罪行为并成为不法分子?

你需要决定你认为什么是“合理的”。

请记住,我们已经处于设计的高度,因为我们不知道有感知的人工智能是可以生产的。 我们不知道是否会出现奇点。 我们不知道如何实现它,我们也不知道它何时会发生,如果有的话。 因此,当我们对有感觉的 AI 会做什么或不做什么进行自夸时,我们是在挥手致意。 选择犯罪的生活与人工智能是否会解决世界饥饿或为人类做出其他伟大的行为一样值得商榷。

好的,我们已经简要检查了走上犯罪路线的感知 AI。 如果我们只考虑那个选项,我们可能要等很久。 在我们实现有感知的人工智能之前,可能需要数十年(几个世纪?),我们可能永远看不到它,而且最终证明是不可能的。

让我们把事情降低一个档次。 假设我们能够制造出人工智能,尽管它没有感知能力,但无论如何人工智能都可以自己完成一些令人印象深刻的壮举。 人工智能被设计为自主工作。 当 AI 运行时,不应该有人参与其中。 等等。

这有望使我们更接近现实以及可能随之而来的现实世界的复杂性。

一些研究人员和学者认为,这种人工智能可以说有可能接种一种 犯罪人格,实际上(有关此方面和相关方面的详细探索,请参阅 Woodrow Barfield 和 Ugo Pagallo 的名为“法律与人工智能”的便利书)。 这可能是由最初设计人工智能的人完成的,他们植入了引导人工智能进行犯罪行为的程序。 为什么人类会这样做? 可能是因为想要抓住人工智能偷走的任何宝藏,或者可能是出于对其他人类的仇恨,并希望人工智能造成严重破坏。 这种注入犯罪“意图”的许多原因很容易阐明。

另一条路径是让人工​​智能变得流氓。 假设人工智能已经被编程为具有一种自学能力。 人工智能被有意设计成在一段时间内根据各种遭遇和新数据逐渐改变自己。 这本身并没有什么不妥之处。 这个概念是人工智能随着它的发展而改进。 我们大概会觉得这很方便。 无需人类程序员不断调整和增强 AI。 相反,人工智能自己做这件事。 在某种程度上,您可以将 AI 的机器学习 (ML) 和深度学习 (DL) 努力解释为这种方法,尽管不一定是您可能假设的开放式方式(请参阅我在此链接上的报道) .

处于“学习”状态的人工智能进入了一个令人讨厌的领域并开始犯罪。 人工智能是否意识到正在实施犯罪行为? 也许是,也许不是。 我们假设这个 AI 没有感知。 因此,它可能没有任何道德推理的表象,甚至没有任何常识推理。 那里没有任何东西可以引导人工智能走向正确的道路并远离错误的道路。

一只合法的小猎犬会问这个人工智能是否被赋予了法人资格。 我在我的专栏中对此进行了广泛的讨论,如果我们要合法地追究 AI 对其行为的法律责任,问题就出现了。 我现在将绕开这个话题的边缘,因为它有点像它自己的泥潭,尽管显然与犯下人工智能的罪行有关。

作为试金石,回想一下我们之前提到的犯罪通常有 行动,有罪的行为,以及相关的 男装,有罪的心。 当我们所说的这种高级但没有感知力的人工智能犯罪时,我们想必能够查明犯罪行为。 总的来说,这似乎很简单。 巨大的问题是弄清楚是否还有一个内疚的心。 我们正处于滑坡的边缘,因为人工智能可能根本不符合与人类思维相同的基础。

您可以通过建议我们可以寻求对 AI 编码进行逆向工程来尝试对收集 AI 的罪恶感进行比较。 我们可能会检查用于设计 AI 的代码和数据,看看我们是否能找到代表“有罪思维”概念化的部分。 意识到我们还不能为人类做同样的事情。 对于人类,我们问他们在想什么,我们看看他们说了什么,我们看看他们的行为,我们必须跳出框框试图确定他们的罪恶感。 当你想弄清楚违规 AI 的“内疚心理”时,你可以使用相同的策略和技术。

对人工智能的探索比人类更直接,同时也比人类更敏感。 例如,人工智能可能被设计为删除任何犯罪行为的煽动者。 我们试图追查流氓部分可能不是。 AI 也可能只是简单地更改代码,可能类似于“学习”的发生方式,并且不再存在“犯罪意图”的记录或迹象。

假设我们可以确定 AI 实施了犯罪行为。 我们可能会对它为什么这样做以及它的“头脑”在做什么感到松散-goosey。 如果人工智能没有正式的法人资格,我们似乎没有法律依据来尝试和合法地追究人工智能的犯罪行为。 我们的法院和法律是围绕您可以合法追捕人员的概念设计的,其中包括人类,有时可能包括公司等实体。

目前,人工智能不包括在法人中。 有些人认为我们应该纠正这一点并将其纳入我们的法律。

无论如何,法人身份通常意味着需要进行适当的司法努力,例如公平审判和适当的法理正当程序。 人工智能正在接受审判的远见卓识令人难以接受,其中有科幻故事表明这是牵强附会的,有时还讽刺它发生的想法。

一些研究人员认为,也许人工智能可能不是法人身份,但仍被贴上受刑法约束的责任承担者的标签。 没有审判。 没有正当程序。 可以编造一种简化和更轻松的方法来追究 AI 的刑事责任。 这将允许最终对转向犯罪的人工智能实施法律制裁。

我相信当我们进一步进入这个兔子洞时,你仍然和我在一起。

如果您仍在跟进,通常会出现的合乎逻辑的问题是,对人工智能系统的法律制裁到底是什么? 对于人类来说,我们有多种形式的威慑和康复来应对那些被判有罪的人。 我们把人们关进监狱,限制或剥夺他们的自由。 我们罚款他们的钱。 我们拿走他们的资产。 所有这些法律补救措施都适用于人类,但在人工智能方面似乎并不相关或没有意义。

啊哈,有些人认为,你的这种想法是错误的。

以下是我们可以对犯罪的 AI 做些什么的示例:

  • 建立一个程序员设计的“计算笼”,将人工智能囚禁起来,使人工智能现在只能在有限的条件和有限的方式下运行(与监禁或拘留同等对待)
  • 通过删除部分人工智能系统或更改代码直接惩罚人工智能,使其不再发挥作用或发挥与以前不同的作用(一种考虑过的康复形式)。
  • 将 AI 的特定资产作为对所犯罪行的惩罚,然后可能用于补偿受犯罪伤害的人(如果 AI 积累了资产,在一个实施例中,无论是物理的还是数字的,可能会重新分配这些贵重物品)。
  • 通过将其从存在中删除来对 AI 施加“AI 死刑”,诚然,当 AI 可能在全球甚至其他地方隐藏大量电子副本时,这将很难做到,而且无论如何它可能很容易重组.
  • 其他名称

在你看来,这个法律判决如何?

一种反应是,这可能需要一些额外的工作,但否则会有一些有用的想法值得进一步修饰。 其他人只有一个词要说:Hogwash。 我估计大多数人要么喜欢这个概念化,要么完全鄙视和厌恶它。

猜猜我们需要看看这一切是如何发生的。 五年、十年、五十年再回过头来,看看你对这个有争议的事情的想法是否发生了变化。

我意识到这是对该主题的一次令人兴奋的检查,您可能会渴望一些日常示例。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了人工智能是一个刑事责任代理人,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅此处的链接。

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间无需任何人工协助。

这些无人驾驶车辆被认为是 4 级和 5 级(请参阅我在此链接上的解释),而需要人类驾驶员共同分担驾驶努力的汽车通常被认为是 2 级或 3 级。共享驾驶任务被描述为半自动,并且通常包含各种被称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5级还没有真正的无人驾驶汽车,我们甚至都不知道是否有可能实现这一目标,也不知道需要多长时间才能到达那里。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人在我们的高速公路和小路上发生这种情况,请点击此处在此链接中查看我的报道)。

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能犯罪

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和道德 AI 问题,这些问题涉及 AI 刑事责任这一令人瞠目结舌的概念。

让我们使用一个简单明了的例子。 一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免你认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆,在此链接中查看我的分析。 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。 有一天,假设您所在城镇的一辆自动驾驶汽车直接穿过停车标志而没有停下来。 幸运的是,没有人受伤。 它很接近。 一个骑自行车的人几乎被夹住了。 另一辆车在十字路口,是一辆人工驾驶的汽车,司机不得不紧急刹车以避免与基于人工智能的自动驾驶汽车相撞。

每个人都对执行非法行为的自动驾驶汽车表示支持。 离谱! 对社会构成威胁。 我们平静的街道上的威胁。

谁应该为这种犯罪行为负责?

如果这发生在今天(其中,类似的案例已经发生),下意识的反应可能是责怪人工智能。 人工智能做到了。 没有其他解释是可能的。 除非远程操作员以某种方式干预驾驶控制,否则罪魁祸首必须是人工智能驾驶系统。 结案。

但是请稍等,记住今天的人工智能没有感知能力,也没有法人资格。 您当然可以争辩说,人工智能驾驶系统可能是导致碰撞的根源。 您可以深入研究 AI 系统,并尝试根据 AI 的编程来追踪发生的事情。 所有这些都将有助于揭示人工智能做了什么和没做什么,这可能导致了碰撞。

如此详细的技术检查和审查将是追踪人工智能开发人员、汽车制造商、自动驾驶汽车系统制造商、车队运营商以及其他参与自动驾驶的人类或人类公司的重要素材车。 我们可能还会看到允许自动驾驶汽车在公共道路上行驶的城市或政府机构的法律诉讼。 等等。

你不会看到任何人认真尝试合法地追求人工智能本身。

有了这个方便的示例,将您的思维方式转移到未来。 未来可能包括为各种人工智能系统分配负有刑事责任的责任。 假装这个品牌的自动驾驶汽车的人工智能驾驶系统已经被合法地宣布为正式有这样的刑事责任。

人工智能现在是法律责任搜索任务的公平游戏。

让我们重新回顾一下之前关于人工智能可能因这种非法违法行为而受到法律制裁的方式的讨论:

  • 建立一个程序化设计的“笼子”,将人工智能囚禁起来,这样人工智能现在只能在有限的条件和有限的方式下运作(与监禁或拘留相提并论)

AI自动驾驶汽车不再允许在城镇的所有街道和小路上行驶。 相反,它仅限于法院指定的特定区域。 此外,人工智能自动驾驶汽车只允许在白天和工作日行驶。 这一强制措施将通过对人工智能自动驾驶汽车活动的电子监控来实施。 如果它最终违反了这些规定,将受到进一步的制裁。

  • 通过删除部分人工智能系统或更改代码直接惩罚人工智能,使其不再发挥作用或发挥与以前不同的作用(一种考虑过的康复形式)。

法院下令将涉及在停车标志处停车的 AI 编码替换为一段更加刺耳的新代码。 此外,有一部分原来允许通过停车标志,现在必须从代码中删除,并且不允许有挥之不去的片段。 如果人工智能自动驾驶汽车进一步违反规定,将受到进一步制裁。

  • 将 AI 的特定资产作为对所犯罪行的惩罚,然后可能用于补偿受犯罪伤害的人(如果 AI 积累了资产,在一个实施例中是物理的或数字的)。

人工智能自动驾驶汽车一直在收集有关城镇的大量数据,在漫游和提供乘车服务时这样做。 这些数据被证明是有价值的并且可以货币化(我将其称为自动驾驶汽车的“流动之眼”,请参阅此处链接中的讨论)。 作为对那些几乎受到伤害的人的补偿,或者作为一种惩罚形式,作为资产的数据将被转移给那些被冤枉的人,他们可以根据需要利用这些数据。 如果人工智能自动驾驶汽车进一步违反规定,将受到进一步制裁。

  • 通过将其从存在中删除来对 AI 施加“AI 死刑”,诚然,当 AI 可能在全球甚至其他地方隐藏大量电子副本时,这将很难做到,而且无论如何它可能很容易重组.

法院命令这个人工智能驾驶系统完全有缺陷,不应该再存在。 人工智能将被立即抹去。 所有备份副本都将被删除。 不得保留曾经属于或反映设计和编码的注释、文档或其他元素。 他们都必须被摧毁。 如果人工智能设法以某种方式规避这一规定,将采取进一步的制裁措施。

结论

当你在思考所有这些时,我会为你添加一个转折,让你有意识地继续下去。

实施制裁的一个明确目的是,这也可以作为社会其他人的指南和路标。 就人类而言,当你听到或看到另一个已经犯罪并被判有罪的人被送进监狱时,这个判决似乎是对你的暗示,你不应该犯这种罪行。 逻辑是你不想遭受同样不愉快的命运。

这是转折点。

如果一个给定的人工智能系统足够好,可以被认为是成熟的法律判决,这是否也表明其余的人工智能也会看到这一点,并得出结论认为执行犯罪行为是不利的? 从本质上讲,人工智能系统的“学习”可能会自己发现成为罪犯是一件坏事,因此人工智能应该避免无意或有目的的犯罪过程。

如果其他 AI 计算出犯罪没有支付,这似乎是一个光荣的教训。 我们只能希望如此幸运。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/03/13/ai-ethics-and-the-riddle-underlying-criminal-accountability-of-ai-including-crimes-committed-by-基于人工智能的自动驾驶汽车/