道德 AI 雄心勃勃地希望让 AI 自己学习道德行为,例如自动驾驶汽车中的 AI 案例

亚里士多德有句名言,教育头脑而不教育心灵根本就不是教育。

您可以将这一富有洞察力的评论解释为表明学习道德和道德行为对人类至关重要。 在经典的先天与后天之争中,人们必须问,我们的道德道德有多少是本能地与生俱来的,而有多少是在我们的生活过程中学到的。 蹒跚学步的孩子会观察人类同胞,并且可能会根据他们所见所闻来收集他们的道德基础。 青少年也是如此。 对于思想开放的成年人,他们也将通过体验日常世界而继续调整和进步他们的道德思维。

当然,明确地向某人教授道德规范也是本课程的标准。 人们必须通过参加有关该主题的课程或参加他们感兴趣的活动和实践来了解道德方式。 道德价值观可以被明确地识别和分享,作为帮助他人制定自己的道德结构的一种手段。 此外,道德可能被巧妙地隐藏在故事或其他教学模式中,这些教学模式最终传达了道德行为的组成信息。

这就是人类似乎灌输道德的方式。

那么人工智能(AI)呢?

我意识到这样的问题可能看起来很奇怪。 我们当然希望人类能够融入道德,并以某种道德准则的形式走过生活。 这是一个简单而明显的事实。 另一方面,机器或计算机似乎不适合同一参照系。 你的直觉反应可能是认为人工智能具有道德和道德规范的体现是牵强或古怪的。

对于人工智能,我们似乎能做的最好的事情就是设计它,使其不会偏离道德行为。 AI 开发人员和部署 AI 的人员有责任确保 AI 的设计和实施时已经符合道德准则。 走出大门,可以这么说,人工智能应该已经是原始的,并准备好作为一个完全符合道德规范的发明。

你肯定会认为人工智能系统确实应该被设计成已经完全符合道德基础。 当最新一波人工智能系统首次发布并似乎表明我们正处于一个人工智能时代 永远的人工智能. 人工智能将有助于解决世界上许多最具挑战性的问题。 技术的进步被用来通过类似认知的设施来补充人类的能力,但请允许我强调,我们还没有任何有感知的人工智能,我们不知道是否会获得有感知的人工智能。

急于将人工智能引入世界的问题逐渐暴露出人工智能的丑陋弱点,即 坏的人工智能. 有很多关于人工智能系统的头条新闻,这些系统利用了充满偏见和不公平的算法决策 (ADM)。 最重要的是,当代人工智能中的大部分都缺乏透明度,在解释计算决策方面往往难以解释,经常表现出缺乏公平性,并且允许一些人通过指责人工智能来转移他们的人类责任。

在我的著作中,我一直在广泛地涵盖 Ethical AI 和 AI 的伦理,包括 这里的链接这里的链接,仅举几例。

怎么会有 坏的人工智能 如果我们认为人工智能应该从一开始就被精心设计以避免不道德的行为?

答案是多方面的。

首先,许多人工智能开发人员和部署人工智能的公司本身对塑造他们的人工智能以保持在道德界限内的重要性一无所知。 这个概念根本不在他们的雷达上。 赚快钱的吸引力促使一些人继续推进他们希望故意产生的任何疯狂的人工智能概念。 无需弄清楚任何道德问题。 只需构建 AI 并启动它。

其次,有些制造 AI 的人完全意识到了道德后果,但他们公然淡化或在某种程度上忽略了道德 AI 的考虑。 一种常见的观点是技术人员的经典口号,即快速失败并经常失败。 只要继续迭代,直到事情有希望得到适当的解决。 令人遗憾的是,将任何系统和深思熟虑的人工智能伦理纳入这些快速的人工智能工作的机会非常渺茫。 我在 这里的链接.

第三,在设计人工智能时应该考虑哪些道德护栏存在很多不确定性。 当然,现在有很多 AI 道德准则,请参阅我的报道 这里的链接,尽管这些方便的理论规则很难转化为正在构建的给定 AI 系统的具体细节。 我已经表明,我们将慢慢看到包括道德 AI 编码实践在内的 AI 构建工具和方法的出现,有助于缩小抽象方面与众所周知的橡胶与道路方面之间的差距。

第四,根据本文的重点,我们探讨了受影响的 AI 案例,即使最初在道德范围内构成,但随后在使用时会超出假设的道德编码参数。

我们需要打开它。

当今的大部分 AI 都使用机器学习 (ML) 和深度学习 (DL)。 这些是计算模式匹配技术和技术。 一般来说,这个想法是你收集大量相关的数据来做任何人工智能应该能够做的事情,你将这些数据输入到选定的计算模式匹配器中,模式匹配在数学上试图找到有用的模式。 请注意,这个人工智能没有任何感知(同样,还没有这样的东西)。 也不涉及任何常识推理。 都是数学和计算。

可能是输入 ML/DL 的数据已经充满了偏见和不公平。 在这种情况下,计算模式匹配很可能只是模仿相同的倾向。 如果您提供的数据偏爱一个种族而不是另一个种族,或者偏爱一种性别而不是另一种,那么模式匹配很有可能会将其锁定为发现的模式。

这种锁存的一个大问题是,我们可能很难找出模式是基于数据的那个方面的。 棘手而复杂的数学可以使这种已发现模式的表面化变得非常成问题。 即使测试 AI 也不一定会揭示这些趋势,这取决于所应用测试的范围和深度。

因此,让我们假设您已经构建了一个 AI 系统并通过首先尝试避免使用具有预先存在的偏见的数据来完成您的作业。 接下来,一旦进行了机器学习和深度学习,您就可以测试结果以查看是否以某种方式出现了任何偏见或不公平现象。 让我们假设您找不到任何此类不良倾向。

总而言之,现在已经为继续使用人工智能开了绿灯。 人们将开始使用人工智能,并可能认为它在道德上是正确的。 开发商也是这么想的。 部署人工智能的公司就是这么认为的。 我们都走了。

这是可能发生的事情。

在原始数据中未发现且在 AI 测试期间未发现的偏差的暗示可能被激活。 也许这种情况很少发生。 你可能会相信,只要它是罕见的,一切都很好。 我怀疑那些容易受到上述偏见影响的人是否愿意以这种方式看待事情。 我敢说,人工智能系统和制定它的人将面临反响,无论是在法律法庭还是在开放式社会舆论法庭。

另一种变化是众所周知的一英寸和一英里的概念。 最初的暗示可能很小。 在使用人工智能的过程中,人工智能可能被设计为随着事情的发展而改变自己。 这种“学习”或“自学”非常有用。 与其要求人类人工智能开发人员不断地修改和调整人工智能系统,人工智能本身就是为此而构建的。 没有延误,没有昂贵的劳动力等。

这种方便的自我调整的缺点是,在人工智能的使用范围内,墨迹可能会变得越来越大。 尽管这种偏见可能存在于一个狭窄的角落,但现在它有了扩大的空间。 人工智能并没有看起来这是“错误的”,只是在计算上扩展了一些似乎有效的东西。

如果这让头发直立在你的头上,你需要坐下来等待下一个变体。

假设从一开始就不存在偏见,并且我们有充分的理由相信人工智能完全没有偏见。 我们要么很幸运,要么系统地确保数据中没有任何偏差,也没有通过计算模式匹配产生偏差。 尽管松了一口气,但允许人工智能在使用时进行调整。 潘多拉的门打开了,人工智能选择在计算上倾向于在人工智能所做的任何事情中发现的偏见。

一种新发现的偏见被吞噬到人工智能中,没有人特别聪明地意识到它已经发生了。 是的,我们创造了一个怪物,一个名副其实的科学怪人。

如何才能防止或至少标记这种出现?

一种正在获得关注的方法包括在人工智能中构建道德收集组件。 AI 的构建包含道德 AI 元素。 然后,这些元素会在 AI 随着时间的推移进行调整时观察或监控 AI 的其余部分。 当 AI 似乎超出了编程的道德准则时,道德 AI 会尝试进行这些调整或警告开发人员出现了问题。

您可以尝试对这种道德 AI 监督能力进行编程,并希望在 AI 使用时它会占上风。

另一个有争议的角度是使用机器学习和深度学习将道德人工智能方面训练到人工智能系统中。

说什么?

是的,或许非正统的概念是,不是人类程序员直接编码一套人工智能道德准则,而是塑造人工智能来尝试“学习”它们。 回想一下,我曾简要指出,ML/DL 的使用通常依赖于将数据输入算法并进行计算模式匹配。 百万美元的问题是我们是否可以使用相同的机制将道德价值观灌输到人工智能系统中。

我想你可以把它比作我在开篇关于人类如何意识到道德原则的讨论,尽管请不要将今天的人工智能拟人化为与人类思维相当(事实并非如此,我将很快重复这一劝告)。 人工智能可以用道德的人工智能规则“先天地”编程。 或者人工智能可以“学习”道德人工智能规则。 当然,您可以两者都做,这是我在其他地方介绍过的内容,请参阅 这里的链接.

花点时间思考一个看似令人吃惊的概念,即 AI 可能会“学习”道德并因此可能会遵守道德行为。

这些研究人员使用一个人工智能系统的例子来计算出房子里的所需温度来说明它是如何工作的:“它首先‘观察’不同家庭中人们的行为仅仅一周,并就他们的偏好得出结论。 然后它使用运动检测传感器来确定是否有人在家。 空屋时,智能温控器进入高节能模式; 当人们在家时,恒温器会根据他们的喜好调节温度。 这个恒温器显然符合道德机器人的两个要求,尽管是一个非常简单的要求。 它评估人们的偏好并将其强加于加热和冷却系统的控制。 有人可能会问,这与社会道德价值观有什么关系。 该恒温器使具有不同值的人能够拥有他们喜欢的温度设置。 家里的住户每天来来往往都不需要重新设置温控器。 这个简单的道德机器人还减少了社区的总能源足迹”(根据 Amitai Etzioni 和 Oren Etzioni 题为“AI Assisted Ethics”的论文) 道德与信息技术).

在我进一步探讨让人工智能“学习”道德行为的曲折之前,我想多谈谈人工智能的地位。

AI 可以由以下可能的状态组成:

1. 今天的非感知型普通 AI

2. 具有人类品质的 Sentient AI(我们还没有这个)

3. 超级智能的感知人工智能(超越#2)

我将专注于现有状态,即无感知的普通 AI。 您有时可能会读到很多关于道德 AI 的内容,这些内容都涵盖了有知觉的 AI,因此具有高度的推测性。 我说这是推测性的,因为没有人能将有感知的人工智能的尾巴钉在驴身上。 甚至超越人类质量感知人工智能领域的是大肆宣传的超级智能人工智能。 有很多科幻故事和关于这些口味的人工智能如何决定奴役人类,或者可能只是消灭我们所有人的疑虑。 这被称为人工智能的生存风险。 有时,这种困境也被称为人工智能的灾难性风险。

一些人认为,只要我们将 AI 保留在我们今天拥有的无感知的普通 AI 上,我们可能会没事。 假设我们无法接触到有感知的人工智能。 想象一下,无论我们如何努力打造有感知的人工智能,我们都失败了。 同样,为了讨论起见,假设有感觉的 AI 不是通过某种神秘的自发过程产生的。

那么我们不可以安全地使用这种小口径人工智能,这是想象中唯一可能的人工智能类型吗?

不是真的。

几乎,可能会出现相同的一般问题。 我并不是说人工智能会“思考”它想要摧毁我们的方式。 不,普通的无感知人工智能只是被置于权力位置,让我们陷入自我毁灭的泥潭。 例如,我们将非感知人工智能放入大规模杀伤性武器中。 这些自主武器无法思考。 与此同时,人类并未完全参与其中。 结果,作为一种自主自动化形式的人工智能最终会无意中造成灾难性的结果,要么是由人类命令这样做,要么是由于错误或错误,要么是植入了恶行,要么是通过自我调整导致事情下降丑陋的道路等

我认为所有这三个 AI 规定的状态都存在 AI 伦理问题,即我们对非感知型普通 AI 存在人工智能伦理问题,而感知型人工智能要么只是人类水平,要么是延伸到的人工智能。广受好评的超级智能水平。

鉴于这一发人深省的声明,我们可以肯定地讨论与人工智能各个级别的伦理问题相关的严重程度和难度。 习惯的观点是,人工智能伦理困境在非感知 AI 上是不可逾越的,在感知人类平等的 AI 层面更难克服,在感知超智能 AI 阶段是真正令人头疼的事情。

人工智能变得越好,人工智能伦理问题就越严重。

也许这就是不可侵犯的自然法则。

回到对当今人工智能的关注,试图通过当代机器学习和深度学习让人工智能“学习”道德行为充满了担忧和棘手的问题。 假设人工智能未能收集到所需的道德准则? 我们如何确定它在这样做时步履蹒跚? 此外,人工智能系统的其他部分是否会潜在地超越收集到的伦理结构? 此外,如果 AI 正在动态调整,这些调整可能会削弱道德方面或无意中完全压倒它们。

更糟糕的是,“学习”可能会导致人工智能陷入真正不道德的行为。 虽然我们认为通过促使 AI 走向道德来做正确的事情,但事实证明 AI 在不道德的方面滑入了模式匹配。 谈论射击我们自己的脚,这绝对可能发生。

在本次讨论的这个关键时刻,我敢打赌,您希望获得一些额外的现实世界示例,这些示例可以突出 AI 道德的“学习”如何适用于当今的 AI(除了恒温器示例的美味预告片)。

我很高兴你问。

有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了人工智能能够“学习”道德人工智能规则,如果是的话,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间无需任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5级还没有真正的无人驾驶汽车,我们甚至都不知道是否有可能实现这一目标,也不知道需要多长时间才能到达那里。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和道德 AI 接种

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和道德 AI 的可能性,这意味着我们可以让 AI 自行“学习”道德行为。

让我们使用一个简单明了的例子。 一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免你认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆,看我的分析 这里这个链接. 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。 有一天,假设您所在城镇或城市的一辆自动驾驶汽车正在行驶,遇到行人正在等待过马路的情况。 假设行人本身没有通行权。 一辆人类驾驶的汽车可以越过行人,这样做是完全合法的。 同样,人工智能驾驶系统也可以合法地越过等待的行人。

决定是否停车让行人过马路完全由驾驶员自行决定,无论是人类驾驶员还是人工智能驾驶系统。

我相信你已经无数次遇到过这种情况。 也许你很着急,所以你不要停下来让行人过马路。 在另一种情况下,您有足够的时间到达目的地,因此您选择停下来让等候的人走过马路。 你的心情和特定的环境决定了你会选择做什么。

这种情况似乎没有什么不寻常或令人烦恼的。

在我研究 AI 方面之前,您可能有兴趣知道,允许行人过马路的自由裁量权这一特殊方面已被仔细研究过。 研究人员发现,有时司机做出的选择显然取决于种族或性别偏见。 人类驾驶员可能会根据驾驶员的固有偏见来衡量等待行人的大小,并选择让行人过马路。 驾驶员是否意识到他们正在这样做是一个持续研究的问题。 请参阅我的报道 这里这个链接.

我已经为我们探索人工智能驾驶系统在人行横道情况下的作用奠定了基础。

传统的人工智能编程可能需要人工智能开发人员决定总是让人工智能驾驶系统停下来让行人过马路。 这似乎是道德上适当或文明的事情。 自动驾驶汽车会顺从想要过马路的等待人类。

我敢说,如果你是一辆自动驾驶汽车里的乘客,而人工智能总是为所有随意等待的行人停下来,你可能会发疯。 您到杂货店的快速旅行可能需要多倍的时间。 还要记住,我们并不是指拥有虔诚合法通行权的行人,因为这些情况可能已经让人工智能编程为始终允许。 我们只关注可自由支配的情况。

这种总是停下来让随意的行人过马路的声明还有更多的缺点。

那些制造和部署基于人工智能的自动驾驶汽车的人希望人们乘坐它们。 这个想法是,通过拥有自动驾驶汽车,我们可能会减少每年的车祸数量,目前仅在美国就造成每年约 40,000 人死亡和 2.5 万人受伤,请参阅我的统计数据集 这里这个链接. 除了这个受人尊敬的社会目标之外,汽车制造商和自动驾驶技术制造商自然也希望从他们的人工智能创造中赚钱。

我之所以提出这个问题,是因为如果人工智能驾驶系统做了以下事情,人们可能会决定不乘坐自动驾驶汽车 不必要的 最终延误行程。 任何普通人都会推断,如果选择人类司机,旅程可能会更快,因此选择人工智能自动驾驶汽车进行旅行可能会在他们的选择列表中排得很低。 这反过来意味着我们将无法减少车祸,而且制造商可能会发现他们的产品无利可图。

鉴于这组论点,你可能会认为当行人想要过马路的任意实例发生时,人工智能永远不应该停止。 只需对 AI 驾驶系统进行编程,即可执行任何严格合法的操作。 如果没有法律要求让行人过马路,那么等待的行人就倒霉了。 也许这个人应该前往一个交叉点,该交叉点确实允许人工智能停止自动驾驶汽车的法律依据。

你能想象对此的强烈抗议吗?

您所在城镇或城市的人们逐渐发现,人工智能自动驾驶汽车永远不会允许任意行人过马路。 那个该死的暴躁AI! 就好像人工智能对人类嗤之以鼻。 一个无礼的小子,一个不好的自动化。 最重要的是,想象一下有记录的行人迫切需要过马路,而人工智能根本不会停下来。

与此同时,人类司机愿意停下来让那些“绝望”的人安全过马路。

由于这种愤怒,人工智能自动驾驶汽车不再在您所在地区的街道和小路上受到欢迎。 由市领导签发的许可证将被吊销。 让忘恩负义的野兽离开我们的道路是喧嚣。

好吧,我们似乎处于一个艰难险阻的境地。 AI 不应该总是让任意行人过马路(不要总是停下来)。 AI 不应该总是阻止任意行人过马路(不要总是放大过去)。 该怎么办?

显而易见的答案是对人工智能进行编程,使其以自由裁量的方式行事。

我请你考虑一下这应该包含的 ADM(算法决策)。 人工智能会尝试检测行人的性质,并以识别的特征作为决定是否停止自动驾驶汽车的依据吗? 或许老一辈的人是选择的方式。 但这种年龄歧视正在形成吗? 等等。

也许人工智能驾驶系统被编程为在白天停止,而在夜间从不停止。 逻辑可能是,对于自动驾驶汽车的骑手来说,自动驾驶汽车在白天停下来而不是在晚上更糟糕的时间停下来可能更安全。

这听起来可能很明智。 部分问题将是行人的期望。 这就是我的意思。 行人看到人工智能自动驾驶汽车在白天随意过马路时停下来。 行人不知道人工智能使用什么标准来决定停车。 一些行人的假设是人工智能将永远停止(没有意识到白天与夜间是真正的决定因素)。 结果,那些认为自动驾驶汽车总是会停下来的行人会抓住机会,在人工智能驾驶系统根本不打算停车时开始过马路(如果这样的话,人工智能很可能会停下来)行人正在进入街道,尽管这可能是冒险的,并且物理学可能会阻止 AI 停止自动驾驶汽车,没有足够的时间来避免撞到看似“不正常”的行人)。

假设 AI 开发人员和公司在您所在的城镇组装和部署自动驾驶汽车不确定如何让 AI 在这个问题上跟上速度。

他们决定根据从整个地区收集的数据来“训练”人工智能。 事实证明,有很多城市安装的摄像机可以捕捉到整个乡镇的汽车来来往往。 该数据展示了许多行人随意过马路的情况。 所有数据都被输入机器学习和深度学习系统,以得出该司法管辖区的惯例。

我们是否正在训练人工智能去做当地道德风尚展示的事情?

换句话说,如果一个特定城镇的当地文化更倾向于停车并让随意的行人穿过,正如人类驾驶员行为所证明的那样,ML/DL 可能会在计算上采用这种模式。 然后人工智能将被训练做同样的事情。 在另一个极端,如果人类司机很少停下来,人工智能可能会从计算分析数据中获得“教训”。 人工智能会像人类一样做,有点。

断言是人类的道德行为正在数据中被捕获,并且人工智能将通过计算分析来灌输这些相同的道德准则。 伦理学家通常会将此描述为一种社区主义的伦理方法。 社区的共同价值观反映在整个社区的努力中。

这似乎是一个不错的解决方案。

不幸的是,有很多陷阱。

一个可能很明显的问题是,人类驾驶员在选择停车或不停车时可能已经存在某种形式的偏见(如前所述)。 然后,人工智能将成为这些偏见的模仿者。 我们希望这样吗?

考虑另一个问题。 假设人类驾驶员并不愿意接受人工智能自动驾驶汽车的运行方式。 仅仅因为人类驾驶员愿意停车,自动驾驶汽车可能不会同样假设。 可能是人类驾驶员对不断为任意行人停车的人工智能自动驾驶汽车感到厌烦,即使人类驾驶员的手也会发生同样的情况,但这似乎并没有打扰到人类驾驶员。

除了令人不安之外,您还可以想象人类驾驶员无意中追尾自动驾驶汽车的可能性。 如果人类驾驶员没有预料到自动驾驶汽车会为行人停车,并且如果人类驾驶的汽车就在自动驾驶汽车的后面,那么可能会出现严重的预期不匹配。 人工智能驾驶系统使自动驾驶汽车停下来。 人类司机没有预料到这个动作。 人类司机撞上自动驾驶汽车。 随之而来的是受伤和可能的死亡。

我特意指出了人身伤害的可能性。

过马路的行人乍一看似乎是一个微不足道的问题。 无论人工智能选择停止还是不停止,似乎没有人会受到伤害。 错误的! 行人有被撞倒的可能。 有人驾驶的汽车有可能撞上自动驾驶汽车。 人工驾驶汽车的驾驶员和乘客可能会受伤。 自动驾驶汽车内的乘客可能会受到伤害。 很容易想到可能的人类伤害的其他排列。

结论

说到对人类的伤害,我会给你一些别的东西来让你思考这个道德 AI 难题。

一则新闻报道称,一名男子正在驾驶汽车进入十字路口,并获得了绿灯。 另一辆人力车闯红灯闯红灯,非法不安全地驶入十字路口,威胁要撞上合法行驶的汽车。

司机告诉记者,他必须在受到撞击或转向汽车以避免被撞之间做出选择,但附近有行人,转向动作可能会危及这些人。 你会怎么做? 你可以选择被这辆迫在眉睫的汽车撞到,也许活着讲述这个故事。 或者您可以尝试避免被击中,但同时可能会撞倒无辜的行人。

我们日常驾驶的大部分时间都需要做出这些道德上巨大的即时决定。 我已经详细讨论了这个问题,并将这些生死攸关的驾驶决定与著名的或有人说臭名昭著的电车问题联系起来,请参阅我的详细说明 这里的链接.

用 AI 驾驶系统替换此场景中的人类驾驶员。

你想让 AI 做什么?

这是一个令人困惑的问题。

一种方法是对 AI 进行编程,使其直接进行纯粹的向前驾驶动作,因此甚至不会在计算上考虑其他选项,例如转向远离可能发生的碰撞。 我预计自动驾驶汽车的骑手会因为发现 AI 的设计目的不是为了承受撞击而感到沮丧。 你可以期待诉讼和骚动。

另一种方法是尝试对人工智能进行编程以考虑各种可能性。 谁来建立 ADM 来决定 AI 驾驶系统的发展方向? 似乎让 AI 开发人员自己做出如此重大的决定充满了担忧。

你可以尝试让人工智能从日常交通情况收集的人类驾驶数据中“学习”。 这类似于人行横道的困境,以及早先提出的使用组装数据让人工智能收集当地道德习俗的想法。 对此有很多警告,例如 ML/DL 发现的模式是否合适等。

我还预先警告过,人工智能有可能收集到不道德的行为,这取决于所涉及的道德规范。 例如,假设人工智能以某种方式登陆了一种计算模式,当另一辆车威胁要撞到自动驾驶汽车时,它总是瞄准行人。

哇,小心行人,你将成为现成的目标。

现在是时候结束讨论了,并带着令人振奋的最终想法结束讨论。

你可能知道艾萨克·阿西莫夫在 1950 年提出了他的“机器人三定律”,直到今天我们仍然迷恋那些宣称的规则。 尽管这些规则似乎很容易遵守,例如 AI 系统或机器人不得伤害人类,也不允许人类受到伤害,但仍有许多关键的细微差别使这种情况变得复杂,有时甚至站不住脚,请参阅我的分析在 这里的链接.

在任何情况下,阿西莫夫还有其他一些众所周知的东西,虽然不那么重要:“永远不要让你的道德感妨碍做正确的事。”

对于我们都希望设计的道德人工智能,我们必须记住,灌输的人工智能伦理可能不是我们所预期的,人工智能仍然需要以某种方式做任何正确的事情。 阿西莫夫说得好。 很久以前,亚里士多德似乎也有类似的想法。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as-自动驾驶汽车中的人工智能案例/