人工智能伦理说,当人类偏见很多时,应该特别部署人工智能

人类必须知道它们的局限性。

你可能还记得 1973 年电影《肮脏的哈利》中关于了解我们的局限性的著名台词,题为 万能部队 (根据演员克林特·伊斯特伍德(Clint Eastwood)在他作为检查员哈里·卡拉汉(Harry Callahan)的令人难忘的角色中所说的话)。 总体概念是,有时我们往往会忽略自己的极限,并相应地让自己陷入困境。 无论是由于狂妄自大、以自我为中心,还是对我们自己的能力视而不见,意识到并明确考虑我们的倾向和缺点的戒律是非常明智和有益的。

让我们为圣人的建议添加一个新的转折点。

人工智能 (AI) 必须了解其局限性。

我所说的受人尊敬的流行语的变体是什么意思?

事实证明,最初急于将现代人工智能用作解决世界问题的有希望的解决方案,但由于意识到今天的人工智能确实存在一些相当严重的局限性,这一点已经变得模糊不清。 我们从令人振奋的头条新闻中脱颖而出 永远的人工智能 并且越来越多地发现自己陷入了 坏的人工智能. 你看,许多人工智能系统的开发和部署都带有各种令人讨厌的种族和性别偏见,以及无数其他令人震惊的不平等现象。

有关我对 AI Ethics 和 Ethical AI 的广泛且持续的报道,请参阅 这里的链接这里的链接,仅举几例。

在这些人工智能系统中发现的偏见不是我们所说的“故意”类型,我们将其归因于人类行为。 我提到这一点是为了强调今天的人工智能没有感知力。 尽管那些引人注目的头条新闻表明并非如此,但在任何地方都没有任何人工智能甚至接近于感知。 最重要的是,我们不知道如何让人工智能进入感知范围,而且没有人能确定我们是否会获得人工智能感知。 也许有一天会发生,也许不会。

所以,我的观点是,我们不能特别将意图分配给我们目前拥有的那种人工智能。 话虽如此,我们可以大量地将意图分配给那些正在制作人工智能系统的人。 一些 AI 开发人员不知道他们设计的 AI 系统包含令人讨厌的甚至可能是非法的偏见。 与此同时,其他 AI 开发人员意识到他们正在将偏见灌输到他们的 AI 系统中,可能是以有目的的不法行为的方式这样做。

无论哪种方式,结果仍然是不合时宜的,并且可能是非法的。

正在大力宣传人工智能伦理原则,这些原则将启发人工智能开发人员,并为避免将偏见嵌入人工智能系统提供适当的指导。 这将以双重方式提供帮助。 首先,那些制作人工智能的人将不再有现成的借口,即他们只是不知道应该遵循哪些规则。 其次,那些偏离道德 AI 条件的人将更容易被抓到,并被显示为避免了他们被预先警告过要做和不做的事情。

让我们花点时间简要考虑一些关键的道德 AI 准则,以说明 AI 构建者应该从 AI 道德立场思考和严格执行的内容。

正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,以便相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的理解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建 AI 系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德规范是什么以及应如何普遍遵守它们进行一些挥手,而在 AI 编码必须是符合道路的名副其实的橡胶时,情况要复杂得多。

AI 开发人员、管理 AI 开发工作的人员,甚至最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个人工智能开发和使用生命周期中的所有利益相关者都被认为是在遵守道德人工智能的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 请注意,设计和部署 AI 需要一个村庄。 为此,整个村庄都必须对人工智能伦理保持警惕。

无论如何,既然我已经讨论了人工智能可以包含偏见,我们也许都同意这两个明显的事实:

1. 人类可能有许多令人不快的偏见并可以对其采取行动

2. 人工智能可能有许多令人不快的偏见,并且可以对这些偏见采取行动

在这种情况下,我有点讨厌将人类与人工智能相提并论,因为它可能以某种方式暗示人工智能具有与人类同等的感知能力。 这肯定不是这样。 在本次讨论的稍后部分,我将暂时回到对人工智能拟人化的日益关注。

更糟糕的是,表现出不良偏见的人类或表现出这种偏见的人工智能?

我敢说,这个问题是其中一种严峻的选择。 这是众所周知的两害相权取其轻,一个人可以抗衡。 我们希望人类没有表现出令人不快的偏见。 我们进一步希望,即使人类确实有令人不快的偏见,他们也不会对这些偏见采取行动。 人工智能也是如此。 我们希望人工智能没有嵌入不利的偏见,即使存在这种内部编码的偏见,人工智能至少不会对它们采取行动。

愿望虽然不一定主宰世界(因为我对所谓的上升和令人不安的表象的分析 人工智能愿望实现 整个社会,见 这里的链接).

好吧,我们显然希望人类知道它们的局限性。 当你有不良偏见时,认识到这一点很重要。 努力防止那些不愉快的偏见被注入你的行动和决定中同样重要。 今天的企业正在尝试各种方法来防止员工陷入令人讨厌的偏见可怕的陷阱。 正在向员工提供有关如何以合乎道德的方式开展工作的专门培训。 围绕员工制定流程,以在他们似乎表现出不道德的行为时提醒他们。 等等。

应对人类及其不良偏见的另一种方法是将基于人类的工作自动化。 是的,只需将人从循环中移除。 不要让人类执行决策任务,您可能不再对人类对任何不良偏见的影响有任何挥之不去的担忧。 没有人参与,因此潜在的人为偏见问题似乎得到了解决。

我之所以提出这一点,是因为我们正在目睹以算法决策 (ADM) 方式使用 AI 的渐进和大规模转变。 如果您可以用 AI 代替人工,那么很有可能会产生很多好处。 如前所述,您将不再担心该人类工人(不再从事该工作的人)的人类偏见。 与长期的时间范围相比,人工智能的总体成本可能会更低。 您免除了与人类工人有关的所有其他各种困难。 等等。

一个正在取得进展的命题似乎是这样的: 当试图决定在哪里最好地放置人工智能时,首先要看看那些已经导致你的员工存在令人不快的人类偏见的环境,而这些偏见正在削弱或过度复杂化特定的决策任务。

底线是,通过直接针对高度暴露的人类决策任务,从不利的偏见注入的角度来看,这些任务很难控制,从而在投资人工智能方面获得最大的收益似乎是谨慎的。 移除担任该角色的人工。 用人工智能代替它们。 假设是人工智能不会有这种不利的偏见。 因此,您也可以拥有自己的蛋糕并吃掉它,也就是说,承担决策任务,并且这样做减去不利偏见的道德和法律幽灵。

当你把它写出来时,ROI(投资回报率)可能会使采用人工智能成为一个不费吹灰之力的选择。

这就是通常的结果。

纵观整个公司,尝试找出影响客户的决策任务。 在这些任务中,如果工人表现出令人不快的偏见,哪些任务最有可能受到不恰当的影响? 如果你已经尝试控制这些偏见,也许你会让事情保持原样。 另一方面,如果偏见不断再次出现并且消除它们的努力是繁重的,请考虑将一些相关的人工智能投入到该角色中。 不要让工人参与进来,因为他们可能会超越人工智能或将人工智能推回不良偏见的深渊。 此外,请确保 AI 可以熟练地执行任务,并且您已充分捕捉到执行工作所需的决策方面。

冲洗并重复。

我意识到这似乎是一个直截了当的概念,尽管我确实意识到用人工智能取代人类工人有很多方法很容易出错。 许多公司急于采取这样的行动,却没有认真考虑如何去做。 结果,他们经常弄得比一开始手头上的更糟。

我想澄清和强调人工智能不是灵丹妙药。

说到这一点,看似无偏见的人工智能似乎抛弃了带有人类偏见的决策者,这是一个巨大的障碍。 问题是你可能只是用一组令人讨厌的偏见代替了另一组。 根据较早的迹象,人工智能可能包含不利的偏见,并且可以对这些偏见采取行动。 做出一个厚颜无耻的假设,将有偏见的人类换成无偏见的 AI 并不是所有的事实。

简而言之,这是从偏见因素严格看待问题时的交易:

  • AI 没有不良偏见,因此基于 AI 的 ADM 易于部署
  • 人工智能与被取代的人类具有相同的不良偏见,因此基于人工智能的 ADM 令人不安
  • 人工智能引入了新的不良偏见,超出了被取代的人类的偏见,并可能相应地使事情变得更糟
  • 人工智能起初看起来很好,然后逐渐摇摆不定,产生不良偏见
  • 其他名称

我们可以简要地解开这些可能性。

第一个是可能发生的事情的理想化版本。 人工智能没有不利的偏见。 你把人工智能放在适当的位置,它就可以出色地完成工作。 对你有益! 当然,人们希望你也以某种熟练的方式处理了由于人工智能的包含而导致的人类工人的流离失所。

在第二种情况下,你安装了人工智能,发现人工智能表现出与人类工人相同的不良偏见。 怎么会这样? 落入这个陷阱的一种常见方法是使用机器学习 (ML) 和深度学习 (DL),因为它基于收集到的有关该角色的人之前如何做出决定的数据。

请允许我解释一下。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果多年来从事这项工作的人类一直在纳入不良偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 建模本身没有常识或其他有感觉的方面。

此外,人工智能开发人员可能也没有意识到发生了什么。 晦涩难懂的数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

总而言之,你最终可能会回到第一方。 人类同样的不良偏见现在在人工智能系统中得到了计算反映。 你还没有消除偏见。

更糟糕的是,你可能不太可能意识到人工智能有偏见。 就人类而言,您通常可能会警惕人类有不良偏见。 这是一个基本的期望。 人工智能的使用可以让领导者相信自动化已经完全消除了任何人类偏见。 因此,他们为自己开枪打中了自己的脚做好了准备。 他们摆脱了看似已知的不良偏见的人类,取而代之的是被认为没有这种偏见的人工智能,但现在已经投入使用充满了已知存在的相同偏见的人工智能。

这可能会让事情变得非常矛盾。 您可能已经删除了与人类工人一起使用的其他护栏,这些护栏是为了检测和防止出现那些已经预料到的人类偏见而建立的。 AI现在可以自由发挥了。 在采取行动之前,没有什么可以抓住它。 然后,人工智能可以开始引导你走上一条由大量有偏见的行为组成的艰难道路。

而且,您处于尴尬且可能负责任的姿势,您曾经知道偏见,现在已经让这些偏见造成严重破坏。 从来没有遇到过任何这种令人不快的偏见,然后突然人工智能突然出现它们,这也许是一回事。 您可能会尝试用“谁会猜到”这种干扰来原谅这一点(也许不是很令人信服)。 但是,如果现在建立的 AI 会像以前一样做同样令人不快的偏见行为,那么,你的借口越来越少了。

对此的一个扭曲需要人工智能表现出人类在执行任务时从未遇到过的令人讨厌的偏见。 你可以说这可能更难防止,因为它包含了公司以前没有在寻找的“新”偏见。 然而,最终,借口可能不会让你松一口气。 如果人工智能系统冒险进入了不道德和非法的领域,你的鹅可能会被煮熟。

要记住的另一个方面是,人工智能可能一开始还不错,然后逐渐陷入不利的偏见。 当持续使用机器学习或深度学习以使 AI 保持最新时,这种情况尤其可能发生。 无论 ML/DL 是实时工作还是定期进行更新,都应该关注 AI 是否可能正在摄取现在包含偏差且以前不存在的数据。

对于那些认为他们通过挥动魔杖用人工智能取代有偏见的人类工人来获得免费午餐的领导者来说,他们正在经历一个非常粗鲁的觉醒。 请参阅我关于通过 AI 道德准则赋予领导者权力的重要性的讨论,网址为 这里的链接.

在本次讨论的这个关键时刻,我敢打赌,您会渴望一些现实世界的例子,这些例子可能会展示用基于 AI 的不良偏见代替(或不)人类不良偏见的难题。

我很高兴你问。

有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了人工智能中的不良偏见,如果是这样,这说明了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间无需任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5级还没有真正的无人驾驶汽车,我们甚至都不知道是否有可能实现这一目标,也不知道需要多长时间才能到达那里。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和 AI 存在偏见

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车和伦理人工智能的可能性,这需要探索人工智能和令人不快的偏见。

让我们使用一个简单明了的例子。 一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免你认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆,看我的分析 这里这个链接. 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。

事实证明,对于原本无害且普遍受欢迎的基于人工智能的自动驾驶汽车开始出现两个不合时宜的担忧,具体而言:

一个。 人工智能在自动驾驶汽车中漫游以接车已成为整个社区的焦虑问题

湾。 人工智能如何对待没有先行权的等待行人也是一个日益突出的问题

起初,人工智能在整个城镇的自动驾驶汽车中漫游。 任何想要求乘坐自动驾驶汽车的人基本上都有平等的机会叫到一辆自动驾驶汽车。 逐渐地,人工智能开始主要让自动驾驶汽车只在城镇的一个区域内漫游。 这部分是一个更大的赚钱者,人工智能系统已被编程为尝试最大化收入,作为社区使用的一部分。

该镇贫困地区的社区成员不太可能乘坐自动驾驶汽车。 这是因为自动驾驶汽车离得更远,并且在当地收入较高的部分漫游。 当请求来自城镇的较远地区时,来自可能在城镇“受人尊敬的”部分的较近位置的任何请求都将获得更高的优先级。 最终,在城镇较富裕地区以外的任何地方获得自动驾驶汽车几乎是不可能的,对于那些生活在现在资源匮乏地区的人来说,这令人恼火。

你可以断言 AI ​​几乎落入了一种代理歧视的形式(通常也称为间接歧视)。 人工智能没有被编程来避开那些较贫穷的社区。 相反,它通过使用 ML/DL 来“学习”这样做。

问题是,拼车人类司机以做同样的事情而闻名,尽管不一定完全是因为赚钱的角度。 有一些拼车人类司机对在城镇的某些地区接载乘客有不良偏见。 这是一个众所周知的现象,该市已经采取了一种监控方法来捕捉人类司机这样做。 人类司机可能会因为执行令人讨厌的选择做法而陷入困境。

假设人工智能永远不会落入同样的流沙中。 没有设置专门的监控来跟踪基于人工智能的自动驾驶汽车的去向。 直到社区成员开始抱怨之后,城市领导才意识到发生了什么。 有关自动驾驶汽车和自动驾驶汽车将出现的这些类型的全市问题的更多信息,请参阅我的报道 这里这个链接 其中描述了我与该主题合着的一项哈佛领导的研究。

这个基于人工智能的自动驾驶汽车的漫游方面的例子说明了较早的迹象,即可能存在导致人类存在不良偏见的情况,对此进行了控制,而替代这些人类驾驶员的人工智能是苏格兰人的事。自由。 不幸的是,人工智能可能会逐渐陷入类似的偏见,并且在没有足够的护栏的情况下这样做。

第二个示例涉及 AI 确定是否停车以等待没有通行权的行人过马路。

毫无疑问,您一直在开车并遇到等待过马路的行人,但他们没有这样做的通行权。 这意味着您可以自行决定是否停下来让他们通过。 您可以在不让他们通过的情况下继续进行,并且仍然完全符合这样做的合法驾驶规则。

对人类驾驶员如何决定为此类行人停车或不停车的研究表明,有时人类驾驶员会根据不利的偏见做出选择。 人类驾驶员可能会看着行人并选择不停车,即使如果行人有不同的外观(例如基于种族或性别),他们也会停下来。 我已经在 这里的链接.

想象一下,基于人工智能的自动驾驶汽车被编程来处理没有通行权的行人是否停车的问题。 以下是 AI 开发人员决定如何编写此任务的方式。 他们从遍布全市的镇上摄像机收集数据。 该数据展示了为没有通行权的行人停车的人类驾驶员和不停车的人类驾驶员。 所有这些都收集到一个大型数据集中。

通过使用机器学习和深度学习,可以对数据进行计算建模。 然后人工智能驾驶系统使用这个模型来决定何时停止或不停止。 一般来说,这个想法是,无论当地习俗是什么,这就是人工智能指导自动驾驶汽车的方式。

令城市领导和居民惊讶的是,人工智能显然是根据行人的外貌,包括他们的种族和性别来选择停车或不停车。 自动驾驶汽车的传感器会扫描等待的行人,将这些数据输入 ML/DL 模型,然后模型会向 AI 发出是停止还是继续。 遗憾的是,该镇在这方面已经存在很多人类驾驶员的偏见,而人工智能现在也在模仿。

好消息是,这引发了一个几乎没有人知道存在的问题。 坏消息是,自从人工智能被发现这样做以来,它承担了大部分责任。 这个例子说明,人工智能系统可能只是复制了人类已经存在的不良偏见。

结论

有多种方法可以尝试并避免设计出人工智能,这些人工智能要么一开始就有令人不快的偏见,要么随着时间的推移收集偏见。 一种方法是确保 AI 开发人员意识到这种情况的发生,从而让他们保持警惕,对 AI 进行编程以避免问题。 另一种方法是让 AI 自行监控不道德行为(请参阅我在 这里的链接)和/或拥有另一块人工智能来监控其他人工智能系统是否存在潜在的不道德行为(我已经在 这里的链接).

回顾一下,我们需要意识到人类可能有不良的偏见,并且他们需要以某种方式了解自己的局限性。 同样,人工智能也可能有令人不快的偏见,我们需要以某种方式了解它们的局限性。

对于那些热衷于拥抱人工智能伦理的人,我想现在以另一个每个人都必须知道的著名台词结束。 即,请继续使用并分享 Ethical AI 的重要性。 通过这样做,我会厚颜无耻地说:“来吧,让我开心。”

资料来源:https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/