人工智能伦理对建立所谓的红旗人工智能法律以在自主人工智能系统中调用有偏见的算法持怀疑态度

让我们谈谈红旗法。

你无疑知道,红旗法的概念最近在新闻中被广泛报道。 涵盖该主题的头条新闻很多。 对此类问题的热情和激烈辩论是社会关注的首要问题,并需要当今和迅速出现的红旗枪支法。

不过我敢说,您可能不熟悉 1800 年代后期颁布的与机动车辆和当今日常现代汽车的先驱有关的其他红旗法。 是的,没错,红旗法可以追溯到历史,尽管与今天的当代焦点相比,它涵盖了其他主题。 这些通常被称为红旗交通法。

这些现在已有百年历史且完全失效的法律要求当时任何由蒸汽驱动的机动车厢或发动机都必须有一名成年人在车辆前行驶并携带红旗以示警告。 这个想法是,牲畜可能会被那些在泥土或勉强铺砌的道路上缓慢而不均匀地行驶的嘈杂和脾气暴躁的装置惊动,因此有人在装置前行走同时大力挥舞红旗有望避免灾难的发生。 如果您想知道,铁路和火车被认为被排除在同一法律之外,因为它们是与铁轨紧密结合的车辆,并且有其他法律涵盖其行为。

想象一下,今天必须挥动红旗作为我们公共道路上每辆汽车的要求。

例如,一个普通的驾车者沿着您附近的街道行驶,必须确保有一个挥舞红旗的成年人在场并在行驶的汽车前游行。 这将必须发生在你街道上经过的每一辆车上。 也许人们会成为红旗工作人员,他们雇用路过的汽车司机,否则他们没有朋友或亲戚可以走到他们面前并做出规定的挥手动作。

我们现在倾向于将与高速公路相关的红旗挥动与道路施工现场联系起来。 当你靠近一条被挖出的道路时,工人们会高举一面红旗来吸引你的注意力。 这告诉您放慢速度并保持警惕。 可能有一台推土机即将进入你的道路。 前面可能有一个巨大的洞,你需要小心地绕过它。

但让我们回到 1800 年对红旗的使用。

信不信由你,红旗摇摆应该比即将到来的机动机器至少提前八分之一英里。 这似乎是一段很长的距离。 尽管有人认为这在当时很有意义。 引擎的惊人噪音,也许仅仅看到车辆就足以让动物感到不安。 那个时代的一些红旗法还要求在夜间高举闪亮的红灯,以便从较暗的距离可以看到视觉上明显的红色预防警告。

总的来说,我认为可以公平地断言,我们作为一个社会倾向于将红旗作为一种信号或标志,表明某事可能有问题或至少需要我们虔诚的关注。

准备好应对这种危险信号现象。

有一种争论认为,在人工智能 (AI) 方面,我们应该要求提供危险信号。

这有点令人吃惊,也是一个让很多人摸不着头脑的令人惊讶的概念。 你可能对如何或为什么应该有所谓的 红旗人工智能法. 请注意,我将此标记为红旗 AI 法律,以将此事与红旗交通法(例如 1800 年代后期的交通法)区分开来,并将它们与当今其他更流行的红旗枪支法区分开来。

我们真的需要明确且完全针对人工智能事务的红旗人工智能法吗?

那些支持提议的方法的人会坚持认为,我们绝对需要法律规定来帮助打击包含不当偏见和歧视性行为的人工智能。 目前,人工智能的构建和部署类似于狂野西部的无所事事。 目前,遏制不良人工智能的努力取决于人工智能道德准则的制定和采用。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

限制不良人工智能的法律正在慢慢制定和颁布,请参阅我的报道 这里的链接. 一些人担心立法者的速度不够快。 似乎允许在世界上培养有偏见的人工智能的闸门现在基本上是敞开的。 绞尽脑汁说,当新的法律出现在书本上时,邪恶的精灵已经从瓶子里拿出来了。

没那么快,反驳就过去了。 令人担忧的是,如果法律实施得太快,我们将扼杀金鹅,人工智能的努力将会枯竭,我们将无法从新的人工智能系统中获得促进社会发展的好处。 如果在联邦、州和地方各级突然出台一系列管理人工智能的拜占庭式新法律,更不用说正在推进的国际人工智能相关法律,人工智能开发人员和希望使用人工智能的公司可能会受到惊吓。

在这场混乱的事件中,人们呼吁制定红旗 AI 法律。

在深入探讨所设想的红旗人工智能法背后的狂野和毛茸茸的考虑之前,让我们建立一些关于非常重要的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到对红旗人工智能法的关注。

基本概念是,只要人们认为人工智能系统以过度偏见或歧视的方式运行,他们就可以发出危险信号。 您本身不会举起实体旗帜,而只是使用一些电子手段来表达您的担忧。 计划或方法的危险信号部分更像是一种隐喻,而不是物理体现。

假装你正在申请房屋贷款。 您选择使用网上银行服务申请贷款。 输入一些个人数据后,您会等待人工智能系统用于决定您是否值得贷款。 人工智能告诉你,你的贷款被拒绝了。 在要求解释你被拒绝的原因时,文字叙述似乎向你暗示,人工智能在决策算法中使用了不当的偏见因素。

是时候提出关于人工智能的危险信号了。

这面红旗究竟会在哪里挥舞?

这是一个价值百万美元的问题。

一种观点是,我们应该建立一个全国性的数据库,允许人们标记他们与人工智能相关的危险信号。 有人说这应该由联邦政府监管。 联邦机构将负责检查危险信号,并就真实性向公众提供帮助,并处理可能引发危险信号报告记录的“坏人工智能”。

国会似乎将制定一项国家红旗人工智能法。 法律将阐明与人工智能相关的危险信号是什么。 法律将描述这些 AI 抱怨的危险信号是如何产生的。 等等。 个别州也可能选择制定自己的红旗人工智能法。 也许他们这样做是为了代替国家倡议,或者他们这样做是为了扩大对其特定州特别有吸引力的细节。

联邦或任何政府支持的红旗 AI 计划的批评者会争辩说,这是私营企业可以做的事情,我们不需要老大哥脱颖而出。 该行业可以建立一个在线存储库,人们可以在其中注册有关人工智能系统的危险信号。 行业的自我监管行动将足以解决这些问题。

对所谓的行业方法的疑虑是,它似乎带有任人唯亲的味道。 公司会愿意遵守一些私人经营的红旗 AI 数据库吗? 许多公司可能会忽略有关其人工智能的明显危险信号。 让公司处理输入的危险信号不会有尖锐的牙齿。

嘿,私营部门方法的支持者声音不大,这类似于国家级 Yelp 服务。 消费者可以查看危险信号,并自行决定是否要与已经出现大量面向人工智能的危险信号的公司开展业务。 一家因其人工智能而收到大量危险信号的银行将不得不关注并改造他们的人工智能系统,因此逻辑如此,否则消费者会像瘟疫一样避开公司。

整个方法是由政府还是由行业采取,这只是拟议的红旗人工智能法假设所面临的棘手问题的冰山一角。

设身处地为一家开发或正在使用 AI 的公司着想。 即使没有可行的基础,消费者也可能会发出危险信号。 如果人们可以随意张贴关于人工智能的危险信号,他们可能会心血来潮,或者可能是为了报复一家对消费者没有任何不当行为的公司。

简而言之,可能有很多关于人工智能的误报危险信号。

另一个考虑因素是由此产生的危险信号的巨大规模或幅度。 很容易出现数以百万计的危险信号。 谁将跟进所有这些危险信号? 这样做的代价是什么? 谁来为红旗后续努力买单? 等等。

如果您要说任何注册或报告有关 AI 的危险信号的人都必须付费,那么您已经进入了一个阴暗而阴险的领域。 令人担忧的是,只有富人才有能力举起危险信号。 这反过来意味着贫困人口将无法平等地参与危险信号活动,并且基本上没有地方警告不利的人工智能。

现在还有一个额外的转折,即这种关于人工智能的危险信号法律或准则似乎是事后的事,而不是事前的警告。

回到红旗交通法,使用红旗的重点是避免一开始就发生灾难。 红旗摇摆者应该在即将到来的汽车之前。 通过在车辆前面,牲畜会被警告,并且那些看守牲畜的人会知道他们应该采取预防措施,因为即将到达的干扰源。

如果人们只能对似乎已经损害或削弱他们权利的人工智能提出警告,那么众所周知的马已经走出谷仓。 所有这一切似乎都可以实现,希望其他人现在知道要警惕那个人工智能系统。 与此同时,据称受委屈的人已经遭受了痛苦。

一些人建议,也许我们可以允许人们对他们提出的 AI 发出危险信号 疑似 即使他们没有使用过人工智能并且没有直接受到人工智能的影响,也可能存在偏见。 因此,红旗在损坏完成之前就被挥动了。

哎呀,反驳说,你真的会让应对人工智能的危险信号变成一件完全无法管理和混乱的事情。 如果有人出于某种原因对 AI 系统提出警告,尽管您根本没有对该 AI 做过任何事情,那么您将被警告所淹没。 更糟糕的是,你将无法从谷壳中辨别出小麦。 整个红旗方法将在其自身的重量下崩溃,让漂浮物和痞子沉没整艘船,从而破坏了这个想法的好处。

令人头晕目眩和困惑。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了红旗人工智能法律的任何内容,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和红旗人工智能法

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

让我们勾勒出一个可能利用红旗人工智能法的场景。

你进入一辆基于人工智能的自动驾驶汽车,并希望自动驾驶汽车将你带到当地的杂货店。 在相对短暂的旅程中,AI 走的路线在您看来有些不对劲。 人工智能不是走最直接的方式,而是导航到偏僻的街道,这导致驾驶时间比通常情况下要长。

这是怎么回事呢?

假设您为使用自动驾驶汽车付费,您可能会怀疑 AI 被编程为驾驶更长的路线以试图推高行程的票价或成本。 任何乘坐过传统人力驾驶出租车的人都知道为了在仪表上获得更多面团而采取的诡计。 当然,如果人们在乘坐出租车或类似设备时在智能手机上安装了 GPS,您很容易发现一名人类司机似乎在偷偷地走不必要的长路线。

事实证明,您对路线选择还有另一个顾虑,这确实让您感到困扰。

假设由于种族因素,路线是为了避开城镇的某些部分。 有记录在案的人类驾驶员做出此类选择的案例,请参阅我的讨论 这里的链接. 也许人工智能已经被逆向编程了。

你决定举起红旗。

为了便于讨论,我们假设已经颁布了涵盖您的管辖范围的红旗 AI 法。 它可能是地方法、州法、联邦法或国际法。 有关我与哈佛自动驾驶汽车政策倡议 (AVPI) 共同撰写的关于当社区采用自动驾驶汽车时地方领导力日益重要的分析,请参阅 这里的链接.

所以,你上网到一个红旗人工智能数据库。 在事件数据库中,您输入有关自动驾驶汽车旅程的信息。 这包括驾驶跋涉的日期和时间,以及自动驾驶汽车的品牌和型号。 然后,您输入了看似可疑的导航路线,并且您暗示或可能直接声称 AI 的设计具有偏见或歧视性的意图和能力。

我们将不得不推测红旗人工智能法的其他细节,以了解在这种特定情况下接下来会发生什么。 理论上,会有人审查红旗的规定。 他们可能会寻求让汽车制造商或自动驾驶技术公司解释他们对记录的危险信号的观点。 有多少其他这样的危险信号已经注册? 这些危险信号产生了什么结果?

依此类推。

结论

荒谬的,一些怀疑论者劝告。

我们不需要红旗人工智能法,它们会严格执行。 当谈到人工智能的步伐和进步时,做任何此类事情都会使工作变得混乱。 任何这样的法律都是笨拙的。 您将创建一个无法解决问题的问题。 还有其他处理不好的人工智能的方法。 不要盲目地抓住稻草来应对有偏见的人工智能。

换档,我们都知道斗牛士使用红色斗篷显然是为了吸引愤怒的公牛的注意力。 虽然红色是我们与这种做法最相关的颜色,但您可能会惊讶地发现,科学家说公牛不会感知到 muleta 的红色(它们对红色是色盲)。 热门节目 流言终结者 对这个问题做了一个非常有趣的检查。 斗篷的运动是关键元素,而不是选择的颜色。

对于那些抛弃红旗人工智能法律的人来说,一个反诉是,我们需要一些具有戏剧性和明确无误的挥手性质的东西,以确保人工智能开发人员和部署人工智能的公司将避开有偏见或糟糕的人工智能。 如果不是危险信号,也许飘扬的斗篷或基本上任何类型的警报方法都可能在得到适当考虑的范围内。

我们确信存在糟糕的人工智能,并且更多的糟糕人工智能将朝着我们的方向发展。 找到保护自己免受不利 AI 影响的方法至关重要。 同样,设置护栏以阻止不良 AI 进入这个世界也同样重要。

欧内斯特·海明威(Ernest Hemingway)有句名言,除了斗牛士之外,没有人能一直过上好日子。 我们需要确保人类能够一直过上他们的生活,不管人工智能是多么糟糕或疯狂。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out-自主人工智能系统中的偏差算法/