AI 伦理和 AI 法律可能会被推动并促使对所有现有和未来的 AI 强制安全警告

毫无疑问,您的日常活动会受到上千种或多种预防性警告的轰炸。

试穿这些尺寸:

  • 必须始终佩戴安全眼镜
  • 危险:附近有危险化学品
  • 高压 - 远离
  • 警告:注意周围环境
  • 镜子里的物体比看起来更近
  • 折叠前取出儿童(如婴儿车上所述)
  • 注意:请务必忽略此消息

其中大多数都是方便且经过深思熟虑的标志或标签,可以使我们充满希望地保持安全。

请注意,我在列表中偷偷添加了一些“异常值”以提出一些值得注意的观点。

例如,有些人认为婴儿推车贴有警告您在婴儿仍坐在装置内时不要折叠婴儿车的标签是疯狂的。 虽然这个标志肯定是适当的并且尽职尽责地有用,但似乎基本常识已经足够了。

有什么人会不自觉地意识到他们首先需要取出婴儿?

好吧,其他人强调这样的标签确实有一个重要的目的。 首先,有些人可能真的没有意识到他们需要在折叠婴儿车之前把婴儿拿走。 也许该人认为婴儿车设计精巧,以确保折叠操作不会伤害婴儿。 或者可能有内置的安全功能,可以在婴儿车内有儿童时防止折叠。 等等。

此外,也可能是这个人分心了,会漫不经心地折叠婴儿车,包括婴儿和所有的东西,但幸运的是这个标签促使这个人不这样做(有些人认为这样的人似乎不太可能注意到这个标签反正)。 还有一个事实是,如果没有这样的标签,有人可能会起诉婴儿车的制造商。 你可以想象其中一个严重的诉讼,其中一个婴儿受伤,父母决定获得一百万美元,因为婴儿车上没有张贴警告标志。 婴儿车公司会后悔没有花几美分制作和粘贴警告标志到他们的婴儿车上。

仔细看看我上面列出的最后一条警告消息。

我选择发布关于确保忽略该消息的smarmy信息,因为这些天人们购买或制作许多虚假警告标签只是为了好玩。 这是一个真正的哲学思维弯曲者。 如果您阅读了说忽略警告的警告,那么在阅读警告后您究竟要做什么? 你已经读过它,所以它表面上在你的脑海里。 当然,您可以忽略它,但话又说回来,您根本不会被告知您应该忽略什么。 一圈又一圈,这个笑话就这么说。

当然,善意的警告标签通常不是开玩笑或幽默的。

我们应该非常认真地对待警告。

通常,如果您未能遵守已注明的警告,您将面临严重的个人风险。 而且,如果您不遵守并遵守警告,您也可能会将其他人置于不应有的风险之中。 考虑驾驶汽车的行为。 当您驾驶汽车时,您作为驾驶员的行为可能会伤害您自己,您可能会伤害您的乘客,您还可能伤害其他人,例如其他车内的人或附近的行人。 从这个意义上说,警告不仅是为了您的利益,也可能是为了他人的利益。

为什么我要涵盖这些方面的警告和警示标签?

因为有些人强烈断言,我们需要对当今的人工智能 (AI) 发出警告和警示信号。

实际上,这个概念是给今天的人工智能和未来的人工智能贴上这样的标签。 总而言之,所有人工智能最终都会有某种形式或变体的警告或警告指示。

好主意还是坏主意?

实用还是不实用?

让我们继续打开这个概念,看看我们能做些什么。

我想首先为 AI,尤其是 AI 伦理和 AI 法律奠定一些基本基础,这样做是为了确保 AI 警告的主题在上下文中是合理的。 对于那些通常对道德 AI 和 AI 法感兴趣的人,请参阅我的广泛且持续的报道 这里的链接 这里的链接,仅举几例。

对道德 AI 和 AI 法的认识不断提高

最近的人工智能时代最初被认为是 永远的人工智能,这意味着我们可以使用人工智能来改善人类。 紧随其后 永远的人工智能 意识到我们也沉浸在 坏的人工智能. 这包括被设计或自我改变为具有歧视性的人工智能,并在计算选择中灌输不正当的偏见。 有时人工智能是这样构建的,而在其他情况下,它会转向那个令人讨厌的领域。

我想非常确定我们在当今人工智能的本质上是一致的。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测有感知的人工智能,那么这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于有人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(关于我对超智能 AI 可能性的探索,请参阅 这里的报道).

我强烈建议我们脚踏实地,考虑今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

对当今的人工智能进行拟人化要非常小心。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

所有这些都对人工智能伦理产生了显着的影响,并为试图为人工智能立法提供了一个方便的窗口(甚至在所有教训发生之前)。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.

以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。

我最近还检查了 人工智能权利法案 这是美国政府官方文件“人工智能权利法案蓝图:让自动化系统为美国人民服务”的官方文件,这是科学和技术政策办公室(OSTP)一年努力的结果)。 OSTP 是一个联邦实体,负责就具有国家重要性的各种技术、科学和工程方面向美国总统和美国行政办公室提供建议。 从这个意义上说,你可以说这个 AI 权利法案是由现有的美国白宫批准和认可的文件。

在 AI 权利法案中,有五个关键类别:

  • 安全有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知及说明
  • 人类的选择、考虑和回退

我已经仔细审查了这些戒律,请参阅 这里的链接.

现在我已经为这些相关的 AI 伦理和 AI 法律主题奠定了有用的基础,我们准备好进入令人兴奋的话题,即 AI 是否应该有警告标签。

准备好开启令人大开眼界的信息之旅。

在人工智能上贴上警告标签作为保护人类的一种手段

越来越多的人认为人工智能应该带有某种警告。

例如,在最近的一篇文章中 科技创业 在讨论对 AI 审计的兴趣日益增加时,出现了提供警告信号的概念:“这些审计的增长表明,有一天我们可能会看到香烟包装式的警告,即 AI 系统可能会损害您的健康和安全。 其他行业,如化学品和食品,会定期进行审核,以确保产品可以安全使用。 这样的事情会成为人工智能的常态吗?” (科技创业,梅丽莎·海基拉,24 年 2022 月 XNUMX 日)。

让我们全面谈谈警告和警示标志。

我们都已经普遍熟悉了许多日常产品和服务的警告和警示标志。 有时法律规定安全标志是必需的,而在其他情况下,使用这些标志有自由裁量权。 此外,一些安全标志是标准化的,例如根据 ANSI Z535 标准和 OSHA 1910.14 标准指定。 这些标准涵盖了标志的措辞、使用的颜色和字体、标志的形状以及各种其他细节等方面。

为此类警告标志制定标准是有意义的。 每当您看到这样的标志时,如果它符合规定的标准,您就更有可能相信该标志是合法的,而且您需要较少的认知处理来分析和理解该标志。 对于不采用标准化方法的标志,您通常必须在脑海中计算标志告诉您的内容,这可能会浪费宝贵的时间来采取行动,或者您可能会完全错误地判断标志并且无法正确理解手头的警告。

可以存在一系列这样的标志,它们通常被分类如下:

  • 危险标志:高度关注并表示可能存在严重后果的直接危险
  • 警告标志:表示危险低于“危险”但仍然相当严重
  • 警告标志:表示潜在危险低于“警告”但仍然很严重
  • 通知标志:表示信息提示不那么“谨慎”,但仍包含令人担忧的方面

鉴于上述有关警告和警示标志的背景,我们可以继续尝试将其应用于人工智能的使用。

首先,我们可能会以某种方式同意人工智能标志的严重程度可能与日常标志的习惯范围相似,例如:

  • AI 危险标志: 最受关注的人工智能,表明存在可能严重后果的直接危险
  • 人工智能警告标志: AI 指示的危险低于“危险”但仍然相当严重
  • 人工智能警示标志: AI 表示潜在危险,虽然不是“警告”,但仍然是认真的
  • AI 通知标志: 人工智能表明信息提示不那么“谨慎”,但仍包含令人担忧的方面

要点是,并非所有人工智能都会同样令人不安。 人工智能可能会带来巨大的风险或只有边际风险。 因此,标牌应该反映哪个是哪个。 如果所有 AI 警告或警示标志都被简单地显示为具有相同的水平,我们大概不会知道或不知道是否对 AI 高度关注或只是轻度关注。 在查看和解释与 AI 相关的警告标志时,使用典型的措辞方案可能会使生活更轻松。

您可能想知道,就要传达的信息的细节而言,这些标志还会说些什么。

这当然是一个更难解决的问题。 人工智能做被认为不安全或令人担忧的事情的可能性将非常大,几乎是无穷无尽的。 我们可以将它们归结为一些常规化的集合,每个集合只用几个单词拼写出来吗? 还是我们将不得不允许以更自由的方式来处理措辞?

我会让你思考这个悬而未决的问题。

继续前进,我们往往会看到物体上贴有警告标志。 人工智能系统不一定是与惯常粘贴标志相同意义上的“对象”。 这就提出了人工智能警告标志将出现在哪里的问题。

可能是当您在智能手机上运行应用程序时,如果它正在使用 AI,则会显示一条消息,其中包含与 AI 相关的警告。 该应用程序会提醒您有关 AI 的潜在用途。 这可以是弹出消息,也可以以各种视觉甚至听觉方式呈现。

还有一种情况是您使用由 AI 支持的服务,尽管您可能没有直接与 AI 交互。 例如,您可能正在与人类代理就获得房屋抵押贷款进行对话,代理在幕后默默地使用人工智能系统来指导他们的工作。

因此,我们应该预见到 AI 警告标志应该出现在两个 AI 用例中,例如:

  • 产品特定的人工智能: 人工智能作为产品应该有明确的人工智能警告或警示标志
  • 面向服务的人工智能: 人工智能即服务(直接或间接)应该有人工智能警告或警示标志

怀疑论者肯定会很快暗示应用程序制造商可能会狡猾地伪装人工智能警告标志,因此警报并不是特别明显。 也许警告出现了很短的一瞬间,你真的没有注意到它被显示了。 另一个鬼鬼祟祟的伎俩是利用它制作一种游戏,似乎削弱了警报的严重性,并诱使人们认为警告是无关紧要的。

是的,你几乎可以打赌,任何与人工智能相关的警告标志都会被欺骗,并以不符合它们应该传达的警示信息的精神和意图的方式使用。

所有这些怀疑都与我们是否会使用 AI 伦理作为“软法律”来尝试推动与 AI 相关的警告和警告,或者我们是否会使用“硬法律”(包括有法院支持的已颁布法律)相吻合。 从理论上讲,软法律推动将允许更多地玩弄此事,而书本上的法律将带来政府执法的潜力并带来更大的严格性。

另一个担忧是人工智能标牌是否会产生任何影响。

在为消费者提供警告标签时,许多关于消费者行为的研究往往显示出混乱的结果。 有时警告有效,有时无效。 让我们将其中的一些研究应用到 AI 环境中。

考虑以下方面:

  • 检测: 那些使用包含可行 AI 警告标志的 AI 的人是否会主动注意到或检测到该标志正在向他们展示(假设出现此类标志)?
  • 理解: 对于那些注意到的人,他们会理解或掌握人工智能警告标志试图向他们暗示的内容吗?
  • 行动: 对于那些确实做出这种精神飞跃的人,人工智能警告标志会促使他们采取行动还是以其他方式相应地指导他们的行为?

你可以预见,如果人工智能警告信号的势头增强,研究人员将密切研究此事。 这个想法将有助于澄清警告在什么情况下有用,什么时候没有。 这反过来又涉及到所涉及的设计和外观。 我们可能还期望广大公众需要接受教育或告知这些人工智能警告和警示标志的出现,以便他们习惯它们。

有很多曲折需要考虑。

AI 警告或警示标志是否应该仅在使用应用程序开始时出现? 也许起点本身是不够的。 乍一看,人们可能会认为该应用程序只是通过使用警告来保证安全,因此不太重视警告。 一旦该人使用该应用程序的中途,可能需要额外的警告。 在那个时候,这个人更清楚应用程序正在做什么,他们可能已经忘记了之前指示的警告信息。

然后可能会出现 AI 警告或警告:

  • 在启动应用程序之前以及即将调用应用程序时
  • 应用程序启动后呈现,仅在起点
  • 在开头和中途显示
  • 在整个 AI 使用过程中多次显示
  • 在使用应用程序结束时给出
  • 在退出应用程序后提供,甚至可能在几分钟、几小时或几天后提供
  • 等等

您认为使用 AI 的人需要确认或确认任何此类 AI 警告或警示标志吗?

有些人会坚持要求该人承认他们看到了警告。 这可能会阻止那些声称没有任何警告信息的人。 这也可能导致人们更认真地对待这些信息,因为他们被要求确认他们观察到了警告指示。

这是一个棘手的问题。

应该 所有 AI必须提供警告或安全指示?

你可能会争辩说是的,所有的人工智能都必须有这个。 即使人工智能只是一个边际安全风险,它仍然应该有某种形式的警告标志,可能只是一个通知或信息指示。 其他人会质疑这一论点。 他们会反驳说你太过分了。 并不是所有的人工智能都需要这个。 此外,如果你强迫所有的 AI 拥有它,你会淡化目标。 人们会麻木地看到警告指示。 整个做法将成为一场闹剧。

在一个相关的角度,考虑一下人工智能制造商可能会说什么。

一种观点是,这将是一个痛苦的你知道的地方。 必须更改所有 AI 系统并添加此功能可能代价高昂。 在前进的基础上添加它可能成本更低,尽管包含此条款会产生相关成本。

朦胧是另一个潜在的抱怨。 需要显示什么样的消息? 如果没有任何标准,这意味着人工智能制造商将需要重新制作一些东西。 这不仅会产生额外的费用,而且可能会为被起诉打开大门。 你可以想象一个人工智能制造商可能会被带到他们的警告不如其他人工智能系统的任务中。 律师最终会从由此产生的混乱中获利。

还有人担心人们会被这些安全信息过度吓到。

人工智能制造商可能会看到用户数量急剧下降,因为安全信息只是为了提供信息警告。 人们不知道如何理解该消息。 如果他们以前没有看到过这样的消息,他们可能会立即吓坏并避免不必要地使用人工智能。

我之所以提到这些方面,是因为有些人已经宣称“它不会伤害”开始包括 AI 警告或安全信息。 对他们来说,这个想法就像苹果派一样理想。 没有人可以认真反驳始终要求与 AI 相关的安全或警告的好处。 但当然,这不是现实世界的思考方式。

你甚至可以更进一步,声称 AI 警告信息可能会产生某种形式的大规模歇斯底里。 如果我们突然开始强制 AI 系统接收此类信息,人们可能会误解其意图。 你看,有很多劝告我们正面临着人工智能的生存危机,人工智能将接管世界并消灭人类,看 这里的链接 用于我对这些主张的分析。

使用人工智能警告信息可能会“激发”一些人相信末日即将来临。 为什么现在会出现这些消息? 当然,这表明最终,人工智能正准备成为我们压迫性的霸主。

一种令人绝望的惨淡结果,试图通过让公众意识到人工智能如何被注入歧视性能力或其他能力来做正确的事情 坏的人工智能 方面。

结论

美国著名诗人詹姆斯·罗素·洛厄尔曾说过这样的话:“一根刺的经验值得一整片荒野的警告。”

我提出了崇高的评论,就人工智能警告或安全信息的问题发表一些结论性意见。

很有可能,在我们对 AI 做坏事有一定程度的普遍认识之前,不会有太多关于 AI 相关警告信息的喧嚣。 那些自愿这样做的人工智能制造商可能会受到称赞,尽管他们也可能无意中发现自己受到了不公平的骚扰。 一些专家可能会因为他们利用看似需要警告的人工智能而开始追赶他们,同时忽略了他们试图先行一步,而所有其他人工智能制造商都落后了。

如果你这样做该死,如果你不这样做,也许不会该死。

另一个考虑是将看似不错的概念性想法转变为实用且有用的实践。 很容易挥手并含糊地向风喊道,人工智能应该有警告和安全信息。 当决定这些信息应该是什么,应该在何时何地呈现它们,它们的成本是否或在多大程度上能够产生足够的收益等等时,困难的部分就来了。

我们将在此给詹姆斯·罗素·洛厄尔(James Russell Lowell)关于这个话题的最后一句话(诗意地如此):“创造力不是对事物的发现,而是在发现事物之后将其制作出来。”

猜猜是时候卷起袖子开始工作了。 这不仅仅是一个警告,而是一个行动。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety-警告所有现有和未来的人工智能/