人工智能伦理和人工智能法阐明了事实上什么是值得信赖的人工智能

他们说,信任就是一切。

著名哲学家老子说,不够信任的人是不会被信任的。 受人尊敬的小说家欧内斯特·海明威(Ernest Hemingway)表示,确定你是否可以信任某人的最好方法就是信任他们。

同时,信任似乎既珍贵又脆弱。 一个人的信任可能会像纸牌屋一样坍塌,也可能会像爆破的气球一样突然破裂。

古希腊悲剧家索福克勒斯断言,信任会消亡,但不信任会开花。 法国哲学家和数学家笛卡尔认为,谨慎的做法是永远不要完全相信那些曾经欺骗过我们的人。 亿万富翁商业投资者非凡的沃伦巴菲特告诫说,建立一个值得信赖的声誉需要 XNUMX 年,而毁掉它需要 XNUMX 分钟。

您可能会惊讶地发现,所有这些关于信任的不同观点和挑衅性意见对于人工智能 (AI) 的出现至关重要。

是的,有一些东西被强烈地称为 值得信赖的人工智能 这些天来,这一直受到很多关注,包括来自 AI 领域内的令人不安的猫叫声,以及来自 AI 领域之外的人的喧闹爆发。 总体概念需要社会是否愿意信任人工智能系统之类的东西。

据推测,如果社会不会或不能信任人工智能,那么人工智能系统很可能无法获得牵引力。 我们目前所知道的人工智能将被推到一边,只会收集灰尘。 令人震惊的是,人工智能最终可能会被扔进垃圾堆,在历史上只不过是一次拼命尝试但惨遭失败的高科技实验。 任何重振人工智能的努力都可能面临一场巨大的艰苦战斗,并被各种反对和彻底的抗议所阻止。 表面上,由于对人工智能缺乏信任。

到底是该相信人工智能,还是不相信人工智能?

从本质上讲,我们会真正拥有值得信赖的人工智能吗?

这些都是过去和未解决的问题。 让我们打开它。

人工智能伦理与值得信赖的人工智能的斗争

AI 内部的许多人认为,AI 系统的开发人员可以通过适当设计值得信赖的 AI 来获得对 AI 的信任。 本质是,如果 AI 从一开始就看似不值得信赖,你就无法希望获得信任。 通过以被认为值得信赖的方式构建人工智能系统,人们很有可能会接受人工智能并采用人工智能的用途。

对这种值得信赖的 AI 考虑已经困扰的一个疑虑是,我们可能已经处于 公共信任赤字 说到人工智能。 你可以说,我们已经看到的人工智能已经挖了一个洞,并且在大量的信任中折腾。 因此,人工智能不是从足够的可信度基础开始,而是必须惊人地摆脱赤字,争取每增加一盎司的额外信任,以使人们相信人工智能实际上是值得信赖的。

迎接这一挑战的是人工智能伦理和人工智能法。

AI 伦理和 AI 法律正在努力弄清楚如何才能使 AI 值得信赖。 一些人认为有一个公式或铁定的法律可以让人工智能进入值得信赖的天堂。 其他人则表示,要获得社会的自诩信任,需要艰苦的工作以及始终如一、不懈地坚持人工智能伦理和人工智能法律原则。

关于人工智能信任的当代谜团本身并不是特别新鲜。

您可以轻松地回到 1990 年代后期,追溯从那时起对“可信计算”的渴望的出现。 这是一项大规模的科技行业努力,旨在确定计算机是否可以以一种被社会视为值得信赖的方式制造。

关键问题包括:

  • 计算机硬件能否制造得值得信赖?
  • 软件是否可以设计得值得信赖?
  • 我们能否建立值得信赖的全球联网计算机?
  • 等等。

当时流行的观点以及一直持续到今天的观点是,可信赖的计算仍然是一种圣杯,令人遗憾的是,它仍然不是我们所能达到的(正如在一篇题为“可信赖的人工智能”的论文中指出的那样)。 ACM的通讯)。 您可以令人信服地争辩说,人工智能是计算可信度封装的另一个组成部分,但人工智能使信任追求更具挑战性和不确定性。 人工智能已成为获得可信赖计算的潜在破坏者。 可能是链条中最薄弱的环节。

让我们快速看一下为什么人工智能让我们对不值得信任感到恼火。 此外,我们将探讨人工智能伦理的原则,希望这些原则有助于支撑当今人工智能已经半水下感知的信任(或冒泡的不信任)。 有关我对 AI 伦理的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们将其与关于可信赖 AI 的问题联系起来

我们当然似乎不愿意相信表现出不利偏见和歧视性行为的人工智能。 在这种情况下,我们的信念是这样的人工智能绝对不值得信赖,因此我们倾向于积极地不信任人工智能。 在不进行拟人化比较的情况下(我稍后会详细介绍 AI 拟人化),表现出令人不快的偏见的人也将被评为不特别值得信赖的人。

挖掘信任和可信赖性

也许我们应该看看我们在断言我们信任或不信任某人或某事时的意思。 首先,考虑几个日常字典中对信任的定义。

信任定义上的例子有:

  • 对某人或某事的性格、能力、力量或真相的可靠依赖 (Merriam-Webster 在线词典)。
  • 对人或事的诚信、实力、能力、担保等的依赖 (Dictionary.com)
  • 坚信某人或某事的可靠性、真实性、能力或力量 (牛津语言在线词典)。

我想指出,所有这些定义都指的是“某人”,同样也指的是“某物”,因为它可能是值得信赖的。 这是值得注意的,因为有些人可能会坚持认为我们只信任人类,而信任的行为是专门为人类保留的,作为我们值得信赖的目标。 不是这样。 您可以信任您的厨房烤面包机。 如果它似乎可靠地让你的吐司工作并且经常这样做,那么你可以肯定地相信烤面包机是否真的值得信赖。

在同样的思路中,人工智能也可以成为我们信任观点的主题。 与人工智能相关的信任很可能比普通的烤面包机复杂得多。 烤面包机通常只能做少数几个动作。 人工智能系统可能要复杂得多,而且运行起来似乎不太透明。 我们评估和确定人工智能可信度的能力必然会变得更加困难,并且会带来不同的挑战。

除了更复杂之外,一个典型的人工智能系统据说是非确定性的,并且可能是自我调节或自我调整的。 我们可以简要探讨一下这个概念。

确定性机器倾向于一遍又一遍地做同样的事情,可预测地并且具有可行的可识别模式它的运行方式。 您可能会说普通烤面包机的烘烤方式大致相同,并且具有调节烘烤效果的烘烤控制装置,所有这些通常都可以由使用烤面包机的人预测。 相比之下,复杂的人工智能系统通常被设计为非确定性的,这意味着它们可能会做完全不同的事情,超出你的预期。 如果 AI 被编写为自我调整,这部分也可能会被进一步放大,这一方面可以有利地允许 AI 在 ML/DL 的情况下改进,但也会令人不安地导致 AI 动摇或进入行列人工智能的坏处。 从某种意义上说,你可能不知道是什么击中了你,因为你对 AI 的行为完全措手不及。

我们可以做些什么来尝试让人工智能更接近可信度?

一种方法包括尝试确保那些构建和部署人工智能的人遵守一套人工智能道德准则。 正如这些 AI 研究人员所提到的:“信任是一种态度,即代理人将按预期行事,并且可以依靠它来实现其目标。 在代理人和信任的个人之间发生错误或误解后,信任就会破裂。 对人工智能的信任心理状态是复杂系统的一种新兴属性,通常涉及设计、培训、部署、性能测量、监管、重新设计和再培训的许多周期”(在 ACM的通讯,“欧洲地区的信任、监管和人机交互人工智能”,Stuart Middleton、Emmanuel Letouze、Ali Hossaini 和 Adriane Chapman,2022 年 XNUMX 月)。

要点是,如果我们能让 AI 开发人员遵守 Ethical AI,他们有望最终生产出值得信赖的 AI。 这一切都很好,但在现实世界的基础上似乎有些不切实际,尽管这绝对是一条值得追求的道路。

这就是我的意思。

假设 AI 开发人员为某种我们通常称为 X 的目的而精心制作 AI 系统。他们仔细确保 AI 遵守 AI 道德的透明度规则。 他们敏锐地确保将隐私适当地内置到人工智能中。 对于几乎所有常见的 AI 道德原则,AI 构建者会竭尽全力确保 AI 符合给定的规则。

你现在应该相信那个人工智能吗?

请允许我帮助渗透您对这个开放式问题的想法。

事实证明,网络骗子设法渗透到 AI 并偷偷地让 AI 执行 X,同时还向网络黑客提供 AI 正在收集的所有数据。 通过这样做,这些作恶者正在阴险地削弱隐私规则。 你很幸福地没有意识到这是在人工智能的背后发生的。

有了那条添加的信息,我会再次问你同样的问题。

你相信那个人工智能吗?

我敢说大多数人会马上宣布他们肯定会这样做 不能 相信这个特定的人工智能。 他们可能更早信任它。 他们现在选择不再认为人工智能值得信赖。

基于这个简单示例的一些关键见解值得深思:

  • 信任的动态。 即使是最好的意图涵盖确保将人工智能伦理构建到人工智能系统中的所有基础,也不能保证人工智能可能会变成或变成什么。 一旦人工智能投入使用,外人可能会破坏道德人工智能的积累。
  • 从内部削弱信任。 削弱可信度的行为不一定是局外人。 定期维护人工智能系统的内部人员可能会犯错误并削弱人工智能,使其变得不那么值得信赖。 这位 AI 开发人员可能对他们所做的事情一无所知。
  • 不经意间的信任妥协。 一个自我调整或自我调节的人工智能可能会在某个时候自我调整并转向不值得信赖的领域。 也许人工智能试图提高人工智能的透明度,但同时不恰当地损害了隐私方面。
  • 信任分散. 试图以相同的最大可信度实现所有 AI 道德原则通常并不可行,因为它们通常具有交叉目的或具有其他固有的潜在冲突。 这是一个相当理想化的观点,认为所有 Ethical AI 规则都是梦幻般的一致,并且都可以达到相同的最大化程度。
  • 获得信任可能代价高昂。 通过采取各种广泛而详尽的步骤并遵守一连串的 AI 道德原则,尝试实现一流的可信赖 AI 的成本将相对较高。 你可以很容易地争辩说,让一些对社会具有重要价值的人工智能系统投入使用的成本将是令人望而却步的,即使从值得信赖的愿望我们应该说人工智能不太理想。
  • 等等。

不要误解前面的言论,暗示我们应该以某种方式避免彻底构建和部署可信赖的人工智能的努力。 你会立即把婴儿和洗澡水一起扔出去,就像它一样。 正确的解释是,我们确实需要做那些信任活动来让 AI 成为值得信赖的考虑因素,但这并不是万能药或灵丹妙药。

值得信赖的人工智能的多管齐下的路径

还有其他重要的多管齐下的方法可以努力实现值得信赖的人工智能。

例如,正如我之前在我的专栏中所介绍的,无数新出现的有关人工智能的法律法规旨在推动人工智能制造商设计出值得信赖的人工智能,请参阅 这里的链接 这里的链接.

作为确保设计 AI 的人对他们的 AI 负全部责任的总体手段,这些法律护栏至关重要。 如果没有这种潜在的法律补救措施和合法处罚,那些拼命将人工智能推向市场的人可能会继续这样做,而很少认真考虑实现值得信赖的人工智能。 我可能会特别补充一点,如果这些法律和法规设计不当或实施不充分,它们可能会令人遗憾地削弱对可信赖人工智能的追求,也许具有讽刺意味和奇怪的是,它们会培养不可信的人工智能而不是可信赖的人工智能(请参阅我的专栏讨论以获得进一步的解释)。

我也一直是我一直热切地称为的坚定拥护者 AI守护天使机器人 (见我的报道 这里的链接)。 这是一种即将出现的试图以火攻毒的方法或方法,即使用人工智能来帮助我们处理其他可能值得或可能不值得信赖的人工智能。

首先,一些背景背景会很有用。

假设您选择依赖您不确定其可信度的 AI 系统。 一个关键问题可能是你独自一人试图找出人工智能是否值得信任。 AI 的计算速度可能比您快,并且可以利用您。 你需要有人或某事在你身边帮忙。

一种观点是,在您使用人工智能系统时,应该始终有一个人在循环中为您提供帮助。 这是一个有问题的解决方案。 如果人工智能是实时工作的,当谈到基于人工智能的自动驾驶汽车的出现时,我们将暂时讨论这一点,那么只有人类参与可能还不够。 人工智能可以实时行动,当指定的人在环进入画面以确定人工智能是否正常运行时,可能已经发生了灾难性的结果。

顺便说一句,这带来了另一个关于信任的因素。 我们通常根据所面临的上下文或环境来分配信任级别。 您可能完全相信您蹒跚学步的儿子或女儿会忠于您,但如果您外出远足并决定依靠蹒跚学步的孩子告诉您踏上悬崖边缘是否安全,我认为您将是明智的考虑蹒跚学步的孩子是否可以提供那种生死攸关的建议。 孩子可能会认真而真诚地这样做,但仍然无法充分提供这样的建议。

在人工智能方面,同样的概念与信任相关联。 你用来下棋或下棋的人工智能系统可能不涉及任何生死攸关的审议。 您可以更放心地分配信任。 一辆在高速公路上高速行驶的基于人工智能的自动驾驶汽车需要更高的信任度。 人工智能驾驶系统的最轻微故障可能直接导致您和他人的死亡。

在对全球德勤人工智能研究所执行董事、该书作者 Beena Ammanath 的公开采访中 值得信赖的人工智能, 同样强调考虑人工智能可信度发挥作用的上下文方面:“如果你正在构建一个用于患者诊断的人工智能解决方案,那么公平和偏见就非常重要。 但是,如果您正在构建一种预测喷气发动机故障的算法,那么公平和偏见就不那么重要了。 值得信赖的 AI 确实是一种结构,可让您开始思考组织内的信任维度”(VentureBeat的,22年2022月XNUMX日)。

在讨论值得信赖的 AI 时,您可以通过多种方式来解释这个话题。

例如, 值得信赖的人工智能 是我们所有人都认为是可取的和有抱负的目标,即我们应该渴望设计和推广可信赖的人工智能。 流行语还有另一种用法。 一个有点替代的用法是 值得信赖的人工智能 是一种条件或测量状态,因此有人可能会断言他们已经制作了一个 AI 系统,该系统是值得信赖的 AI 实例。 您也可以使用该短语 值得信赖的人工智能 提出可用于获得 AI 可信度的方法或方法。 等等。

在相关的说明中,我相信您意识到并非所有 AI 都是相同的,并且我们必须注意不要对所有 AI 做出笼统的陈述。 一个特定的人工智能系统可能与另一个人工智能系统有很大的不同。 其中一个人工智能系统可能非常值得信赖,而另一个可能稍微值得信赖。 在以某种方式假设人工智能是一个完全值得信赖或完全不值得信赖的整体时要谨慎。

这根本不是那么回事。

接下来,我想简要介绍一下我正在进行的关于您可能感兴趣的可信赖 AI 的一些研究,包括 AI守护天使机器人.

这是怎么回事。

你将配备一个人工智能系统(一个人工智能守护天使机器人),该系统旨在衡量其他人工智能系统的可信度。 AI 守护天使机器人将您的安全作为重中之重。 想一想,就好像你有办法通过在你真正的口袋里有一个不同的人工智能系统来监控你所依赖的人工智能,也许在你的智能手机或其他类似设备上运行。 您众所周知的 AI 守护者可以根据您所依赖的 AI 进行计算,以快速的速度工作并实时计算手头的情况,比人类在环中的速度要快得多。

乍一看,您可能会认为您已经依赖的 AI 应该有一些 内部 AI 护栏与这个单独计算的 AI 守护天使机器人相同。 是的,这肯定是需要的。 一个疑虑是,内置在人工智能系统中的人工智能护栏可能与人工智能本身存在整体性和偏见性,因此所谓的人工智能护栏在某种意义上不再能够独立验证或验证人工智能。

不同的想法是,您的 AI 守护天使机器人是独立的或第三方的 AI 机制,与您所依赖的 AI 不同。 它位于其他 AI 之外,始终专注于您,而不是专注于被监控或评估的 AI。

可以通过以下简化的类似方程的陈述来表达一种直接的思考方式。 我们可以说“P”希望潜在地信任“R”来完成特定任务“X”:

当只有人参与时,情况如下:

  • P 信任 R 完成任务 X。

当我们选择依赖人工智能时,声明会变成这样:

  • 人 P 信任 AI 实例-R 来执行任务 X。

我们可以这样添加 AI 守护天使机器人:

  • 人 P 信任 AI 实例-R 执行任务 X,因为它受到 AI 守护天使机器人实例-Z 的监控

AI 守护天使机器人不知疲倦、无情地评估您所依赖的 AI。 因此,您得心应手的 AI 监护人可能会提醒您,对另一个 AI 的信任是没有根据的。 或者,AI 监护人可能会与其他 AI 进行电子交互,以确保迅速纠正任何偏离值得信赖的差异,依此类推(请参阅我对此类细节的报道,网址为 这里的链接).

可信赖的信任库隐喻

由于我们正在讨论不同级别的信任,您可能会发现通过将信任视为一种储存库,可以使用一个方便的比喻来描述可信赖性。

在特定的时间点,特定的情况下,您对特定的人或事物有一定程度的信任。 信任的水平会上升或下降,这取决于与该特定人或事物相关的其他情况。 当您对人或事物没有任何信任时,信任可能为零。 当您冒险对那个人或事物不信任时,这种信任可能是负面的。

对于 AI 系统,您在特定情况下所依赖的特定 AI 的信任库会随着您对 AI 可信度的衡量而上升或下降。 有时,您可能很清楚对 AI 的这种不同程度的信任,而在其他情况下,您可能不太清楚,而且更多地是凭直觉对可信度做出判断。

我们在此讨论的提高 AI 信任度的方法包括:

  • 遵守人工智能伦理。 如果您所依赖的 AI 是通过尝试遵守正确的 AI 道德准则而设计的,那么您可能会利用这种理解来提高您对该特定 AI 系统的信任水平。 作为旁注,您也有可能将其他 AI 系统的可信度推广到其他 AI 系统,尽管这有时可能是我所说的一种误导形式 AI信任光环蔓延 (这样做要小心!)。
  • 使用人工在环。 如果人工智能有一个人在循环中,你可能会积极地增加你对人工智能的信任。
  • 制定法律法规. 如果有与这种特定类型的 AI 相关的法律法规,您也可能会提高您的信任度。
  • 使用 AI 守护天使机器人. 如果您准备好 AI 守护天使机器人,这也将进一步提高您的信任度。

如前所述,信任可能非常脆弱并在瞬间分崩离析(即,信任库会迅速而突然地倾倒所有建立起来的信任)。

想象一下,你在一辆基于人工智能的自动驾驶汽车内,而人工智能驾驶突然右转,导致车轮发出尖叫声,几乎迫使自动驾驶汽车发生危险的翻车。 你的信任程度会怎样? 看起来即使你之前对 AI 的信任度提高了,你的信任度也会急剧下降,这是明智的。

在这个重要讨论的关键时刻,我敢打赌,您希望获得更多说明性示例,这些示例可能展示可信赖 AI 的性质和范围。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 你看,以我作为人工智能专家的身份,包括伦理和法律后果,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否说明了追求值得信赖的人工智能的任何事情?如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和值得信赖的人工智能

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在准备好深入研究自动驾驶汽车和值得信赖的人工智能。

信任就是一切,尤其是在基于人工智能的自动驾驶汽车中。

社会似乎在谨慎地关注自动驾驶汽车的出现。 一方面,人们寄希望于真正的自动驾驶汽车的出现将明显减少每年与汽车相关的死亡人数。 仅在美国,每年就有大约 40,000 人死于车祸,大约 2.5 万人因车祸受伤,请参阅我收集的统计数据: 这里的链接. 人类酒后驾车。 人类在分心时开车。 驾驶汽车的任务似乎包括能够反复无误地专注于驾驶并避免发生车祸。 因此,我们可能会梦想 AI 驾驶系统能够反复无误地引导自动驾驶汽车。 您可以将自动驾驶汽车理解为双管齐下,包括减少车祸死亡和受伤的数量,以及可能在更广泛和更容易获得的基础上提供机动性。

但与此同时,社会对自动驾驶汽车是否足够安全,可以在我们的公共道路上行驶的看法也笼罩着这种担忧。

如果即使是一辆自动驾驶汽车发生碰撞或碰撞导致单人死亡或重伤,你也可以预见,今天对那些基于人工智能的无人驾驶汽车的信任度将急剧下降。 当现在臭名昭著的事件发生在亚利桑那州时,我们看到了这种情况,该事件涉及一辆有点(不是真的)自动驾驶汽车撞上并杀死了一名行人(请参阅我在 这里这个链接).

一些权威人士指出,将人工智能自动驾驶汽车的信任建立在这样一个方面是不公平和不恰当的,即只有下一次这样的致命碰撞或碰撞可能会破坏已经相对无碰撞的公共道路试验。 此外,在更不公平的基础上,无论哪个特定的 AI 自动驾驶汽车品牌或型号可能卷入悲惨事件,社会都会毫无疑问地责怪所有自动驾驶汽车品牌。

整个自动驾驶汽车可能会立即被抹黑,整个行业可能会遭受巨大的反弹,导致所有公共道路试验可能停止。

直言不讳的自动驾驶汽车支持者宣称所有无人驾驶汽车都将是不可碰撞的,这是造成这种反冲的一个因素。 这种不可破解的想法不仅是完全错误的(见 这里的链接),它阴险地为自动驾驶汽车行业建立了一套完全不合时宜的期望。 这些奇怪且无法实现的声明,即自动驾驶汽车将导致零死亡,这助长了一种误解,即任何无人驾驶车祸都是一个明确的迹象,即整个套件和 kaboodle 都是徒劳的。

意识到自动驾驶汽车的进步和社会信任的逐步积累可能会在瞬间消失,这是一种明显的悲伤。 这将是一个关于信任脆弱性的展示。

结论

许多汽车制造商和自动驾驶技术公司通常都遵守人工智能伦理原则,这样做是为了在安全可靠的基于人工智能的自动驾驶汽车方面尝试构建和部署值得信赖的人工智能。 请注意,其中一些公司比其他公司更强大,更致力于道德 AI 规则。 偶尔也有一些边缘或新手与自动驾驶汽车相关的初创公司似乎抛弃了大部分人工智能伦理基石(见我的评论在 这里的链接).

在其他方面,有关自动驾驶汽车的新法律法规已逐渐被写入法律书籍。 他们是否有必要的牙齿来支持他们是另一回事,同样,这些法律的执行是被认真对待还是被忽视(有关这方面的分析,请参阅我的专栏)。

这也有高科技的角度。 我曾预测,我们将逐渐看到人工智能守护天使机器人的变体,它们将在自动驾驶汽车和自动驾驶汽车领域脱颖而出。 我们还没有。 一旦自动驾驶汽车的普及变得更加普遍,这将变得更加普遍。

最后一点引出了一条关于信任的名言,你无疑已经熟记于心。

信任但要验证。

我们可以允许自己扩大我们的信任,也许是慷慨的。 同时,我们也应该像鹰一样观察,确保我们产生的信任得到言行的验证。 让我们对人工智能抱有一些信任,但要不断地验证我们是否正确地信任并睁大眼睛。

你可以相信我。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/