人工智能伦理谨慎评估是否提供人工智能偏见狩猎赏金以捕捉和掠夺道德邪恶的全自动系统是谨慎的还是徒劳的

通缉: 人工智能偏见猎手.

这可能是一个现代广告,你会开始看到它出现在社交媒体渠道上,并出现在各种在线招聘信息中。 这是一个相对较新的概念或角色。 它伴随着争议。 一些热心的信徒激烈地争辩说,这很有道理,应该一直在发生,而另一些人则相当紧张地做一些严重的头疼事,不太确定这是一个好主意。

该角色的要点包括从人工智能中找出任何隐藏的偏见或嵌入的歧视性做法。 为了救援,急切的、完全从前的人工智能偏见猎人来了。 他们大概是精通计算机的赏金猎人。 更有希望的是,沉浸在人工智能能力的深处。

有枪,会旅行,并且可以通过人工智能熟练的枪法来揭露那些令人讨厌和令人不快的人工智能偏见。

这引发了一系列棘手的问题,即在发现人工智能偏见时采用这种策略的敏感性。 正如我将立即讨论的那样,请知道人工智能的出现也带来了人工智能偏见的出现。 大量的人工智能偏见。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

我们如何发现一个特定的人工智能系统存在偏见?

您可以委托设计 AI 的 AI 开发人员来做这件事。 问题是,他们可能深陷偏见,以至于他们自己无法识别他们编造的人工智能中的偏见。 在他们看来,这一切都很好。 或者他们可能对 AI 感到非常兴奋,并且对它有一种自傲感,以至于不得不用批判的眼光来检查它是否存在偏见,这将是困难的,而且是一个真正的沮丧。 许多其他类似的原因似乎削弱了让人工智能开发人员承担这项任务的能力,包括缺乏找出嵌入式偏见的技能、项目中没有时间来做这件事等。

好的,所以请继续聘请外部顾问为您完成肮脏的工作。 事实证明,顾问会很乐意检查您的 AI 是否存在偏见,并为此向您收取相当多的费用(很多很多便士)。 意识到您需要为他们付费才能跟上您的 AI 系统。 然后,您需要让他们四处翻找,这可能需要花费无数的昂贵费力的时间。 如果您有预算,可以选择使用顾问。

在如何找到那些阴险的人工智能偏见的潜在“空白”中,英勇而潇洒的人工智能偏见是赏金猎人。

您通常不会预先付款。 他们试图在自己的时间找到人工智能的偏见,并且不得不自己买单。 只有成功地发现偏见,他们才能获得报酬。 我想你可以很容易地断言,以一种合适的思维方式,这就是赏金猎人的传统定义。 如果你成功了就得到报酬。 如果您不成功,请不要获得报酬。 期,故事结束。

赏金计划至少从罗马人时代就已经存在,因此我们可以推测它们确实有效,这些年来一直成功地作为一种实践存在。

这是一段引人入胜的历史琐事。 据报道,罗马帝国时期在庞贝城发布的一条消息称,需要赏金猎人寻找从一家小商店失踪的铜罐。 回收铜壶的奖励是六十五枚铜币,令人印象深刻。 很抱歉,我们不知道是否有赏金猎人发现了铜壶并领取了铜币,但我们知道,赏金狩猎从远古时代就一直在继续。

在更现代的时代,您可能已经意识到,在 1980 年代,提供了一些显着的赏金来查找现成软件包中的计算机错误或错误,然后在 1990 年代,Netscape 明显提供了在其网络浏览器中查找错误的赏金(成为当时最杰出的公司之一)。 谷歌和 Facebook 分别从 2010 年和 2013 年开始选择赏金寻找漏洞。 几年后,在 2016 年,甚至美国国防部 (DoD) 也采取了“破解五角大楼”的赏金行动(请注意,公开的赏金是针对在各种与国防部相关的网站中发现的错误,而不是在国防关键任务系统)。

让我们更深入地研究错误赏金主题。 我意识到我的主要目的是在本次讨论中讨论赏金狩猎中的 AI 偏见,但与漏洞赏金领域有一些非常相关的相似之处。

有些人显然很困惑,任何公司都愿意提供赏金来发现他们系统中的错误(或者,在这种情况下,是人工智能偏见)。

从表面上看,这似乎是一种“你要求它”的策略。 如果您让全世界都知道您欢迎那些可能试图在您的软件中寻找漏洞的人,这似乎等于告诉窃贼继续尝试闯入您的房子。 即使你已经相信你有一个非常好的防盗警报系统并且没有人应该能够进入你安全的家,想象一下询问并且确实恳求窃贼都来到你的居住地,看看他们是否可以破解它。 哦,我们为自己编织的烦恼。

同样的道理也适用于要求赏金猎人在你的人工智能中发现偏见。

首先,这可能意味着你已经相信甚至完全知道你的人工智能确实存在偏见。 这是一个令人震惊的直率暗示承认,似乎很少有人愿意这样做,并且可能适得其反。

其次,你不确定那些赏金猎人会做什么。 他们可以选择告诉全世界他们在你的人工智能中发现了偏见。 有人认为这可能会失去获得奖金的机会,尽管有些人可能会喜欢这种关注或旨在提高他们在获得咨询演出和其他创收机会方面的地位。 它可能完全是无私的。 这可能是人工智能行动主义的一种形式。 我可以继续前进。

第三,整个事件可能会有一个偷偷摸摸的转折。 一个声称正在寻找 AI 偏见的赏金猎人可能正在四处寻找攻击您的 AI 系统的方法。 整个事情都是一场最终进行严重网络攻击的游戏。 你可能会认为他们是在试图提供帮助,而他们心里却有不法行为。 可悲,但可能。

第四,我们可以在这件事上更加狡猾地扭曲。 一位赏金猎人发现了一些令人尴尬且可能引发诉讼的 AI 偏见。 赏金是一些我们称之为 X 的美元。赏金猎人没有索取赏金,而是进行了一种奇怪的勒索软件挑衅。 如果你付给赏金猎人十倍的 X 或者天空的限制,他们会告诉你人工智能的偏见。 你必须在周日晚上午夜之前回答。 在那个时间点之后,人工智能的偏见将被揭露给所有人看。 哎呀,一个卑鄙的困境。

第五,最新的是那些所谓的“黑客归还”的网络骗子,他们在窃取了一堆在线面团后,决定悔改并归还他们抓住的一些不义之财。 获得部分返还资金的公司愿意将剩余的被盗金额视为奖励给小偷的事后赏金。 似乎每个人都“赢了”,因为大部分资金都被退还了,同时网络骗子没有被合法追捕,而且他们还获得了海盗赏金。 这是审慎的做法还是在阴险地延续不法行为?

我意识到你们中的一些人可能会说,没有人应该发布有任何偏见的人工智能。 这似乎解决了关于是否使用人工智能偏见赏金猎人的整个难题。 只是不要让自己陷入赏金的境地。 确保您的 AI 开发人员做正确的事情,并且不允许 AI 偏见进入他们的 AI 系统。 也许使用顾问进行双重检查。 从本质上讲,做任何你需要做的事情,以避免考虑或要求那些有人工智能偏见的赏金猎人来到谈判桌前。

是的,这似乎是完全明智的。 问题是它也有点梦幻。 许多人工智能系统的复杂性如此之大,以至于试图确保不出现任何人工智能偏差将是一项艰巨的任务。 最重要的是,一些人工智能系统被特意设计为在运行过程中进行调整和“学习”。 这意味着在未来某个时间点,你设计的人工智能,让我们一开始就假设它是纯粹干净的,没有偏见,可能会倾向于体现偏见(我并不是说以拟人化的方式,因为我将在我们进一步解释继续讨论这个话题)。

那些喜欢赏金寻找软件错误的人倾向于争辩说,提供这样的赏金是有意义的。 我们可以考虑他们的理由,看看它是否也适用于人工智能偏见领域。

漏洞赏金的支持者强调,与其试图假装系统中没有任何漏洞,为什么不鼓励以“受控”的方式发现漏洞呢? 相比之下,如果没有这样的赏金努力,您可能只是希望并祈祷随机机会没有人会找到一个洞,但是如果您提供赏金并告诉那些找到洞的人他们将获得奖励,它提供了一个然后有机会自己弥补漏洞,然后防止其他人在以后的某个时间点偷偷发现它。

在人工智能偏见的用例中也可以这样说。 如果您提供足够的赏金,希望赏金猎人会引起您对 AI 偏见的发现。 然后,您可以以相对安静和有节制的方式应对 AI 偏见。 这可能会在以后避免一个更大、更令人生畏的问题,即其他人在你的 AI 中发现了 AI 偏见,并大喊大叫。

通常,希望启用漏洞赏金搜寻工作的公司将制定漏洞披露政策 (VDP)。 VDP 指示如何发现漏洞并将其报告给公司,以及如何向猎人提供奖励或赏金。 通常,VDP 会要求猎人最终签署保密协议 (NDA),这样他们就不会向其他人透露他们发现了什么。

对赏金猎人使用 NDA 的想法存在一些争议。 尽管对于提供赏金的公司来说,希望对发现的风险保持沉默也许是有意义的,但据说这也会扼杀对此类漏洞的整体认识。 据推测,如果允许谈论软件错误,它可能会有助于其他公司的其他系统的安全,从而支撑他们的风险敞口。 一些赏金猎人不会签署保密协议,部分原因是公众的愿望,部分原因是试图隐藏自己的身份。 还要记住,NDA 方面通常不会出现,直到猎人声称他们发现了一个错误之后,而不是事先要求它。

一些 VDP 规定 NDA 仅适用于有限的时间段,允许公司首先找到明显漏洞的解决方案,然后再进行更广泛的披露。 一旦洞被堵住,公司就会允许放松 NDA,这样世界其他地方就可以知道这个漏洞。 据报道,当公司想要立即修复漏洞时,通常需要 15-20 天才能解决赏金问题,而在其他情况下,它可能会延长到 60-80 天。 在支付赏金猎人方面,即所谓的支付时间,在漏洞被验证为实际存在后,据报道,对于较小的实例,赏金支付往往在 15-20 天内,在 50-60 天左右较大实例的天数(这些是不断变化的行业指标,仅作为说明性提及)。

是否也应该要求 AI 偏见赏金猎人参与 VDP 并处理 NDA?

你可以对这个问题回答是和否。 是的,一些公司应该走这条路。 不,您可能不一定会选择走那条路。 因素包括 AI 的规模和性质、所涉及的任何 AI 偏见暴露的可能性,以及一系列其他道德、法律和商业考虑因素。

我可能会补充一点,为你的人工智能的人工智能偏见建立一个赏金狩猎活动比你乍一看可能想象的要高得多。

我们将从您将被 AI 偏见赏金猎人淹没的巨大可能性开始。

现在,你很难找到许多拥有这样一张名片的人。 周围人不多。 在这方面,这是狂野西部的日子。 但是,如果赏金狩猎中人工智能偏见的概念流行起来,尤其是当赏金丰富且回报丰厚的时候,你可以打赌每个人都会潜入偏见狩猎的游泳池。

你想要在你的人工智能系统中追求人工智能偏见的各种痞子吗? 你会得到一些实际上是这类事情的专家的接受者。 你会得到其他业余爱好者,可能会弄得一团糟或大喊大叫。 接下来你知道,任何会拼写“人工智能”的人都会来挖掘你的人工智能系统金矿,寻找那些宝贵的人工智能偏见金块。 淘金热开始了。 那可能对你不利。

您将需要仔细检查赏金猎人提交的内容。 报道的索赔中会有很多“噪音”,因为许多声称的人工智能偏见并不存在,尽管赏金猎人坚称他们发现了一些。 想象一下,您自己的 AI 团队将需要多少劳动力来检查赏金声明,探索每个声明的有效性,然后可能会与赏金猎人来回讨论是否发现了黄金。

有些人会争辩说,这是自己做整件事的另一个原因。 你可能不可避免地会发现,赏金的东西比它的价值更麻烦。

这是另一个需要思考的问题。 赏金猎人如何知道人工智能偏见是什么样的? 从本质上讲,如果没有一些表面上要寻找的东西,任何闪亮的岩石都可以被称为在正在挖掘的感知 AI 金矿中展示了 AI 偏见。

在旧西部时代,假设您悬赏捉拿比利小子(著名的亡命之徒)。 如果您这样做并且没有附上比利长相的照片,请想象有多少赏金猎人可能会将他们希望或认为是比利小子的人拖进警长办公室。 你可能会被虚假的比利所淹没。 这很糟糕,因为您可能需要查看每个人,提出探索性问题,并尝试确定此人是否真的是比利。

关键是要建立人工智能偏见赏金努力,明智的做法是尝试澄清你认为人工智能偏见的组成部分。 这需要 Goldilocks 类型的校准。 您不希望赏金猎人仅仅因为它们不符合您规定的定义而忽视 AI 偏见,也不希望他们大喊“尤里卡!” 他们可能发现的每一点人工智能偏见。

您将需要对 AI 偏见的组成部分进行正确的金发姑娘平衡,因此最好提供明确的方向。

很多这种人工智能偏见赏金狩猎将集中在基于人工智能的机器学习 (ML) 和深度学习 (DL) 系统上。 这是有道理的,因为 ML/DL 的普遍性正在增长,而且它似乎面临着一些最可能的挑战,即包含不适当的 AI 偏见。

这些研究人员确定了人工智能对赏金搜寻工作的偏见有多显着,特别是在 ML/DL 环境中:“随着时间的推移,软件和安全社区已经开发出‘漏洞赏金’,试图在系统开发人员和他们的批评者之间转变类似的动态。 (或黑客)走向更具互动性和生产力的目标。 希望通过有意邀请外部各方在他们的系统中发现软件或硬件错误,并经常为此提供金钱激励,一个更健康、更快速响应的生态系统将会发展。 ML 社区很自然地考虑采用类似的“偏见赏金”方法来及时发现和修复具有偏见或其他不良行为的模型和系统。 不是在软件中发现错误,而是邀请外部各方发现偏差——例如,训练模型表现不佳的(人口统计或其他)输入子组——并因此获得奖励”(在论文“偏差的算法框架”中)赏金”,Ira Globus-Harris、Michael Kearns 和 Aaron Roth)。

在研究论文中,作者概述了赏金猎人可以寻找哪些类型的 AI 偏见的建议方法。 还有一个迹象表明如何评估与如此发现的所谓人工智能偏见相关的赏金猎人索赔。 根据我在此之前的评论,您很可能会收到似是而非的说法,并且必须将 AI 偏见小麦与谷壳分开。

在深入探讨 AI 偏见狩猎背后的狂野和毛茸茸的考虑之前,让我们建立一些关于深刻不可或缺的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

现在让我们回到 AI 偏见搜寻的话题。

对于那些考虑进行 AI 偏见赏金狩猎的人,以下是我推荐的关于如何最好地进行的七个关键步骤:

1) 评估. 根据您的情况和您的 AI 系统评估 AI 偏见赏金狩猎活动的适用性

2) 设计. 设计适当的 AI 偏见赏金狩猎方法

3) 实施. 实施并宣传您的 AI 偏见赏金狩猎活动

4) 领域. 现场人工智能偏向赏金索赔并相应地处理

5) 固定. 根据这些发现的 AI 偏见暴露修复或调整您的 AI

6) 调整. 根据需要调整 AI 偏向赏金狩猎

7) 中止. 在不再需要时停止 AI 偏见赏金狩猎

在我的上述一系列步骤中,请注意我提到您可能想要修复或调整您的 AI,因为您确定您的 AI 系统中确实存在声称的 AI 偏差。 这很有意义。 你几乎肯定会想要支持任何发现的人工智能偏见。 如果您不这样做,请考虑法律(和道德)后果。 断言你不知道存在 AI 偏见并因此允许它存在是一回事,而在记录中你已经意识到 AI 偏见并且对此没有采取任何行动是更不稳定的依据。

人工智能修复或调整的性质和程度当然取决于人工智能偏见的严重程度以及问题的嵌入程度。 如果幸运的话,也许对 AI 进行适度的改动就能解决问题。 另一个潜力是您可能需要对 AI 进行整个重写。 对于 ML/DL 类型的 AI,这可能需要回到绘图板并从全新的数据集和经过清理的 ML/DL 模型开始。 我已经讨论了 AI 非法所得或 AI 破坏的出现,作为针对令人讨厌的 AI 的潜在法律补救措施,请参阅 这里的链接.

需要考虑的一个问题是,您是否希望赏金猎人能够做的不仅仅是识别 AI 偏见的存在。 例如,您可以通过表示也欢迎提议的修复来增加赏金。 人工智能偏见 发现 赏金猎人可能会获得指定的奖励或奖品。 如果赏金猎人也可以提供可行的 固定 对于人工智能的偏见,他们可能会获得额外的奖励。

有人认为这是一座太远的桥梁。 他们说你应该让 AI 偏见赏金猎人只专注于发现 AI 偏见。 通过邀请他们也提出修复建议,您将造成一堆不良的不利后果。 保持简单。 目标是让更多人关注发现 AI 的偏见,以便您决定下一步该做什么。 不要把水弄混。

需要弄清楚的一个棘手方面是真正发现人工智能偏见的赏金猎人的奖励或奖品的大小。 您希望回报具有示范性。 如果没有足够高的奖励,您将不会得到很多赏金猎人,或者他们不会特别渴望在您的 AI 系统中寻找 AI 偏见。 相反,他们可能会专注于其他 AI 偏见赏金活动。

此外,如前所述,您想尝试压制赏金猎人将他们的 AI 偏见发现转化为其他形式的黄金的冲动。 如果奖励看起来微不足道,它可能会激怒赏金猎人寻求其他更高的回报。 他们可能会对您采取勒索软件方法。 他们可能会宣称他们有一个多汁的人工智能偏见,竞争对手很想知道,并且可以通过吹捧你的人工智能中存在人工智能偏见来对付你的公司。 因此,他们将发现的人工智能偏见卖给出价最高的人。 等等。

有人认为,如果您将奖励设置在极高的范围内,那么您也在自找麻烦。 这可能会吸引各种疯狂的赏金猎人。 反过来,他们可能会用模糊的声称淹没社交媒体,声称他们发现了大量的人工智能偏见,这样做是为了自我推销,而实际上并没有消除任何人工智能偏见。 从某种意义上说,你的高额奖励不经意间照亮了你的人工智能,并刺激了一群粗鲁的飞蛾,从而相应地被发光的光束所吸引。

另一个考虑因素涉及您的 AI 的可访问性。

要启用 AI 赏金狩猎的可能性,赏金猎人必须充分获得对您 AI 的访问权限。 如果他们完全被排除在外,他​​们在发现 AI 偏见方面不会有太大的运气。 但是您不想放弃网络安全保护,因为这样做可能会完全危及您的 AI 系统。

您可以尝试让赏金猎人签署各种具有法律约束力的声明,然后为他们提供所需的访问权限。 一些赏金猎人不会喜欢这种方法。 他们的观点是,他们只会做任何公开可用和开放式路径允许的任何事情。 可以说,他们是自由的特立独行者,不喜欢被背负。 让他们在令人生畏的法律文件上签名会导致他们中的很多人避免在你的 AI 中搜索 AI 偏见。 或者他们可能会对你的法律挑战感到恼火,并决定他们将通过公共手段看到他们能找到的东西,这样做可能会带着强烈的冲动向你展示你到底有多脆弱。

我还有另一个角度可能会让你头晕目眩。

精通 AI 的赏金猎人可能会决定设计一个 AI 系统,该系统可以仔细检查您的 AI,并可能在您的 AI 中发现 AI 偏见。 这是工具制造商选择制造工具来完成工作而不是自己进行体力劳动。 精通人工智能的赏金猎人不会费力地检查你的人工智能,而是花时间炮制一个人工智能工具来做同样的事情。 然后他们在你的 AI 上使用 AI 工具。 美妙之处还在于,他们大概可以在其他任何人身上重用人工智能工具,这也为他们各自的人工智能提供了赏金狩猎机会。

我知道你大概在想什么。 如果可以设计一种人工智能工具来检查人工智能的偏见,那么正在接受人工智能偏见审查的人工智能制造商应该要么制作这样的人工智能工具,要么购买一个供自己使用。 理论上,他们不需要与整个赏金猎人狂欢节抗衡,开始。 只需使用人工智能来找到他们的人工智能偏见。

是的,这是你可以期待的会逐渐出现的东西。 同时,这些努力的主体可能包括进行赏金狩猎的 AI 开发人员。 他们可能会使用各种工具来帮助他们的工作,但在短期内,他们不太可能只是盲目地将 AI 工具设置为自动模式并打个盹,以便该工具为他们完成整个 AI 偏见搜索。

我们还没到那儿。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于 AI 的真正自动驾驶汽车的出现是否说明了有关使用 AI 偏见赏金狩猎的任何信息,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADA 的自动加载项ADA
S(高级驾驶辅助系统)。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能偏见赏金狩猎

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

在我的专栏中,我已经详细讨论了在自动驾驶汽车和自动驾驶汽车领域中使用以漏洞为导向的赏金猎人。 这种方法确实发生在这个利基市场。 关于它是否是一个合理的想法通常存在争议。 这些努力通常是有限的,通常保持相对安静。

当焦点转移到寻找人工智能偏见而不是寻找系统错误本身时,类似的讨论也会随之而来。 有人建议,如果你这样做,那就太糟糕了,如果你不困惑,那就太糟糕了。

这就是为什么

首先,需要明确的是,自动驾驶汽车和自动驾驶汽车将通过多种方式受到包含人工智能偏见的影响,请参阅我的报道 这里的链接这里的链接, 仅举几个。 汽车制造商和自动驾驶汽车公司似乎明智地尝试防止这些人工智能偏见出现在他们的人工智能系统中。 针对此类公司的法律和道德风暴无疑将是激烈的。

在这种特定情况下,使用 AI 偏见赏金狩猎是一种合适的方法吗?

一个答案是,是的,这将很方便,并提供大量“免费”的新眼睛来尝试捕捉人工智能自动驾驶汽车等的任何嵌入式人工智能偏见。 大多数构建自动驾驶汽车的 AI 开发人员都忙于制造能够安全地将汽车从 A 点开到 B 点的 AI。他们全神贯注于核心能力,既没有时间也没有关注可能存在于某处的任何 AI 偏见。他们的人工智能。

另一个答案是不,允许在任何基础上对自动驾驶汽车和自动驾驶汽车进行赏金追捕,无论是针对错误还是人工智能偏见,都应该坚决避免。 争论是这些车辆及其人工智能具有生死攸关的能力。 以任何方式与 AI 混在一起都可能对 AI 造成某种程度的破坏,并影响 AI 驾驶系统的工作。

对最后一点的反驳是赏金猎人应该无法改变他们正在检查的人工智能。 因此,他们不存在与人工智能混淆并导致这种情况下的人工智能突然变成疯狂的人工智能驾驶系统的危险。 赏金猎人只有只读权限。 允许他们走得更远将是非常愚蠢和巨大的错误。

对这种反驳的反驳是,通过允许和鼓励赏金猎人检查你的人工智能,整个事情变得很冒险。 那些赏金猎人可能会想办法利用任何发现的错误或偏见。 反过来,这些利用可能是出于狡猾的目的。 可以这么说,您最好不要邀请“窃贼”进入您的家。 一旦他们解决了联合问题,您最终将陷入困境。

对于那些拥有小于生死攸关的人工智能系统的人来说,他们相信赏金狩猎失败的后果风险要小得多。 可能是这样。 另一方面,如果一家公司将资金投入到赏金猎人设法篡夺的人工智能系统中,您可以假设声誉损失和其他潜在损失仍然会受到伤害。

谈到 AI 偏见赏金狩猎,没有免费的午餐。

现在快速结束发言。

当臭名昭著的亡命之徒杰西·詹姆斯在旧西部被追捕时,印了一张“通缉”海报,悬赏 5,000 美元(标明“死或活”)。 这在当时是一笔不小的数目。 他自己的一名帮派成员选择射杀杰西并领取奖励。 我想这显示了赏金的有效性。

使用 AI 偏见赏金猎人是好事,还是坏事?

如果您选择开展 AI 偏见赏金猎人活动,我建议您睁大眼睛,并始终注视着您的肩膀。 这对您和您的 AI 来说是谨慎的。 你永远不知道会发生什么,包括一个纵容的赏金猎人以某种方式偷偷地将一个人工智能偏见插入你的人工智能,并向世界大喊他们在你的人工智能中发现了一个不道德的人工智能偏见。 也许这样做是为了寻求赏金奖励,并宣称自己是一个英雄,基本上得到了自吹自擂的杰西詹姆斯。

想一想,一个有感知力的 AI 可能不会喜欢这种令人不安的生死攸关的规定,人们可能会如此懒散地推测。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab-道德上邪恶的完全自治系统是谨慎的还是徒劳的/