AI 道德和法律 AI 被称为 AI Ethics-Washing 的欺骗性借口所困扰

让我们探讨一下“洗”和“洗”这两个词可以延伸并用于传达各种智慧珍珠的多种方式。

例如,我们知道人们有时会预先警告您不要在公共场合洗脏衣服。 我记得小时候,成年人经常告诫说,不恰当的话语可能会导致你的嘴被肥皂洗干净。 另一个经常被引用的短语是,一切似乎最终都会浮出水面。

如果您担心自己不希望与之相关的事情,建议的想法是看看您是否可以洗手。 各种与洗涤有关的考虑因素通常都在流传,包括您可能会被立即冲走或冲走。 洗掉脸上的鸡蛋是一句古老的格言,似乎仍然偶尔会出现在谈话中。

使用颜色来表示洗涤的变化也是相对众所周知的。 据说,粉饰的概念至少可以追溯到 1500 年代。 有人对红洗、紫洗等表示担忧。 我敢说,也许“洗绿”是当今最常用的标语之一,表面上指的是在吹捧可持续发展时的一种空洞行为,但并没有用任何言行一致的内容来支持所宣称的谈话。

您可能不知道最新版本的洗涤之一,即 AI Ethics 洗涤。

有些人更喜欢将措辞缩短为 Ethics Washing,尽管这可能会产生一些混淆,因为这种看似替代的措辞几乎可以指任何一种以道德为导向的洗涤。 我将在此讨论的特定形式的道德清洗包括以人工智能为中心的道德和所有相关的道德考虑。 为了清楚起见,我想建议道德清洗涵盖了各种各样的道德清洗,这些清洗可能与人工智能本身几乎没有关系。 AI Ethics Washing 是一种特殊的 Ethics Washing,专门针对 AI 领域。

您可能想知道,AI Ethics 洗涤究竟包括什么?

我的总体定义是,AI Ethics 洗涤可以定义如下:

  • AI Ethics 清洗需要口头服务或装点门面,声称对 AI Ethics 戒律的关心担忧,包括有时不仅没有特别遵守 Ethical AI 方法,甚至还颠覆或削弱 AI Ethics 方法。

有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

一个 AI Ethics 清洗的简单示例可能对您有所说明。

假设一家正在打造人工智能系统的公司希望让世界知道他们的人工智能会有多棒。 该公司决定,获得大量关于人工智能的正面媒体和社交媒体关注的一种方法是宣传它的设计是完全公平和平衡的。 人工智能是完全值得信赖的。 该公司严格遵守创造所谓的宗旨 负责任的AI,请参阅我的报道 这里的链接. 断言是所有流行的人工智能伦理原则都与人工智能系统融为一体。

好极了!

只是一个小问题。

事实证明,该公司没有做这些事情。

他们没有遵守 AI Ethics 的规则。 他们说他们做了,但他们没有这样做。 公司和营销团队的领导者认为,声称他们已经严格遵守道德 AI 考虑因素可能对企业有利。 无需真正努力处理那些讨厌的 AI 道德准则,而只需说你做到了。

瞧,他们立即能够通过加入 AI Ethics 的潮流来推广他们的 AI。

十分简单。

但这是一条危险的道路,实际上可能会产生大问题。

企业和领导者在没有采取任何行动遵守 Ethical AI 的情况下决定错误地援引 AI 道德规范,可能会招致很多后果。 首先,如果有一天他们暴露了他们的 AI 道德谎言,他们将面临严重的声誉反弹的风险。 他们谎称有人工智能伦理思想。 此外,无论是否与 AI 道德有关,都被卷入了谎言中,这也使他们陷入了困境。 这是一个双重谎言。

其次,许多法律后果可能会影响到他们和他们的公司。 一是他们没有按照他们所说的去做,并且可能对他们的虚假声明承担法律责任。 另一个原因是,他们的人工智能最终可能会违反涉及社会敏感领域的法律,例如表现出不正当的偏见和以歧视性方式行事。 法律问题的清单很长,最终可能迫使公司陷入代价高昂的法律纠纷,并可能击沉整艘船。

为什么一家公司及其领导者会选择使用 AI Ethics 清洗?

好吧,纳入道德 AI 实践可能会有些成本高昂,尽管反驳的观点是,最终,成本将很容易被拥有真正的 AI 以及在坚持 AI 道德方法方面具有更高水平的好处所超过。 尽管如此,一些公司更愿意尽快将他们的人工智能推出市场,然后他们会担心在开发过程中没有考虑道德人工智能的后果。

旧线似乎开始承担,包括现在付钱给我或以后付钱给我。 一些领导者和公司认为值得掷骰子,并希望当他们选择避免​​现在付款的方面时,他们不必承担以后付款的价格。 我认为在人工智能伦理方面没有免费的午餐。 你要么尽自己的一份力,要么承担后果。

这并不是说所有这些都没有很大的回旋余地。

公司可能会涉足人工智能伦理,然后试图夸大他们做了多少。 他们的潜在假设是,他们将有足够的防御能力来反驳任何关于他们根本没有纳入人工智能伦理的指控。 他们可以指出某种形式的半心半意的 AI 道德活动可能会让他们摆脱困境。 因此,争论从他们没有做任何 AI 道德方面的努力转变为他们是否做得足够。

这是一个几乎无休止的论点,并为 AI Ethics 洗涤供应商提供了很大的回旋余地。

部分松散的方面是,关于 AI 伦理,目前还没有公认的通用和明确可实施的标准。 如果没有一套连贯而全面的指标,任何关于 AI 道德是否得到适当遵守的讨论都将是微不足道和混乱的。 该公司将坚称他们做得足够了。 一个局外人或其他声称该公司做得不够的人将有一场艰苦的战斗来展示这种反论点。 模棱两可可以统治。

在深入讨论 AI 道德洗牌背后的狂野和毛茸茸的考虑之前,让我们建立一些关于深刻不可或缺的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

现在让我们回到 AI Ethics 洗涤的话题。

我通常看到有四种主要的 AI Ethics 清洗变体(我稍后会解释这些):

1) 不知道自己是谁的 AI 道德清洗者: 对人工智能和/或人工智能伦理的无知或文盲洗刷人工智能伦理

2) 落入其中的 AI Ethics Washers: AI Ethics 被无意的滑点洗刷,尽管 AI Ethics 和 AI 是真实的

3) 细长的 AI Ethics Washers: 人工智能道德洗刷有目的的意图,虽然只是一个 smidgeon,有时几乎可以原谅(或没有)

4) 知道并肆无忌惮地兜售它的 AI 道德清洗者: AI Ethics 通过阴险且经常令人发指的设计彻底清洗

我一般会建议这四种变体的范围从我们说的最无辜到最有罪的,到对什么是 AI Ethics 清洗的认识。 让我们逐一介绍这四个,从第一个开始,然后到相当可耻的第四个。

首先,你有一些未洗过的人,因为他们不知道什么是人工智能伦理,他们不知道什么是人工智能伦理洗涤,他们甚至可能对人工智能也不太了解。 你可以说他们对这些话题一无所知或文盲。 对他们来说,他们可能正在实施 AI Ethics 清洗,并且盲目而幸福地没有意识到他们正在这样做。

这真是难过;这真是伤心。

如果由主要新闻机构或知名社交媒体影响者进行 AI Ethics 清洗,情况也可能特别糟糕。 他们可能已经被喂饱了谎言,他们没有审查这些谎言。 同时,他们利用自己的影响力和影响力来延续 AI Ethics 洗涤主张。 可悲,更糟糕的是,它对整个社会都造成了伤害。 让自己被愚弄的人感到羞耻。 他们需要聪明起来。 请记住,被愚弄和看起来很愚蠢是近亲。

接下来是 AI Ethics 洗涤,这是一个失误。 想象一下,一家公司在遵守 AI 道德准则方面做得很好。 我们可以祝贺他们这样做。 不幸的是,假设他们在某个时刻发布了关于他们的人工智能的公告,但从人工智能伦理的角度来看,这并没有得到很好的支持。 如果这是一个相对无害的陈述或无意的错误,我们可能会给他们一些自由度。 当然,如果他们提出的观点严重超出界限,那么滑点就不会那么容易被忽视。 有一条著名的线路,建立声誉需要很长时间,但只需片刻就可以彻底摧毁它。

我们接下来进入四个类别中的最后两个。

这些是完全意识到 AI 道德洗牌的罪魁祸首,他们有意识地决定利用它,也许是作为公司战略的一部分或通过其他预想的方式。 后两者之间的主要区别在于,AI Ethics 清洗可能具有次要性质,也可能具有重要且至关重要的性质。 你有一些选择拉伸东西,只是稍微超出界限。 还有其他人愿意将 AI Ethics 洗涤发挥到极致。

你可能会想,任何极端的 AI 道德洗礼都必须是显而易见的,极端分子会被他们的手伸进饼干罐里。 每个人都会看到皇帝没有衣服。 可悲的是,鉴于当今世界对 AI 和 AI 伦理的整体混乱,有足够的模糊性,即使是极端的 AI 伦理清洗也可以免费通行证。

对于那些对 AI 伦理持严肃和清醒态度的人来说,这可能会非常令人厌烦。 他们看着其他人到处乱扔垃圾,这在 AI Ethics 清洗中非常明显。 极端分子引起了媒体的广泛关注。 他们有众所周知的15分钟成名。 当市场上的其他人毫无顾忌地进行 AI Ethics 清洗时,那些在 AI Ethics 方面做真正工作和做正确事情的人可能会感到愤怒和有理由感到不安。

它几乎可以比作运动中发生的榨汁和兴奋剂。 一个全心全意地自然成为一流运动员的运动员,如果其他人设法在同一水平上竞争,并且通过使用禁用的提高成绩的药物来做到这一点,他可能会完全垂头丧气。 你应该喊出另一个扰流板吗? 您是否应该悄悄地选择也服用这些药物,以火攻毒? 这是一个难题。 有关我在 AI 领域如何进行榨汁或兴奋剂的讨论,请参阅 这里的链接.

现在我们已经介绍了一些关于 AI Ethics 清洗的内容,我们可以介绍一些其他相关的流行语,它们同样在同一个领域。

以下是我们可以简要探讨的一些内容:

  • 人工智能伦理剧场
  • 人工智能道德购物
  • 人工智能伦理抨击
  • AI 道德屏蔽
  • 人工智能伦理洗白

让我们简要地检查一下这些流行语。 不是每个人都同意每个短语的确切含义,所以我将与您分享我的总体印象。

人工智能伦理剧场

AI Ethics 剧院可能与 AI Ethics 洗涤有些相似,因为其想法是以一种经过考虑的阶段性和仪式性的方式进行大量的展示,以表明遵守 AI Ethics 的规则。 如果进行马戏团或 AI 道德剧场的公司确实遵守 AI 道德实践,你可以说他们应该能够这样做是理所当然的。 事实上,你可以进一步争辩说,这有望激励其他人也遵守 AI 道德规范。

另一方面,AI Ethics 剧院似乎通常会过火。 拥有所有这些小马和大象的马戏团行为往往会夸大真正进行的事情。 这反过来又开始进入上述 AI 道德洗牌的第二、第三或第四类。 剧院是好于坏(例如鼓舞人心),还是坏于好(可能刺激了其他人对 AI Ethics 的清洗),还有待观察。

人工智能道德购物

设想一家公司将要构建一个人工智能系统,并意识到他们应该在人工智能的开发生命周期中包括人工智能伦理方面。 他们应该使用众多 AI 道德准则中的哪一个?

一次选择其中几个可能会令人困惑,并使他们的 AI 工作过于庞大。 如果有一个内部采用的单一集合,所有人都可以很容易地参考和理解,那么开发工作将更有可能遵守 AI 道德实践。

好的,因此,建立一套 AI 伦理原则的一种方法是从众多可用的原则中选择一个。 另一种方法是采取几组并尝试将它们合并在一起。 合并的问题可能是您花费了大量宝贵的精力和时间来讨论如何最好地将集合合并为一个全面的整体。 这种关注可能会分散您继续开发过程的注意力,而且可能会仅仅因为在 AI Ethics 合并活动期间可能发生的激烈辩论而激怒 AI 团队。

总体而言,您还可以尝试将注意力转向您认为最容易采用的 AI 道德准则集。 这看起来非常好。 为什么要让生活变得比现在更艰难? 同样,假设你选择了一个被淡化的 AI Ethics 集。 你的目标是做你能做的最少的事情。 你想高高举起你遵守 AI Ethics 规则的头,同时偷偷地选择极简主义,甚至可能更少。

有些人会将此称为 AI Ethics 购物。

您正在四处寻找人工智能伦理原则,这些原则将为您提供最简单的途径来声称您遵守人工智能伦理。 这确实是有道理的,因为为什么您必须做的比必要的更多? 但是,可以通过找到一套毫不掩饰的 AI 伦理并坚持它,就好像它是强大的和善意的,而现实是它是稀疏和边缘的。

人工智能伦理抨击

抨击 AI Ethics 的概念有些直截了当。

您抨击或诋毁 AI 道德准则的性质和使用。 一种常见的抨击形式是坚持认为 AI 道德准则毫无价值,不值得印在上面的纸上。 另一个流行的 bash 是 AI Ethics 是一项与现实世界无关的学术活动。 甚至有人劝告说人工智能伦理是不好的,大概是因为它为那些想要看起来好像他们正在正确开发人工智能的人提供了一个虚假的掩护。 这样一来,AI Ethics 就是一个掩饰计划。

我不会详述 AI Ethics 抨击现象,并建议你看看我对为什么这些 bash 错误或至少被误导的报道,请参阅 这里的链接.

人工智能道德屏蔽

AI Ethics shielding 通常指的是 AI Ethics 是一种欺骗性的盾牌,可以隐藏或掩盖不良行为者和不良 AI Ethics 的努力。 在本文的讨论中,我反复提到了这一点。

有些人会自豪地表示他们正在使用人工智能伦理,而潜在的现实是他们几乎没有做任何此类事情。 对于那些说我们应该完全摆脱盾牌的人,我倾向于反驳说这类似于把婴儿和洗澡水一起倒掉。

人工智能道德洗礼

公平很重要。

你可能还记得,当我讨论 AI 道德准则时,最常见的 AI 道德准则之一就是试图确保 AI 是公平的或表现出公平的表象。 这引起了“公平清洗”的流行语,有时用于唤起一种可能性,即当人工智能系统可能不公平或几乎没有证据支持它是公平的时,它被称为或声称是公平的。 这有点像 AI Ethics 的混搭,在概念上考虑 AI 是公平的,因此表达这一点的捷径是说可能存在 洗白 这可能发生。 研究人员这样描述此事:“特别是,由于公平概念在机器学习中的重要性日益增加,公司可能会倾向于执行公平清洗,我们将其定义为促进公司使用的学习模型的错误看法是公平的,但可能并非如此”(由 Ulrich Aiıvodji、Hiromi Arai、Olivier Fortineau、Sebastien Gambs、Satoshi Hara 和 Alain Tapp 在“Fairwashing:合理化的风险”中)。

关于 AI Ethics 清洗还有另一个值得考虑的转折点。

在某种宏观层面上,人们表达了一种担忧,即 AI Ethics 的兴起是更宏大事物的盾牌或掩护。 您可能已经意识到,在制定有关 AI 治理的法律方面正在进行大量努力。 这种情况正在全球范围内发生。 我在我的专栏中已经介绍过,欧盟正在做出激烈的努力,在美国也是如此,许多国家也在进行。

一些人认为,拥抱人工智能伦理可能是阻止这些法律颁布的一种手段。 公司可以看似有说服力地争辩说不需要新的法律,因为使用人工智能伦理可以适当地处理任何人工智能问题。 人工智能伦理通常被归类为“软法律”的一种形式,并且通常是自愿的(其他条件相同)。 关于人工智能的法律被归类为所谓的“硬法律”,并且不是自愿构建的(通常)。

人们普遍认为,与硬法相比,公司更喜欢软法,这给了它们更多的自由度和回旋余地。 并非所有人都同意这种观点。 有人说,软法律允许公司通过不适当的努力逃脱惩罚,而解决这些问题的唯一方法是制定硬法律。 其他人指出,公司有时会更喜欢硬性法律,这可以提供更清晰的竞争环境。 硬性法律可能使所有玩家都遵守相同的规则。 软法律允许一种挑选和选择,从而造成混乱并扰乱竞争环境。

以下是研究如何描述 AI 伦理在对可能发生的事情的更宏大观点中洗礼:“一方面,该术语已被公司用作可以接受的表面,证明放松管制、自我监管或市场驱动的治理是正当的,并且越来越多地被技术公司自私地采用道德行为的表象所认同。 我们将科技公司越来越多地将道德语言工具化称为“道德清洗”。 除了人工智能伦理委员会之外,伦理清洗还包括其他简化伦理工作价值的尝试,这通常是企业传播战略的一部分:聘请内部道德哲学家,他们几乎没有权力制定公司内部政策; 专注于人性化设计——例如,鼓励用户减少在应用程序上花费的时间——而不是解决产品本身存在的固有风险; 为“公平”机器学习系统的工作提供资金,这积极地掩盖了围绕这些系统对社会的更广泛影响的更深层次的质疑”(Elettra Bietti,“从道德洗礼到道德抨击:从道德哲学中看技术伦理,” 2020 年公平、问责和透明度会议记录).

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于 AI 的真正自动驾驶汽车的出现是否说明了有关 AI Ethics 洗涤的任何信息,如果是,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能伦理洗

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

几乎可以肯定,你已经看到了大胆断言自动驾驶汽车已经出现并且自动驾驶汽车已经完善的头条新闻。 这通常意味着自治方面得到了解决。 我们已经衍生出与人类驾驶员一样好的人工智能,甚至可能比人类更好。

只是为了确保消除泡沫并澄清事实,目前还不是这样。

我们确实知道,美国的人类驾驶员每年会发生大约 2.5 万起车祸,每年造成超过 40,000 人死亡,请参阅我的统计数据: 这里的链接. 如果人工智能驾驶系统能够像人类驾驶员一样安全或更安全地驾驶,那么任何看似合理的同类都会欢迎人工智能驾驶系统。 此外,我们希望我们将体验到人人共享的移动性,让那些今天移动受限的人拥有人工智能驱动的车辆,为方便和廉价的交通提供方便的通道。

一些权威人士令人震惊地“加倍努力”,并声称自动驾驶汽车将不会撞车,这是可耻的。 这绝对是疯狂的,完全是错误的。 更糟糕的是,它正在建立无法满足的更高期望。 如果你能让民众相信自动驾驶汽车是不会撞车的,他们会在发生与自动驾驶汽车相关的碰撞事故的那一刻大喊大叫。 有关我为什么不可推翻的主张是愚蠢的和对社会的伤害的详细解释,请参阅我的报道 这里的链接.

所有这些夸大其词或其他谎言都可以说是包含在 AI 道德规范中,因为如果您遵守 AI 道德原则,您不应该做出这些类型的狂野和未经证实的主张。 因此,这些虚假陈述和不实之词很容易在 AI Ethics 清洗的范围内。

与自动驾驶汽车和自动驾驶汽车相关的 AI Ethics 清洗广泛而广泛,令人遗憾的是。 随便搜索一下互联网,就会发现无数关于自动驾驶汽车的荒谬和不受支持的说法。 这不仅限于在自己博客上的人。 主要新闻机构被卷入其中。 大公司被卷入其中。 初创公司陷入了这种困境。 风险投资公司被卷入其中。 股东们被卷入其中。 等等。

我会非常自信地说,AI Ethics 在这个特定领域的清洗非常猖獗。

关于 AI Ethics 清洗的流行语的一个特殊变体需要自治和自治系统是 autonowashing 的概念。 作者 Liza Dixon 对此进行了描述:“适应自动化,自动清洗被定义为提出未经证实或误导性声明的做法,这些声明歪曲了部分或半自主产品、服务或技术所需的适当人工监督水平。 自动清洗也可以扩展到完全自主的系统,在系统能力被夸大到超出在所有条件下可靠执行的情况下。 自动清洗使某些东西看起来比实际更自主。 自动清洗的目的是通过使用旨在传达与系统技术能力不一致的系统可靠性水平的肤浅措辞来区分和/或为实体提供竞争优势。 当一个人在不知不觉中向另一个人重复有关自动化系统功能的错误信息时,自动清洗也可能在不经意间发生。 Autonowashing 是一种虚假信息,从某种意义上说,它是病毒式的”(交通研究跨学科视角,“自动清洗:车辆自动化的绿色清洗”,2020 年)。

作为对我之前指示的提醒,我通常看到有四种主要的 AI Ethics 清洗变体发生,它们在自动驾驶汽车领域也很容易找到:

  • 不知道自己是谁的 AI 道德清洗者: 对自动驾驶汽车中的人工智能和/或人工智能伦理的无知或文盲洗刷人工智能伦理
  • 落入其中的 AI Ethics Washers: AI Ethics 被无意的滑倒洗刷,尽管 AI Ethics 和 AI 在自动驾驶汽车中是真实的
  • 细长的 AI Ethics Washers: AI Ethics 通过有目的的意图清洗,尽管只是一个小动作,有时在自动驾驶汽车中几乎是可以原谅的(或不可原谅的)
  • 知道并肆无忌惮地兜售它的 AI 道德清洗者: AI Ethics 在自动驾驶汽车中通过阴险且经常令人发指的设计彻底清洗

此外,您还可以在自治领域轻松看到其他类型的 AI Ethics 洗涤和相关洗涤疾病的实例,包括:

  • 人工智能伦理剧场 在自动驾驶汽车和自动驾驶汽车中
  • 人工智能道德购物 在自动驾驶汽车和自动驾驶汽车中
  • 人工智能伦理抨击 在自动驾驶汽车和自动驾驶汽车中
  • AI 道德屏蔽 在自动驾驶汽车和自动驾驶汽车中
  • 人工智能伦理洗白 在自动驾驶汽车和自动驾驶汽车中

结论

AI Ethics 洗涤就在我们身边。 我们在里面沐浴。

我希望通过关注这个严肃且看似永无止境的问题,你将能够辨别你何时被 AI 道德洗刷了。 可能很难弄清楚。 那些进行 AI Ethics 清洗的人可能非常聪明和狡猾。

一个方便的技巧是在洗涤中混入一些与虚假或夸张混合的真相。 因为您可能很容易发现并同意真实的部分,所以您可能会摇摆不定地相信其他不真实或具有欺骗性的部分也是真实的。 一种俏皮而卑鄙的欺骗形式。

让我们称之为废话。

我们可以把那些直接执行 AI Ethics 清洗的嘴洗掉吗?

很遗憾地报告说,这并不像人们希望的那样容易。 话虽如此,仅仅因为捕捉和呼唤 AI Ethics 清洗可能很费力,有时就像西西弗斯将一块沉重的巨石推上山坡,我们需要尝试一下。

万一你不知道,宙斯派他去推这块巨石,直到永远,一旦到达顶峰,巨大的岩石就会永远滚落下来。 我认为在 AI Ethics 清洗方面我们面临着同样的困境。

总会有更多的 AI Ethics 需要被淘汰。 这是一个万无一失的保证,没有任何多余的东西。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics-洗涤哪些是虚假的主张遵守道德的人工智能,包括自动驾驶汽车/