那些“煽动”道德人工智能实践的人工智能伦理学家对人工智能伦理感到困惑

盐腌最近在新闻中出现了很多。

我不是指你放入食物中的盐。 相反,我提出了与劳资之间的相互作用相关的挑衅性和看似极具争议性的做法相关的“盐渍”。

你看,这种腌制意味着一个人试图被雇用到一家公司表面上发起或有人可能会说是在其中煽动建立工会的情况。 讨论这一现象的最新新闻报道指向星巴克、亚马逊等公司,以及其他知名甚至鲜为人知的公司。

我将首先介绍加盐的基础知识,然后切换到一个您可能会措手不及的类似主题,即在人工智能(AI)领域似乎正在发生一种加盐。 这具有至关重要的人工智能伦理考虑。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

现在,让我们了解加盐通常如何工作的基础知识。

假设一家公司的劳动力中没有任何工会。 工会如何以某种方式在该公司中站稳脚跟? 一种方法是在公司外部采取行动,并试图呼吁工人加入工会。 这可能涉及在公司总部附近展示横幅或向员工发送传单或利用社交媒体等。

这绝对是一种由外而内的方法。

另一种途径是从可能使球滚动的火花中激发。 如果至少有一名员工可以作为啦啦队长在公司接受工会,也许这最终会引发内部支持工会的行列。 即使这样的员工不是彻头彻尾的助威,他们也可能悄悄地获得工人内部的支持,成为组织内部争取工会的相对隐蔽的力量。

以这种思维方式,工会可能会考虑如何激活这样的员工。 工会可能会花费无尽的精力去大海捞针。 在公司可能有成百上千的工人中,试图找到所谓的被选中的人,特别是有利于工会化的人,可能很难做到。

更容易“发现”那个引发火花的工人(或发明他们,可以这么说)会很方便。

这使我们想到了一个想法,也许可以让公司雇用这样的人担任公司的日常职务。 从本质上讲,将正确的工会激励人植入公司。 您无需尝试吸引所有从外面告诉的工人,而是插入一个激活的人,这样您就可以确定您的火花在那里被使用。

然后,新雇用的工人寻求在公司内灌输工会利益,同时做他们被雇用做的任何工作(表达通常被称为对工作的“真正兴趣”)。 请注意,该人积极受雇于公司,并积极从事他们作为雇员所要求的工作。 在传统的腌制领域,他们不仅仅是工会的非特定工作相关的工人,很可能嵌入了公司。

一些人预示着这种方法。

他们告诫说,对于寻求激励公司工人考虑加入工会的工会而言,这可以节省时间和资源。 其他员工通常更愿意倾听并被同事激活。 另一种尝试从外部获得牵引力的方法被认为不那么诱人,与某些“外部人员”相比,同事为公司内部的员工提供了强大的动力外人。

不是每个人都对腌制方法感到满意。

公司经常会争辩说,这是一种非常偷偷摸摸和不诚实的做法。 该方法的整体格式塔是间谍被放置在公司中间。 那不是这个人被雇用来做的。 他们大概是被雇用来完成他们规定的工作,而相反,整个各种各样的恶作剧似乎就像是恶魔般地植入了真正的特洛伊木马。

工会的反诉是,如果这个人在做他们规定的工作,那么就没有伤害也没有犯规。 大概是一名员工,或者我们应该说 任何 公司的雇员,通常可以选择加入工会。 这个特定的员工恰好想要这样做。 他们带着这个想法进入公司的事实仅仅是任何新员工都可能考虑的事情。

等一下,商家会反驳,这人 通过设计 想来公司成立工会立足点。 那是他们的驱动欲望。 新聘用的员工嘲弄了招聘过程,并不当地利用他们的求职愿望作为工会的特定优势的伪装。

这种热烈的话语一圈又一圈地进行着。

请记住,在这些环境中会出现大量的法律考虑。 与国家劳动关系法 (NLRA) 和国家劳动关系委员会 (NRLB) 等相关的各种规则和条例都是这些策略的一部分。 我不想让你觉得这些方面的事情是直截了当的。 许多法律上的复杂情况比比皆是。

我们还应该思考与加盐有关的各种变化。

假设希望被录用的人在整个寻求公司工作的过程中公开支持工会。 这个人可能会穿着衬衫或其他明确表明他们支持工会的服装出现在工作面试中。 他们可能会在采访中提出他们希望公司有一天会接受工会化的希望。 等等。

在这种情况下,有些人会断言该企业知道它正在进入什么领域。 从一开始,该公司就对这个人的意图有很多迹象。 如果新员工在被雇用后会尽其所能让工会加入进来,那么你就不能在事后发牢骚。 这家公司好像是自己开枪了,其他的一切都只是鳄鱼的眼泪。

不过,这方面的舞蹈再次比看起来更复杂。 根据可能出现的法律问题,如果被招聘公司拒绝,本来有资格被聘用的人可能会辩称,由于公司的反工会偏见,他们被故意忽视了。 NRLA 和 NRLB 再一次被卷入了这场混乱的事件中。

我将快速向您介绍盐渍领域中出现的一系列其他注意事项。 我还想让你知道,加盐不仅仅是美国独有的现象。 它也可能发生在其他国家。 当然,各国的法律和实践差异很大,因此盐渍不是特别有用,甚至可能在某些地区被彻底禁止,而盐渍的性质可能会根据其法律和文化习俗发生重大变化,实际上可能还是有效力的。

在您关心的任何司法管辖区咨询您心爱的劳动法律师。

关于盐渍的一些额外因素包括:

  • 得到报酬. 有时,工会向此人支付报酬以执行在公司受雇的任务。 然后,他们可能在公司任职期间由公司和工会共同支付,或者一旦被公司雇用,工会可能不再获得报酬。
  • 能见度。 有时这个人在招聘过程中对他们的工会意图保持低调或完全保持沉默,而在其他情况下,这个人公开表达他们打算做什么。 一种看似半途而废的方法是,如果在面试中明确询问,该人会说出他们的目标是什么,从而暗示公司有责任找出这种意图,公司认为这是一种不正当的纵容和纵容的负担。拉紧法律界限。
  • 定时。 一旦被雇用的人可能会选择等待承担他们的工会能力。 他们可能会等待数周、数月甚至数年才能激活。 一旦他们适应了公司并建立了作为公司员工的个人立足点,他们更有可能开始工作。 如果他们立即开始,这可能会削弱他们被视为局内人的企图,并将他们视为入侵者或局外人。
  • 采取的步骤. 有时,该人会在公司内明确宣布他们现在正在寻求加入工会,这可能会在被录用后不久发生,也可能会在不久之后发生(根据我上面关于时间因素的说明)。 另一方面,此人可能会选择担任卧底角色,向工会提供信息,而不是引起任何关注。 这有时被抨击为 盐渍痣,尽管其他人会强调,如果他们直接说出来,该人可能会面临内部风险。
  • 保有. 一个从事盐腌工作的人最终可能会获得工会的推动力(他们是“盐工”)。 他们可能会在整个工会过程中留在公司。 话虽如此,有时这样的人会选择离开已被激发的公司,并选择去另一家公司重新开始激发活动。 对此的争论很激烈。 一种观点是,这清楚地表明该人并没有在公司的工作。 与之形成鲜明对比的观点是,一旦支持工会的努力获得牵引力,他们可能会继续留在公司,从而发现自己陷入了混沌和可能站不住脚的境地。
  • 成果. 加盐尝试并不能保证特定的结果。 可能是该人确实提高了对工会的认识,并且努力正在进行中,因此发生了“成功”的腌制。 另一个结果是该人无法获得任何此类牵引力。 然后他们要么放弃追求并留在公司,也许稍后等待另一个机会,或者他们离开公司并通常寻求在其他公司进行腌制。
  • 专业盐工. 有些人认为自己是腌制的坚定拥护者,他们为自己担任腌制者而感到自豪,事实上。 他们反复进行腌制,在这样做的过程中从一个公司到另一个公司。 其他人会一次性这样做,可能是因为某种特殊偏好或想看看它是什么样的,然后选择不重复担任这样的角色。 您可以肯定地想象在盐工身份中可能发生的个人压力和潜在压力的类型。

这些因素现在足以突出盐渍的范围和动态。 我将在 AI 和道德 AI 考虑的背景下重新审视这些因素。

要点是,有些人寻求被公司聘用,以发起或煽动在公司中建立 AI 道德原则。 这是他们去公司工作的主要动机。

从某种意义上说,他们不是为了工会的目的而进行腌制,而是“腌制”以试图让一家植根于道德 AI 戒律的公司。

稍后我将对此进行更多说明。

在深入了解 AI 环境中盐腌背后的狂野和毛茸茸的考虑之前,让我们列出一些关于非常重要的主题的额外基础知识。 我们需要简要介绍一下 AI 伦理,尤其是机器学习 (ML) 和深度学习 (DL) 的出现。

您可能隐约意识到,如今在 AI 领域甚至在 AI 领域之外,最响亮的声音之一就是呼吁更多地表现出道德 AI。 让我们来看看提到 AI Ethics 和 Ethical AI 是什么意思。 最重要的是,当我谈到机器学习和深度学习时,我们将探讨我的意思。

受到媒体广泛关注的人工智能伦理的一个特定部分或部分包括表现出令人不快的偏见和不平等的人工智能。 你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

稍后,我将与您分享一些 AI 伦理背后的总体原则。 这里和那里有很多这样的列表。 你可以说,目前还没有一个普遍的吸引力和同意的单一列表。 这就是不幸的消息。 好消息是,至少有现成的 AI 道德清单,而且它们往往非常相似。 总而言之,这表明通过某种形式的理性融合,我们正在寻找通往人工智能伦理所包含的普遍共性的道路。

首先,让我们简要介绍一些整体的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,使相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

让我们也确保我们对当今人工智能的本质保持一致。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我关注的人工智能类型包括我们今天拥有的非感知人工智能。 如果我们想疯狂地推测 有知觉的 人工智能,这个讨论可能会朝着完全不同的方向发展。 一个有感觉的人工智能应该具有人类的素质。 你需要考虑到有感知的人工智能是人类的认知等价物。 更重要的是,由于一些人推测我们可能拥有超智能 AI,因此可以想象这种 AI 最终可能比人类更聪明(对于我对超智能 AI 可能性的探索,请参阅 这里的报道).

让我们更脚踏实地,考虑一下今天的计算非感知人工智能。

意识到今天的人工智能无法以任何与人类思维同等的方式“思考”。 当你与 Alexa 或 Siri 互动时,对话能力可能看起来类似于人类的能力,但现实是它是计算性的,缺乏人类认知。 人工智能的最新时代广泛使用了机器学习 (ML) 和深度学习 (DL),它们利用了计算模式匹配。 这导致人工智能系统具有类似人类的倾向。 与此同时,今天没有任何人工智能具有常识,也没有任何强大的人类思维的认知奇迹。

ML/DL 是一种计算模式匹配。 通常的方法是收集有关决策任务的数据。 您将数据输入 ML/DL 计算机模型。 这些模型试图找到数学模式。 在找到这样的模式之后,如果找到了,那么人工智能系统就会在遇到新数据时使用这些模式。 在呈现新数据时,基于“旧”或历史数据的模式被应用于呈现当前决策。

我想你可以猜到这是走向何方。 如果一直在做出模式化决策的人类已经纳入了不利的偏见,那么数据很可能以微妙但重要的方式反映了这一点。 机器学习或深度学习计算模式匹配将简单地尝试相应地在数学上模拟数据。 人工智能制作的建模本身没有常识或其他感知方面的外表。

此外,人工智能开发人员可能也没有意识到发生了什么。 ML/DL 中的神秘数学可能使找出现在隐藏的偏见变得困难。 您理所当然地希望并期望 AI 开发人员会测试潜在的隐藏偏见,尽管这比看起来要棘手。 即使进行了相对广泛的测试,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某种程度上使用著名或臭名昭著的格言垃圾进垃圾出。 问题是,这更类似于偏见,因为偏见潜伏在人工智能中。 人工智能的算法决策 (ADM) 不言自明地变得充满了不公平。

不好。

让我们回到 AI 环境中对加盐的关注。

首先,我们从盐渍的术语中删除了任何类似的联合元素,而只使用盐渍作为通用范式或方法作为模板。 所以,为了这个与 AI 相关的盐渍讨论的目的,请把与工会相关的方面放在一边。

其次,如前所述,在这种人工智能背景下进行盐渍化意味着一些人可能会寻求被公司聘用,以发起或煽动在公司中建立人工智能伦理原则。 这是他们去公司工作的主要动机。

澄清一下,绝对有很多人被公司录用,他们已经意识到人工智能道德很重要。 不过,这并不是他们试图被感兴趣的特定公司聘用的首要依据。 从本质上讲,他们将被聘用做某种人工智能开发或部署工作,为此他们很容易在他们内部带来对道德人工智能的强烈信念。

然后,他们将尽最大努力在公司中注入或激发 AI 道德考虑。 对他们有好处。 我们需要更多的人将其作为一种由衷的渴望。

但这不是我在这里提到的盐渍。 想象一下,有人挑选出一家在拥抱 AI 伦理方面似乎做得并不多的特定公司。 该人决定如果他们可以在某些日常 AI 工作(甚至可能是非 AI 角色)中被该公司聘用,那么他们的主要重点将是在公司。 这不是他们的主要工作职责,甚至没有在他们的工作职责中列出(我提到这一点是因为,显然,如果雇用一个人是为了故意实现 AI 道德,他们并没有以这里的内涵和外表的方式“撒盐”)。

这个人并不特别关心工作本身。 当然,他们会做任何工作,而且他们大概有资格这样做。 与此同时,他们真正的议程是推动道德人工智能成为公司的一部分。 这就是使命。 这就是目标。 工作本身只是让他们从内部这样做的一种手段或工具。

你可能会说他们可以从公司外部做同样的事情。 他们可以尝试游说公司的人工智能团队更多地参与人工智能伦理。 他们可能会试图通过在博客上发帖或采取其他措施来羞辱公司这样做。 等等。 问题是,正如前面在讨论盐渍的总体前提时指出的那样,他们仍然是局外人。

AI腌制人是骗人的吗?

我们再次想起了关于盐渍联合背景的相同问题。 这个人可能会坚持根本没有欺骗。 他们受雇从事一项工作。 他们正在做这项工作。 碰巧的是,此外,他们还是人工智能伦理的内部倡导者,并努力让其他人也这样做。 没有伤害,没有犯规。

他们可能还会指出,他们推动公司走向道德人工智能并没有任何特别的不利因素。 最后,这将有助于公司避免在不遵守 AI 道德规范的情况下生产 AI 时可能出现的诉讼。 因此,他们正在将公司从自身中拯救出来。 尽管这个人可能并不特别关心手头的工作,但他们正在做这项工作,同时通过大力推动道德 AI 使公司变得更加明智和安全。

稍等片刻,有人反驳,此人虚伪。 一旦 AI Ethics 被接受,他们似乎就会跳槽。 他们的心不在公司,也不在工作。 他们正在利用公司来推进他们自己的议程。 当然,议程似乎足够好,试图将道德人工智能放在首位,但这可能太过分了。

你看,这个论点进一步表明,人工智能伦理学的追求可能会变得过于热心。 如果这个人来启动 Ethical AI,他们可能不会更全面地了解公司整体正在处理的事情。 排除其他所有因素,此人可能会分散公司的注意力,并且不愿意在合理的基础上以审慎的速度采用 AI 道德规范。

他们可能会成为一种破坏性的不满情绪,不断地就公司在道德 AI 规则方面所处的位置争论不休。 其他 AI 开发人员可能会因单调的喋喋不休而分心。 将 AI 道德纳入其中当然是明智的,尽管公司内部的戏剧性和其他潜在破坏可能会阻碍道德 AI 的进步,而不是帮助它。

一圈又一圈地走。

我们现在可以重新审视我之前提出的关于加盐的其他因素:

  • 得到报酬. 可以想象,该人最初可能由某个希望让公司接受人工智能伦理的实体支付,可能旨在无害地这样做,或者可能向公司出售一套特定的人工智能伦理工具或实践。 一般不太可能,但值得一提。
  • 能见度。 在招聘过程中,该人可能不会特别提出他们的 AI 道德使命。 在其他情况下,他们可能会确保它处于前沿和中心位置,这样招聘公司就可以毫不含糊地理解他们的虔诚焦点。 不过,这更有可能被表述为好像 AI 道德是次要问题,而工作是他们的首要问题,而不是相反。
  • 定时。 被聘用的人可能会选择等待进行他们的 AI Ethics 开始。 他们可能会等待数周、数月甚至数年才能激活。 一旦他们适应了公司并建立了作为公司员工的个人立足点,他们更有可能开始工作。 如果他们立即开始,这可能会削弱他们被视为局内人的企图,并将他们视为入侵者或局外人。
  • 采取的步骤. 有时,此人会在公司内明确宣布他们现在正在寻求提高对 AI 道德的关注,这可能会在被录用后不久发生,也可能会在不久之后发生(根据我上面关于时间因素的说明)。 另一方面,这个人可能会选择担任卧底角色,在公司内安静地工作,而不是特别关注自己。 他们还可能向媒体和其他外部人士提供有关公司内部发生的 AI 道德遗漏或失败的信息。
  • 保有. 一个从事腌制工作的人最终可能会获得 AI Ethics 的推动力。 他们可能会在整个 Ethical AI 采用过程中留在公司。 话虽如此,有时这样的人会选择离开已被激发的公司,并选择去另一家公司重新开始激发活动。 对此的争论很激烈。 一种观点是,这清楚地表明该人并没有在公司的工作。 与之形成鲜明对比的观点是,如果他们现在被贴上大声喧哗或麻烦制造者的标签,他们可能会因为留在公司而陷入混沌和可能站不住脚的境地。
  • 成果. 加盐尝试并不能保证特定的结果。 可能是该人确实提高了对道德 AI 的认识,并且努力正在进行中,因此发生了“成功”的腌制。 另一个结果是该人无法获得任何此类牵引力。 然后他们要么放弃追求并留在公司,也许稍后等待另一个机会,或者他们离开公司并通常寻求在其他公司进行腌制。
  • 专业盐工. 有些人可能认为自己是 AI Ethics 盐渍的坚定拥护者,他们为自己担任盐渍工感到自豪,事实上。 他们反复进行腌制,在这样做的过程中从一个公司到另一个公司。 其他人可能会一次性这样做,可能是因为某种特殊偏好或想看看它是什么样的,然后选择不重复担任这样的角色。 您可以肯定地想象在盐工身份中可能发生的个人压力和潜在压力的类型。

这种以人工智能伦理为导向的盐渍化是否流行还有待观察。 如果公司在培养道德人工智能方面进展缓慢,这可能会导致狂热的人工智能伦理学家进行盐渍化努力。 他们可能不会直接意识到他们正在做盐腌。 换句话说,有人去了 X 公司并试​​图为 AI Ethics 获得牵引力,也许这样做了,并意识到他们应该在其他地方做同样的事情。 然后他们转移到 Y 公司。冲洗并重复。

再次强调,AI 道德接受是他们的首要任务。 找到工作是次要的,甚至不是特别重要,除了能够进入内部并进行与道德 AI 相关的盐渍的内部工作。

我还要补充一点,那些研究和分析人工智能伦理方面的人现在对伦理人工智能研究的主题有了一些新的补充:

  • 是否应该全面宽恕或回避这些 AI Ethics 盐渍工作?
  • 是什么驱使那些希望在这种 AI 环境中进行加盐的人?
  • 企业应该如何对感知到的 AI 上下文盐渍行为做出反应?
  • 是否会设计一些方法来鼓励像这样与人工智能相关的加盐?
  • 等等

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。 人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括(可能令人惊讶或具有讽刺意味地)评估 AI Ethics 如何被公司采用。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。

在这个重要讨论的关键时刻,我敢打赌,你希望有一些说明性的例子可以展示这个主题。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于 AI 的真正自动驾驶汽车的出现是否说明了与 AI 相关的盐渍化的任何事情,如果是这样,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能伦理盐渍

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我希望这提供了足够多的警告来作为我将要讲述的内容的基础。

让我们勾勒出一个展示与 AI 相关的盐渍情况的场景。

一家致力于开发全自动自动驾驶汽车的汽车制造商正在推进公共道路试验。 该公司承受着巨大的压力。 他们受到市场的关注,如果他们似乎没有处于自动驾驶汽车开发的前沿,他们的股价就会相应受到影响。 此外,他们已经投资了数十亿美元,投资者对公司能够宣布他们的自动驾驶汽车已准备好用于日常商业用途的那一天感到不耐烦。

一位 AI 开发人员正在远处密切关注这家汽车制造商的努力。 报道称,人工智能驾驶系统变得混乱或犯错误的案例越来越多地出现在新闻中。 各种情况包括与其他汽车的碰撞、与骑自行车的人的碰撞以及其他严重事故。

该公司通常试图保持这种安静。 这位 AI 开发人员私下与该公司的一些工程师交谈,并了解到 AI 道德准则充其量只是口头上的。 有关我对企业逃避道德 AI 等问题的报道,请参阅 这里的链接.

这个 AI 开发者要做什么?

他们觉得有必要做点什么。

让我们做一些分叉工作,并考虑该 AI 开发人员可能采用的两条路径。

一种方法是,人工智能开发人员通过媒体试图揭露汽车制造商似乎对人工智能道德准则缺乏适当关注。 也许这位关心人工智能的专家会选择写博客或创建视频博客来突出这些问题。 另一种可能性是他们让 AI 团队的现有成员成为举报人,这是我在 这里的链接.

这绝对是这位 AI 开发人员认为的局外人方法。

另一种途径是人工智能开发人员相信他们的直觉,他们可能能够在公司内部完成更多工作。 人工智能开发人员的技能在涉及自动驾驶汽车的人工智能方面得到了很好的调整,他们可以轻松地申请公司发布的人工智能工程师职位空缺。 AI 开发人员决定这样做。 此外,推动力完全集中在让汽车制造商更加重视道德人工智能。 这项工作本身对这位 AI 开发人员来说并不重要,只是他们现在可以从内部进行有说服力的工作。

可能是 AI 开发人员得到了这份工作,但随后发现存在巨大的内部阻力,而道德 AI 的奋斗目标毫无意义。 该人离开公司并决定瞄准另一家可能更愿意掌握人工智能开发人员目标的汽车制造商。 再一次,他们这样做是为了明确地考虑到人工智能伦理,而不是人工智能工作的主要内容。

结论

将这些与 AI 相关的努力称为一种腌制形式的想法必然会导致一些人因过度使用已经建立的术语或词汇而感到胃痛。 盐渍在与劳工和商业有关的工会活动中几乎根深蒂固。 试图用这些其他类型的看似相似的活动来超载这个词,尽管它们的性质与工会化完全无关,这可能会产生误导和混淆。

假设我们想出一个不同的措辞。

胡椒粉?

好吧,这似乎并没有引起与加盐完全相同的情绪。 尝试将其规定并包含在我们的日常语言词典中将是一场艰苦的战斗。

无论我们想出什么,无论命名或标语似乎合适,我们都知道一件事。 试图让公司接受人工智能伦理仍然是一场艰苦的战斗。 我们需要尝试。 必须以正确的方式进行尝试。

似乎无论你落在栅栏的哪一边,我们都需要用适当的盐粒来接受这个警告。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/