这就是为什么企业与 AI 道德委员会之间的爱恨交织关系

企业是否应该建立 AI 道德咨询委员会?

您可能会惊讶地发现,这不是一个简单的“是或否”答案。

在深入探讨建立 AI 道德顾问委员会的利弊背后的复杂性之前,让我们确保我们都在同一页面上了解 AI 道德顾问委员会的组成以及它为何上升到头条新闻级别突出。

众所周知,人工智能 (AI) 和人工智能在商业活动中的实际应用已经成为现代公司的必备品。 否则,您将很难争辩。 在某种程度上,人工智能的注入使产品和服务变得更好,而且有时还降低了与提供所述产品和服务相关的成本。 一个漂亮的效率和效率提升列表可能归因于人工智能的明智和适当的应用。 简而言之,通过结合人工智能来增加或增强你所做的事情可能是一个非常有利可图的提议。

还有我们要说的 大飞溅 将人工智能添加到您的企业活动中。

企业对他们对人工智能的使用感到自豪和自豪。 如果 AI 恰好也能改进你的产品,那就太好了。 与此同时,使用人工智能的说法足够引人注目,你几乎可以做你以前做过的事情,但通过将人工智能作为商业战略的一部分折腾来获得更多的钱或眼球。上门货物。

最后一点,有时会在人工智能是否真的被使用上捏造一点,这让我们进入了人工智能伦理的舞台。 企业对人工智能提出了各种各样的彻头彻尾的虚假声明。 更糟糕的是,也许,包括使用人工智能,结果证明是所谓的 坏的人工智能.

例如,您无疑已经阅读了许多使用机器学习 (ML) 或深度学习 (DL) 的 AI 系统实例,这些实例具有根深蒂固的种族偏见、性别偏见和其他不当的不当歧视做法。 对于我对这些与不利 AI 相关的问题以及对 AI Ethics 和 Ethical AI 的强烈呼声的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

因此,我们在企业看似非常乐观的人工智能使用中隐藏了这些不利的驱动因素:

  • 在实际上没有人工智能或微不足道的人工智能注入时使用人工智能的空洞声称
  • 故意误导的关于人工智能使用的虚假声明
  • 无意中包含人工智能,结果会导致不恰当的偏见和歧视
  • 有目的地塑造人工智能来传播不良偏见和卑鄙的歧视行为
  • 其他名称

这些轻率或可耻的做法是如何在公司中出现的?

一个值得注意的难题是缺乏人工智能道德意识。

高层管理人员可能不知道设计遵循一组道德 AI 规则的 AI 的概念。 这样一家公司的人工智能开发人员可能对此有所了解,尽管他们可能只熟悉人工智能伦理理论,不知道如何弥合日常人工智能开发工作中的差距。 还有一种情况是,AI 开发人员希望接受 AI 伦理,但当经理和高管认为这会减慢他们的 AI 项目并增加设计 AI 的成本时,他们会遭到强烈反对。

许多高管没有意识到,在 AI 发布后,缺乏对 AI 道德的遵守很可能最终会让他们和公司陷入困境,这充满了棘手和丑陋的问题。 一家公司可能会在其中陷入糟糕的人工智能,然后可悲地破坏该公司长期以来建立的声誉(名誉风险)。 客户可能会选择不再使用公司的产品和服务(客户流失风险)。 竞争对手可能会利用这种失败(竞争风险)。 并且有很多律师准备帮助那些违法的人,旨在对那些允许腐烂的人工智能进入他们公司产品的公司提起巨额诉讼(法律风险)。

简而言之,与坐在不应该设计或发布的不良 AI 恶臭相关的下游成本相比,适当使用 AI 道德的 ROI(投资回报)​​几乎可以肯定更有利。

事实证明,并不是每个人都得到了那个备忘录,可以这么说。

人工智能伦理只是逐渐获得牵引力。

一些人认为,不可避免地需要法律的长臂来进一步激发采用道德人工智能方法。

除了普遍采用人工智能伦理准则外,还有一个相应的问题,即我们是否应该有明确的法律来管理人工智能的各种发展和使用。 新的法律确实在国际、联邦、州和地方层面广泛流传,这些法律涉及人工智能的设计范围和性质。 起草和颁布此类法律的努力是有节制的。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。 例如,请参阅我的报道 这里的链接这里的链接.

让我们确保我们都在同一页面上了解人工智能伦理的基础知识。

在我的专栏报道中,我之前讨论过对人工智能伦理原则的各种集体分析,例如在 这里的链接,它提供了一个有用的关于 AI 系统的道德 AI 标准或特征的关键列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。

在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

可以通过建立 AI 道德咨询委员会来部分尝试引入并保持对 AI 道德规范使用的持续关注。

接下来,我们将解开 AI Ethics 顾问委员会方面的内容。

人工智能伦理委员会以及如何正确行事

公司可能处于人工智能采用的不同阶段,同样也处于拥抱人工智能伦理的不同阶段。

设想一家公司想要开始接受 AI 道德,但不知道如何去做。 另一种情况可能是一家已经涉足人工智能伦理的公司,但似乎不确定需要做些什么来促进这项工作。 第三种情况可能是一家一直在积极设计和使用人工智能并在内部为体现人工智能伦理做了很多工作的公司,尽管他们意识到他们有可能因为内部集体思维而错过其他见解。

对于任何这些情况,设立一个 AI 道德咨询委员会可能是谨慎的。

这个概念相当简单(好吧,澄清一下,整体概念是众所周知的冰山一角,魔鬼肯定在细节中,正如我们将暂时介绍的那样)。

人工智能道德顾问委员会通常主要由外部顾问组成,他们被要求在公司的特别顾问委员会或委员会中任职。 董事会中可能还包括一些内部参与者,但通常的想法是从公司外部获得顾问,这可以为公司正在做的事情带来半独立的视角。

我说半独立,因为毫无疑问,人工智能伦理咨询委员会的选定成员可能会出现一些潜在的独立冲突。 如果公司向顾问付钱,就会引发一个明显的问题,即受薪成员是否对公司的薪水感到依赖,或者他们可能会因为批评他们手头的礼物而感到不安。 另一方面,企业习惯于利用外部付费顾问来发表各种经过深思熟虑的独立意见,因此这在某种程度上是惯例和预期的。

AI 道德咨询委员会通常被要求定期开会,无论是面对面还是虚拟远程。 它们被公司用作共鸣板。 也有可能向成员提供各种内部文件、报告和备忘录,说明公司正在进行的与人工智能相关的工作。 AI 道德顾问委员会的特定成员可能会被要求参加符合其特定专业知识的内部会议。 等等。

除了能够看到公司内部的人工智能正在发生什么并提供新的视角之外,人工智能道德咨询委员会通常还具有双重角色,即从外到内提供最新的人工智能和道德人工智能。 内部资源可能没有时间深入研究公司外部正在发生的事情,而 ergo 可以从 AI 道德咨询委员会成员那里获得高度关注和量身定制的最新观点。

人工智能伦理咨询委员会也有内部到外部的用途。

这可能很棘手。

这个概念是利用人工智能伦理顾问委员会让外界知道公司在人工智能和人工智能伦理方面正在做什么。 作为提高公司声誉的一种手段,这可以很方便。 由于 AI 道德咨询委员会的金印批准,注入 AI 的产品和服务可能被认为更值得信赖。 此外,通过指出该公司已经在使用 AI Ethics 顾问委员会,呼吁该公司在 Ethical AI 方面做更多的事情可能会有些迟钝。

利用这种机制的公司通常向 AI 道德咨询委员会提出的问题通常包括:

  • 公司是否应该将人工智能用于特定产品或服务,或者这似乎过于麻烦?
  • 公司是否在其 AI 工作中考虑了全方位的 AI 道德因素?
  • 公司是否陷入集体思维,不愿意或无法看到等待这些努力的潜在令人不安的 AI 道德垮台?
  • 公司应该寻求采用哪些最新的人工智能伦理方法?
  • 为我们的 AI 道德努力及其承诺提供外部赞誉是否可行?
  • 其他名称

加入人工智能伦理咨询委员会无疑是有道理的,而且公司越来越多地沿着这条道路前进。

请注意,这枚硬币还有另一面。

一方面,AI Ethics 咨询委员会可能是自切片面包以来的下一个最佳选择。 不要忽视硬币的另一面,即它们也可能是一个巨大的头痛,你可能会后悔你转向这个冒险的领域(正如你将在本次讨论中看到的那样,如果你知道你的缺点是可以控制的是做)。

Companies are beginning to realize that they can find themselves in a bit of a pickle when opting to go the AI Ethics advisory board route. 你可以断言,这种阴谋有点类似于玩火。 你看,火是一种非常强大的元素,你可以用来做饭,在荒野中保护你免受掠食者的伤害,让你保持温暖,带来光明,并提供一系列方便和重要的好处。

如果你不能很好地处理它,火也会让你被烧伤。

最近有各种新闻头条生动地展示了拥有 AI 道德咨询委员会的潜在危险。 如果成员草率地决定他们不再相信公司正在开展正确的道德 AI 活动,那么心怀不满的成员可能会一怒之下退出。 假设此人可能在人工智能领域或整个行业中享有盛誉,他们的跳槽势必会引起媒体的广泛关注。

然后,公司必须进行辩护。

成员为什么离开?

公司到底在搞什么鬼?

一些公司要求 AI 道德咨询委员会的成员签署 NDA(保密协议),如果成员决定“流氓”并破坏公司,这似乎可以保护公司。 但问题是,即使该人保持相对沉默,但仍有可能承认他们不再担任 AI 道德咨询委员会的成员。 这本身就会引发各种令人瞠目结舌的问题。

此外,即使存在 NDA,有时成员也会试图绕过这些规定。 这可能包括引用未命名的眨眼通用“案例研究”,以突出他们认为该公司阴险地执行的 AI 道德异常。

倒下的成员可能会完全厚颜无耻,直接说出他们对公司的担忧。 这是否是对 NDA 的明确违反,可能不如这个词正在传播道德 AI 疑虑这一事实那么重要。 一家试图以违反 NDA 为由起诉该成员的公司可能会残酷地给自己带来热水,从而引发对争议的更多关注,并且似乎是经典的大卫与歌利亚的决斗(该公司是大型“怪物”)。

一些高管认为,他们可以简单地与 AI 道德咨询委员会的任何成员达成财务和解,只要他们认为公司做错了事情,包括忽视或淡化表达的担忧。

这可能不像人们想象的那么容易。

通常,成员们具有虔诚的道德意识,不会轻易放弃他们认为是道德对错的斗争。 他们也可能在其他方面财务稳定,不愿意改变他们的道德准则,或者他们可能有其他工作,因为他们离开了 AI 道德咨询委员会而没有受到影响。

可能很明显,一些人后来意识到人工智能伦理顾问委员会是一把双刃剑。 这样的团队可以传达出巨大的价值和重要的洞察力。 同时,你也在玩火。 可能是一个或多个成员决定他们不再相信该公司正在做可信的道德人工智能工作。 新闻中有迹象表明,整个 AI 道德咨询委员会有时会一起退出,或者同时退出,或者有一些成员宣布他们将离开。

为 AI 道德咨询委员会可能出现的好处和问题做好准备。

当然,有时公司在人工智能伦理方面实际上并没有做正确的事情。

因此,我们希望并期望该公司的 AI 道德顾问委员会能够加强这一点,可能首先是在公司内部。 如果公司继续走上人们认为不好的道路,成员肯定会在道德上受到约束(也可能在法律上)采取他们认为合适的其他行动(成员应咨询他们的私人律师以获取任何此类法律建议)。 这可能是让公司改变其方式的唯一途径。 一个成员或一组成员的激烈行动似乎是成员希望扭转局势的最后手段。 此外,这些成员可能不希望成为他们热切认为已经偏离 AI 伦理的事物的一部分。

考虑这些可能性的一个有用方法是:

  • 该公司正在迷路,由于认为公司缺乏合规性,成员选择退出
  • 公司没有偏离,但成员认为公司偏离了方向,因此由于认为缺乏合规而退出

外部世界不一定知道退出的成员是否有真正的理由担心公司,或者它是否可能是该成员的一些特殊或错误印象。 由于其他承诺或与公司所做的事情无关的个人原因,成员也有相当直接的可能性离开团队。

要点是,对于任何采用 AI 道德咨询委员会的公司来说,认真思考与团队相关的整个生命周期阶段是很重要的。

谈了这么多有问题的方面,我不想传达对设立 AI 道德咨询委员会保持清醒的印象。 那不是信息。 真正的要点是建立一个 AI 道德咨询委员会,并确保你以正确的方式这样做。 把它变成你珍爱的口头禅。

以下是人工智能道德咨询委员会经常提到的一些好处:

  • 手头有办法从半独立的私人团体中反弹人工智能项目和想法
  • 利用公司外部的 AI 道德专业知识
  • 旨在避免公司的 AI 道德狂笑和彻底的灾难
  • 成为公司及其人工智能系统的公关助推器
  • 内部群体思维在人工智能和人工智能伦理方面的突破
  • 重新审视人工智能创新及其实用性
  • 提高公司的地位和地位
  • 当坚定的 AI 努力陷入困境时,充当肆无忌惮的声音
  • 其他名称

以下是公司搞砸并削弱其 AI 道德顾问委员会的常见方式(不要这样做!):

  • 提供关于使命和目的的模糊和混乱的方向
  • 在马已经离开谷仓后,很少咨询并且经常不合时宜
  • 一直在黑暗中
  • 美联储严格过滤的信息提供了对事物的误导性描述
  • 仅用作展示,不用于其他创造价值的目的
  • 不允许对内部事务进行任何表面上的探索
  • 缺乏足够的资源来充分开展工作
  • 团队内部缺乏明确的领导
  • 公司领导层对集团缺乏关注
  • 期望对所呈现的任何内容给予盲目的认可
  • 随意选择的成员
  • 很少受到尊重,似乎只是一个复选标记
  • 其他名称

另一个经常令人困惑的问题涉及在 AI 道德咨询委员会任职的各种成员的性质和行为举止,这有时会在以下方面产生问题:

  • 一些成员可能只是 AI Ethics 的概念化者,而不是精通 AI Ethics 作为一种实践,因此提供了精通业务的简约见解
  • 有些人在谈到人工智能伦理时可能会夸大其词,并且在他们参与的过程中非常难以处理
  • 内讧会成为一个重要的干扰因素,通常是大自尊的冲突,并使团队变得功能失调
  • 有些人可能过于忙碌和过度投入,以至于他们远离 AI 道德咨询工作
  • 一些人对 AI 伦理有着根深蒂固的坚定看法,这种看法是不灵活和不切实际的
  • 有些人倾向于情绪化而非分析性和系统性的考虑,这些是人工智能伦理的基础
  • 可以类似于著名的格言:像一群不会集中注意力和漫无目的地游荡的猫
  • 其他名称

一些公司似乎只是在不知不觉的基础上组建了一个人工智能伦理顾问委员会。 没有考虑要选择的成员。 没有想到他们每个人带来的东西。 没有考虑会议的频率和会议的召开方式。 总而言之,没有想过要运行 AI Ethics 顾问委员会。 等等。

从某种意义上说,由于您自己缺乏足智多谋,您很可能正在发动火车残骸。

不要那样做

或许这份名单 正确的事情 根据目前的讨论,现在对你来说表面上是显而易见的,但你可能会惊讶地发现很少有公司似乎做到了这一点:

  • 明确确定 AI 道德咨询委员会的使命和目的
  • 确保该组将得到适当的最高执行级别的关注
  • 确定最适合该组的成员类型
  • 接近所需的成员并确定适合该组
  • 与选定的成员做出适当的安排
  • 建立会议后勤、频率等。
  • 确定成员的职责、范围和深度
  • 预测帮助团队所需的内部资源
  • 为组本身分配足够的资源
  • 保持 AI 道德咨询委员会的活跃和循环
  • 为出现问题时预先计划升级
  • 说明如何处理紧急或危机导向的事件
  • 根据需要将成员向外或向内旋转,以保持混合合适
  • 事先已经为成员制定了预期的退出路径
  • 其他名称

结论

几年前,许多正在着手设计基于人工智能的自动驾驶汽车的汽车制造商和自动驾驶技术公司突然采取行动,采用人工智能伦理咨询委员会。 在那之前,似乎很少有人意识到有这样一个群体。 假设对道德人工智能的内部关注就足够了。

我在专栏中详细讨论了各种不幸的 AI 道德失误或疏忽,这些失误或疏忽有时会导致自动驾驶汽车问题,例如轻微的车辆事故、明显的汽车碰撞和其他灾难,请参阅我的报道 这里的链接. 人工智能安全和类似保护的重要性必须是制造自动驾驶汽车的首要考虑因素。 这个利基市场的 AI 道德咨询委员会正在帮助将 AI 安全作为重要的首要任务。

我最喜欢表达这种关于人工智能伦理的启示的方式是将此事比作地震。

加利福尼亚人不时遭受地震,有时甚至是相当大的地震。 您可能认为为地震做好准备将是一个永远存在的考虑。 不是这样。 循环以这种方式工作。 发生了一场实质性地震,人们被提醒做好地震准备。 一时间,有人急于进行这样的准备工作。 一段时间后,对这件事的关注减弱了。 准备工作被搁置或被忽视。 轰隆隆,又一场地震来袭,所有应该做好准备的人都“措手不及”,好像他们没有意识到有一天会发生地震。

公司通常对 AI 道德咨询委员会采取同样的做法。

他们没有开始一个,然后突然,在他们的人工智能发生一些灾难时,他们被动地被激励采取行动。 他们勉强成立了一个人工智能伦理顾问委员会。 它有很多我之前提到的问题。 人工智能伦理顾问委员会分崩离析。 糟糕,公司内部发生的新 AI 灾难重新唤醒了对 AI 道德咨询委员会的需求。

清洗、冲洗并重复。

企业肯定会发现,他们有时与他们的 AI 道德咨询委员会的工作有着又爱又恨的关系。 当谈到以正确的方式做事时,爱就在空气中。 当涉及以错误的方式做事时,仇恨会猛烈地涌现。 在建立和维护 AI 道德咨询委员会时,请确保您采取必要措施保持爱并避免仇恨。

让我们把它变成一种爱与爱的关系。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/