联邦贸易委员会旨在打击那些关于生成 AI ChatGPT 和其他 AI 的过分毫无根据的主张,警告 AI 伦理和 AI 法

放下锤子。

这就是美国联邦贸易委员会 (FTC) 所说的针对人工智能 (AI) 的大量毫无根据的声明的持续和恶化的情况。

在 27 年 2023 月 XNUMX 日的官方博客中,美国联邦贸易委员会广告实践部的律师迈克尔·阿特尔森 (Michael Atleson) 发表了一篇题为“检查你的 AI 声明”的文章,其中一些严厉的措辞指出,AI 不仅是一种计算高科技,而且它已经成为一种营销大奖,有时超出了合理的范围:

  • “到底什么是‘人工智能’? 这是一个含糊不清的术语,有许多可能的定义。 它通常指的是使用计算来执行预测、决策或建议等任务的各种技术工具和技术。 但有一件事是肯定的:这是一个营销术语。 现在,这是一个热门话题。 在 FTC,我们对热门营销术语了解的一件事是,一些广告商无法阻止自己过度使用和滥用这些术语”(FTC 网站发布)。

AI 为营销人员提供了巨大的机会,他们想要真正发疯并大肆宣传任何潜在的 AI 增强或 AI 驱动的产品或服务,这些产品或服务正在出售给消费者。

你看,突破夸张极限的诱惑一定是巨大的,尤其是当营销人员看到其他公司也在做同样的事情时。 当你的竞争对手叫嚣他们的 AI 在水上行走时,有竞争力的果汁要求你做一个经典的夸张。 也许你的人工智能表面上更好,因为它在空中飞行,摆脱了重力的束缚,同时还能嚼口香糖。

法律的长臂,即 FTC 和其他联邦、州和地方机构(见我对此类努力的持续报道,包括国际监管方面的努力也在 这里的链接).

您可能知道,作为一个联邦机构,FTC 包括消费者保护局,其职责是保护消费者免受商业环境中被认为具有欺骗性的行为或做法。 当公司在产品或服务方面撒谎或误导消费者时,通常会出现这种情况。 FTC 可以利用其强大的政府权力来打击此类违规公司。

我引用的 FTC 博客文章也发表了这个有点刺激的声明:

  • “营销人员应该知道——出于 FTC 执法目的——关于产品功效的虚假或未经证实的声明是我们的生计。”

从某种意义上说,那些坚持过分夸大他们关于人工智能的说法的人的目的是 祝酒. FTC 可以寻求让 AI 索赔人停止并可能因所进行的违法行为而面临严厉的处罚。

以下是 FTC 可以采取的一些潜在行动:

  • “当联邦贸易委员会发现针对消费者的欺诈案件时,该机构会向联邦地方法院提起诉讼,要求立即和永久下令停止欺诈; 防止欺诈者在未来实施诈骗; 冻结他们的资产; 并为受害者争取赔偿。 当消费者看到或听到广告时,无论是在互联网、广播或电视上,还是在其他任何地方,联邦法律规定广告必须是真实的,没有误导性,并且在适当的时候有科学证据支持。 FTC 执行这些关于广告真实性的法律,并且无论广告出现在何处——报纸和杂志、在线、邮件、广告牌或公共汽车上,它都适用相同的标准”(FTC 网站上的部分 广告中的真相)

联邦贸易委员会 (FTC) 追查虚假广告事件后,最近出现了一些备受瞩目的例子。

例如,欧莱雅因宣传其巴黎青年代码护肤品“经临床证明”可使人看起来“明显年轻”和“增强基因”而陷入困境,但事实证明这种说法的要点并没有实质性的支持科学证据和联邦贸易委员会采取了相应的行动。 另一个突出的例子包括大众汽车的广告,称他们的柴油车使用“清洁柴油”,因此据说排放的污染量非常低。 在这种情况下,大众汽车进行的排放测试以欺诈方式进行,以掩盖其真实排放。 FTC 的执法行动促成了对受影响消费者的赔偿安排。

人工智能也应该根据未经证实或可能完全欺诈的说法进行类似的审查,这一想法无疑是一个及时而有价值的事业。

由于人工智能的出现,现在对人工智能有着明显的狂热。 生成式人工智能. 这种特殊类型的人工智能被认为 生成的 因为它能够生成几乎似乎是由人手设计的输出,尽管 AI 在计算上正在这样做。 OpenAI 公司开发的一款名为 ChatGPT 的 AI 应用程序获得了极大的关注,并将 AI 狂热推向了高潮。 稍后我将解释什么是生成式 AI,并描述 AI 应用程序 ChatGPT 的性质。

当然,人工智能总体上已经存在了一段时间。 与人工智能可以实现的承诺相关的一系列过山车起伏。 你可能会说我们正处于一个新的高点。 一些人认为这只是起点,我们会更进一步。 其他人则强烈反对并断言生成人工智能的策略会碰壁,也就是说,它很快就会走到死胡同,过山车将会下降。

时间会告诉我们。

FTC 此前曾敦促有关 AI 的声明需要适当平衡和合理。 在 19 年 2021 月 XNUMX 日的官方 FTC 博客文章中,Elisa Jillson 指出了执法行动合法产生的几种方式,并特别强调了对人工智能灌输不当偏见的担忧:

  • “联邦贸易委员会在执行对人工智能开发者和用户很重要的三项法律方面拥有数十年的经验。”
  • FTC 法案第 5 节. FTC 法案禁止不公平或欺诈行为。 这将包括销售或使用——例如——带有种族偏见的算法。”
  • 公平信用报告法. FCRA 在某些情况下发挥作用,在这种情况下,算法被用来拒绝人们的就业、住房、信贷、保险或其他福利。”
  • 平等信用机会法案. ECOA 规定,公司使用有偏见的算法会导致基于种族、肤色、宗教、国籍、性别、婚姻状况、年龄或因为某人接受公共援助而产生信用歧视,这是非法的。”

上述博客文章中的一个突出评论提到了这个直言不讳的断言:

  • “根据 FTC 法案,您对商业客户和消费者的陈述必须是真实的、非欺骗性的,并有证据支持”(同上).

FTC 法案第 5 条的法律语言呼应了这种观点:

  • “商业中或影响商业的不公平竞争方法,以及商业中或影响商业的不公平或欺骗性行为或做法,特此宣布为非法”(来源:联邦贸易委员会法案第 5 节)。

得知 FTC 和其他政府机构正在睁大眼睛,并准备将锤子悬在任何可能敢于发布有关 AI 的不公平或欺骗性信息的组织的头上,这似乎是一种解脱。

所有这一切是否意味着你可以高枕无忧,并假设那些人工智能制造商和人工智能推广者会在他们关于人工智能的营销声明中保持谨慎,他们会注意不要做出过分或离谱的劝告?

哎呀没有。

您可以期望营销人员将成为营销人员。 他们的目标是对 AI 做出夸大和毫无根据的声明,直到时间结束。 有些人会这样做,并且盲目地没有意识到做出这样的声明会给他们和他们的公司带来麻烦。 其他人知道这些说法可能会引起麻烦,但他们认为被抓到的可能性很小。 也有一些人打赌他们可以绕过事情的边缘,并在法律上争辩说他们没有滑入不诚实或欺骗的浑水。

一些 AI 营销人员说,让律师来解决这个问题。 与此同时,全速前进。 如果有一天联邦贸易委员会或其他政府机构敲门,那就去吧。 要赚钱的钱是现在。 或许可以将一小块以前的钱投入一种信托基金中,以处理下游的法律问题。 现在,赚钱的火车正在进行中,如果你错过了容易获得的肉汁,那将是令人难以置信的愚蠢。

有很多关于广告人工智能的合理化最终结果:

  • 每个人都提出古怪的 AI 主张,所以我们不妨也这样做
  • 没有人能确定关于 AI 真相的分界线在哪里
  • 我们可以用文字表达我们关于我们的人工智能在安全区内保持一两英寸的声明
  • 政府不会知道我们在做什么,我们是大海中的一条小鱼
  • 正义之轮太慢了,跟不上人工智能进步的速度
  • 如果消费者相信我们的 AI 声明,那是他们的责任,而不是我们的责任
  • 我们公司的 AI 开发人员说我们可以说出我在营销声明中所说的话
  • 不要让法务团队对我们大肆宣传的 AI 内容嗤之以鼻,他们只会对我们庞大的 AI 营销活动嗤之以鼻,成为众所周知的泥潭中的一根棍子
  • 其他名称

这些合理化是成功的秘诀还是灾难的秘诀?

对于不注意这些严重而发人深省的法律疑虑的人工智能制造商,我建议他们正在走向一场灾难。

在每天和每周咨询许多人工智能公司时,我提醒他们,他们应该寻求有说服力的法律建议,因为他们今天赚​​的钱可能会被返还,一旦他们发现自己面临消费者的民事诉讼,情况会更糟再加上政府的执法行动。 根据事情的发展程度,刑事后果也可能会受到影响。

在今天的专栏中,我将解决人们日益关注的问题,即基于 AI 的营销炒作越来越多地越过界限,变成越来越糟糕的欺骗性做法。 我将研究这些疑虑的基础。 此外,这偶尔会包括那些正在使用和利用 AI 应用程序 ChatGPT 的人,因为它是生成 AI 的 600 磅重的大猩猩,但请记住还有很多其他生成 AI 应用程序,它们通常基于相同的总体原则。

同时,您可能想知道生成式人工智能究竟是什么。

让我们首先介绍生成式 AI 的基础知识,然后我们可以仔细研究手头的紧迫问题。

所有这一切都涉及大量人工智能伦理和人工智能法律方面的考虑。

请注意,目前正在努力将道德 AI 原则融入 AI 应用程序的开发和部署中。 越来越多的关注和以前的人工智能伦理学家正在努力确保设计和采用人工智能的努力考虑到做事的观点 永远的人工智能 并避免 坏的人工智能. 同样,有人提出了新的 AI 法律,作为防止 AI 努力在人权等问题上失控的潜在解决方案。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

正在制定和颁布人工智能道德准则,以期防止社会陷入无数人工智能诱导陷阱。 关于我对近 200 个国家通过教科文组织的努力制定和支持的联合国人工智能伦理原则的报道,请参阅 这里的链接. 同样,正在探索新的 AI 法律,以试图让 AI 保持平稳。 最近的一次拍摄包括一组建议的 人工智能权利法案 美国白宫最近发布的关于人工智能时代人权的报告,见 这里的链接. 让人工智能和人工智能开发人员走上正确的道路,并阻止可能削弱社会的有目的或无意的不正当行为,需要举全村之力。

我将把 AI 伦理和 AI 法律相关的考虑因素交织到这个讨论中。

生成式人工智能基础

最广为人知的生成式 AI 实例由名为 ChatGPT 的 AI 应用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 发布时迅速进入公众意识。 自从 ChatGPT 获得了巨大的头条新闻以来,令人惊讶地超过了其规定的 XNUMX 分钟的成名时间。

我猜您可能听说过 ChatGPT,或者甚至认识使用过它的人。

ChatGPT 被认为是一种生成式 AI 应用程序,因为它将用户的一些文本作为输入,然后 产生 或产生由一篇文章组成的输出。 AI 是文本到文本生成器,尽管我将 AI 描述为文本到文章生成器,因为这更容易阐明它的常用用途。 您可以使用生成式 AI 来撰写冗长的作品,也可以让它提供相当简短的精辟评论。 一切听从您的吩咐。

您需要做的就是输入一个提示,AI 应用程序会为您生成一篇尝试回应您的提示的文章。 撰写的文本看起来就像这篇文章是由人的手和思想写成的。 如果你输入“告诉我关于亚伯拉罕·林肯”的提示,生成式人工智能将为你提供一篇关于林肯的文章。 还有其他生成 AI 模式,例如文本到艺术和文本到视频。 我将在这里重点关注文本到文本的变化。

您的第一个想法可能是,就撰写论文而言,这种生成能力似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。 生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能可以吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

人们对生成式 AI 有很多担忧。

一个关键的缺点是,由基于生成的人工智能应用程序生成的文章可能会嵌入各种虚假信息,包括明显不真实的事实、被误导性描述的事实以及完全捏造的明显事实。 这些虚构的方面通常被称为 人工智能幻觉,一个我不喜欢但遗憾的是似乎越来越流行的标语(关于为什么这是糟糕和不合适的术语的详细解释,请参阅我的报道 这里的链接).

另一个问题是,尽管不是自己撰写论文,但人类很容易将 AI 生成的论文归功于他人。 您可能听说过教师和学校非常关注生成式 AI 应用程序的出现。 学生可以使用生成式 AI 来撰写他们分配的论文。 如果一个学生声称一篇文章是他们自己亲手写的,那么老师几乎不可能辨别它是否是由生成人工智能伪造的。 有关我对这个学生和老师混淆​​方面的分析,请参阅我的报道 这里的链接这里的链接.

社交媒体上出现了一些关于 生成式人工智能 断言这个最新版本的人工智能实际上是 有感知的人工智能 (不,他们错了!)。 AI 伦理和 AI 法律领域的人士尤其担心这种不断扩大的索赔趋势。 你可能会礼貌地说,有些人夸大了当今人工智能的能力。 他们假设人工智能具有我们尚未能够实现的能力。 那真不幸。 更糟糕的是,他们可能会允许自己和他人陷入可怕的境地,因为他们假设人工智能在采取行动方面具有感知能力或类似人类。

不要将人工智能拟人化。

这样做会让你陷入一个棘手而沉闷的依赖陷阱,即期望 AI 做它无法执行的事情。 话虽如此,最新的生成式 AI 的功能相对令人印象深刻。 请注意,在使用任何生成式 AI 应用程序时,您应该始终牢记一些重大限制。

现在最后一个预警。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果一个生成式 AI 应用程序告诉你亚伯拉罕林肯乘坐他的私人飞机在全国各地飞行,你无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到喷气式飞机在他那个时代并不存在,或者他们可能知道但没有注意到这篇文章提出了这种厚颜无耻的错误主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。 另外,要警惕潜在的隐私入侵和数据机密性的丧失,请参阅我在 这里的链接.

我们已准备好进入这一阐明的下一阶段。

人工智能是有史以来最伟大的故事

现在让我们深入探讨关于 AI 的曲解。

我将专注于生成人工智能。 话虽这么说,几乎任何类型的人工智能都会受到关于不公平或欺骗性广告的同样担忧。 记住这个更广泛的观点。 我对任何类型的 AI 制造商都这么说,确保他们都了解这些事情,而不仅仅是那些制作生成式 AI 应用程序的人。

这同样适用于所有消费者。 无论您考虑购买或使用哪种类型的人工智能,都要警惕有关人工智能的虚假或误导性声明。

以下是我今天想与您讨论的主要主题:

  • 1) 谁是潜在的 AI 谎言
  • 2) 试图使用逃避条款来避免 AI 责任
  • 3) FTC 对 AI 广告提供了方便的警告语
  • 4)联邦贸易委员会还提供关于人工智能偏见的警告词
  • 5) 你需要对你的人工智能广告策略采取的行动

我将涵盖这些重要主题中的每一个,并提供我们都应该认真考虑的有见地的考虑。 这些主题中的每一个都是更大难题的组成部分。 你不能只看一件。 你也不能孤立地看待任何一件作品。

这是一个错综复杂的马赛克,必须对整个拼图给予适当的和谐考虑。

谁是潜在的 AI 谎言

需要对涉及这些事项的各种参与者或利益相关者进行澄清。

有些 AI 制造商设计了生成式 AI 应用程序的核心,然后还有其他人在生成式 AI 之上构建,以制作依赖于底层生成式 AI 的应用程序。 我已经讨论了 API(应用程序编程接口)的使用如何允许您编写一个利用生成 AI 的应用程序,请参阅我的报道 这里的链接. 一个典型的例子包括微软已经将 OpenAI 的生成人工智能功能添加到他们的 Bing 搜索引擎中,正如我在 这里的链接.

对 AI 做出误导性或虚假声明的潜在罪魁祸首包括:

  • 人工智能研究人员
  • 人工智能开发商
  • 人工智能营销人员
  • 开发核心人工智能(如生成人工智能)的人工智能制造商
  • 在其软件产品中使用生成式人工智能的公司
  • 依赖于在其产品和服务中使用生成人工智能的公司
  • 依赖于在其产品或服务中使用生成人工智能的公司的公司
  • 等等

您可以将其视为供应链。 任何参与人工智能的人,只要它沿着正在设计和部署的人工智能的道路或挑战前进,就可以很容易地提供关于人工智能的欺骗性或欺诈性声明。

那些制造生成式 AI 的人可能是直率的射手,而事实证明,那些将生成式 AI 包装到他们的产品或服务中的人是那些变得邪恶并提出毫无根据的主张的人。 这是一种可能。

另一种可能性是人工智能的制造者是那些做出虚假声明的人。 其他在他们的产品中包含生成人工智能的人可能会重复这些说法。 在某些时候,可能会出现法律泥潭。 一场法律纠纷可能首先针对重复索赔的公司,而这些公司又似乎将法律矛头指向引发索赔雪崩的 AI 制造商。 多米诺骨牌开始倒下。

关键是,那些认为他们可以依赖他人虚假声明的公司注定会猛然醒悟,因为他们不一定会因为这种依赖而逍遥法外。 毫无疑问,他们也将脚踏实地。

到了紧要关头,每个人都陷入了一场泥泞丑陋的法律斗争。

尝试使用逃避条款来避免 AI 责任

我之前提到过,FTC 法案第 5 节提供了有关非法广告行为的法律语言。 任何精明的律师都可能会利用各种法律漏洞为其客户谋取利益,如果客户实际上试图推翻或转移他们认为是虚假的指控,这大概是理所当然的。

以第 5 节条款为例:

  • “根据本节或本篇第 57a 节,委员会无权以行为或做法不公平为由宣布该行为或做法非法,除非该行为或做法对消费者造成或可能造成实质性伤害,而这种伤害是消费者自己无法合理避免,并且不会被消费者或竞争的反补贴利益所抵消。 在确定一项行为或做法是否不公平时,委员会可以将既定的公共政策视为与所有其他证据一起考虑的证据。 此类公共政策考虑可能不能作为此类确定的主要依据”(来源:《联邦贸易委员会法案》第 5 节)。

一些人对该条款的解释是,如果说一家公司正在为他们的 AI 做广告,并且以某种看似令人震惊的方式进行宣传,那么就会出现这样的问题,即广告是否能够逃脱炼狱,只要广告:(a) 失败造成“对消费者的实质性伤害”,(b) 并且“消费者自己可以避免”,并且 (c) “不会被消费者或竞争的反补贴利益所抵消”。

想象一下这个用例。 一家公司决定声称他们的生成人工智能可以帮助您的心理健康。 事实证明,该公司精心制作了一款应用程序,该应用程序结合了流行 AI 制造商的生成 AI。 由此产生的应用程序被吹捧为能够“通过与你互动并抚慰你痛苦的灵魂的人工智能帮助你获得内心的平静。”

作为旁注,我已经讨论了生成人工智能被用作心理健康顾问的危险,请参阅我的分析 这里的链接这里的链接.

回到故事。 假设消费者订阅了据称可以帮助他们心理健康的生成人工智能。 消费者表示,他们依赖于提供 AI 应用程序的公司的广告。 但在使用了 AI 之后,消费者认为他们的心理状况并没有比之前更好。 对他们来说,人工智能应用程序正在使用欺骗性和虚假广告。

我不会深入研究法律的复杂性,而只是将其用作方便的陪衬(请咨询您的律师以获得适当的法律建议)。 第一,消费者是否因使用AI应用而遭受“实质性伤害”? 一种说法是他们没有遭受“实质性”伤害,只是表面上没有得到他们认为会得到的东西(一种反驳认为这构成了一种“实质性伤害”等等)。 其次,如果确实发生了伤害,消费者是否可以合理地避免任何此类伤害? 假定的辩护在某种程度上是消费者不是以某种方式被迫使用人工智能应用程序,而是自愿选择这样做,加上他们可能不正确地使用人工智能应用程序,因此破坏了预期的好处,等等。第三,人工智能应用程序是否可能对消费者而言是否具有足够大的价值或利益,以至于该消费者提出的索赔在其中的全部价值或利益中胜过?

你可以预料到,许多 AI 制造商和那些用 AI 增强其产品和服务的人将断言,无论他们的 AI 或 AI 注入的产品做什么,他们通过整合 AI 为社会提供了平衡的净收益. 其逻辑是,如果产品或服务在其他方面对消费者有利,那么人工智能的加入会增强或加强这些好处。 因此,即使存在一些潜在的缺点,优点也会压倒缺点(假设缺点并非不合情理)。

我相信你能明白为什么那些制造或使用人工智能的人非常需要律师。

FTC 就 AI 广告提供方便的警告语

回到 FTC 于 27 年 2023 月 XNUMX 日发表的博文,其中提出了一些非常实用的建议来避免越界 AI 广告索赔难题。

以下是博文中提出的一些要点或问题:

  • “你是在夸大你的人工智能产品能做什么吗?”
  • “你是否承诺你的 AI 产品比非 AI 产品做得更好?”
  • “你知道风险吗?”
  • “产品真的使用人工智能吗?”

让我们简要地解开其中一些尖锐的问题。

考虑关于 AI 产品与被认为具有可比性的非 AI 产品的第二个要点。 宣传你的 AI 增强产品比现有的任何非 AI 同类产品好很多是非常诱人的。 你可以整天挥舞着各种各样的手,只要简单地赞美一下,既然你的产品中包含了 AI,它一定会更好。 也就是说,任何不使用 AI 的可比产品显然本质上都是低劣的。

这就引出了著名的传奇口号“Where's the beef?”

重点是,如果您没有任何有形和实质性的东西来支持您的主张,那么您就处于相当软弱和法律危险的境地。 你在流沙上。 如果被要求,您将需要展示某种形式的充分或充分的证据,证明添加 AI 的产品确实优于非 AI 产品,假设您提出这样的声明。 这个证明不应该是事后的乱七八糟的事情。 在提出这些广告声明之前,事先准备好这些信息会更明智、更安全。

从理论上讲,您应该能够提供一些合理的证据来支持这种说法。 例如,您可以进行一项调查或测试,将那些使用您的 AI 添加产品的人与那些使用非 AI 可比产品的人进行比较。 这是为应对未来迫在眉睫的处罚而付出的很小的代价。

另一个警告是不要做眨眼式的懦弱努力来尝试和支持你关于人工智能的广告声明。 很有可能,如果你提供一项你对人工智能用户和非人工智能用户所做的研究,它会被其他专家仔细检查。 例如,他们可能会注意到,您可能会根据您选择被调查或测试的对象的方式来衡量。 或者,也许你想付钱给使用 AI 的用户,让他们吹捧你的产品有多棒。 各种诡计都是可能的。 我怀疑你想进去 双重麻烦 当那些偷偷摸摸的发明被发现时。

转到其他要点之一,考虑第四个要点,它询问在特定情况下是否完全使用人工智能。

如今,快速而肮脏的方法包括机会主义者选择将任何类型的软件标记为包含 AI 或由 AI 组成。 有人说,不妨加入 AI 潮流。 他们在某种程度上能够逃脱这一点,因为 AI 的定义通常是模糊的并且范围很广,请参阅我在 彭博法 关于什么是 AI 的棘手法律问题 这里的链接.

对什么是人工智能的混淆可能会提供一些保护罩,但它并非坚不可摧。

以下是 FTC 博客提到的内容:

  • “在调查中,联邦贸易委员会的技术人员和其他人可以深入了解并分析其他材料,看看里面的内容是否与您的说法相符。”

从这个意义上说,无论您是否使用“AI”来严格遵守公认的 AI 定义选择,您仍然会被要求遵守关于该软件宣称能够执行的任何操作的声明。

我很欣赏 FTC 博客中在上述观点之后添加的评论:

  • “在将你的产品标记为 AI 驱动之前,还要注意,在开发过程中仅使用 AI 工具与其中包含 AI 的产品是不同的。”

这是一个微妙的点,许多人可能不会以其他方式考虑。 这是它的建议。 有时您可能会在开发应用程序时使用人工智能增强软件。 实际的目标应用程序将不包含 AI。 您只是在使用 AI 来帮助您制作 AI 应用程序。

例如,您可以使用 ChatGPT 为您生成编程代码。 生成的代码不一定包含任何 AI 组件。 你的应用程序本身没有资格声称它包含人工智能(当然,除非你选择在其中包含某种形式的人工智能技术或技术)。 您可能会说您使用 AI 来帮助编写程序。 即使这样说也需要慎重和谨慎。

FTC 还提供关于 AI 偏见的警告词

我在本文中提到的关于 AI 偏见主题的 FTC 博客提供了一些有用的警告,我认为这些警告非常值得牢记(我稍后会列出它们)。

谈到生成式人工智能,当今能力的缺陷主要有四个问题:

  • 故障
  • 虚假
  • 人工智能幻觉
  • 偏见

让我们简要了解一下 AI 偏见问题。

这是我对任何和所有生成 AI 实现都需要充分探索的偏置途径的广泛列表(在 这里的链接):

  • 用于生成人工智能数据训练的互联网来源数据中的偏差
  • 用于对源数据进行模式匹配的生成 AI 算法中的偏差
  • 生成人工智能及其基础设施的整体人工智能设计存在偏差
  • AI 开发人员在生成 AI 的塑造中隐含或明确的偏见
  • 人工智能测试人员在生成人工智能测试中隐含或明确的偏见
  • RLHF(通过人类反馈强化学习)的偏差,由指定的人类审阅者隐式或明确地向生成 AI 提供培训指导
  • AI 部署促进对生成 AI 的操作使用的偏见
  • 在日常使用中为生成 AI 建立的任何设置或默认指令中的偏差
  • 生成 AI 的用户输入的提示中有意或无意包含的偏见
  • 作为生成 AI 随机概率输出生成的一部分,系统条件与临时外观的偏差
  • 在生成 AI 处于活跃使用状态时发生的即时或实时调整或数据训练导致的偏差
  • 在 AI 维护或维护生成 AI 应用程序及其模式匹配编码期间引入或扩展的偏差
  • 其他名称

如您所见,不当偏见可以通过多种方式渗透到 AI 的开发和部署中。 这不是一劳永逸的问题。 我把这比作打地鼠的情况。 您需要始终勤奋地尝试发现并消除或减轻您的 AI 应用程序中的 AI 偏见。

考虑 19 年 2021 月 XNUMX 日 FTC 博客中提出的这些明智观点(这些观点仍然适用,无论它们是 年代久远 在 AI 进步时间尺度方面):

  • “从正确的基础开始”
  • “注意歧视性结果”
  • “拥抱透明度和独立性”
  • “不要夸大你的算法能做什么或者它是否能提供公平或公正的结果”
  • “说出你如何使用数据的真相”
  • “利大于弊”
  • “对自己负责——或者准备好让联邦贸易委员会为你做这件事”

上述几点中我最喜欢的一点是第四点,它指的是经常使用的声明或神话,即由于结合了 AI,给定的应用程序必须没有偏见。

这是怎么回事。

我们都知道人类是有偏见的。 我们不知何故陷入了机器和人工智能能够公正的心理陷阱。 因此,如果我们在寻求某种形式的服务时可以在使用人类还是人工智能之间做出选择,我们可能会倾向于使用人工智能。 希望人工智能不会有偏见。

如果 AI 的制造者或守场员宣称他们的 AI 毫无疑问且无可争辩地没有偏见,那么这种希望或假设就会得到加强。 这是令人欣慰的锦上添花。 我们已经准备好被引导走那条报春花之路。 广告促成交易。

问题是没有特别保证人工智能是公正的。 AI 制造者或 AI 外野手可能在 AI 偏见上撒谎。 如果这看起来过于邪恶,让我们考虑一下 AI 制造者或 AI 守场员可能不知道他们的 AI 是否有偏见,但他们无论如何决定做出这样的声明。 对他们来说,这似乎是一个合理且意料之中的主张。

FTC 博客提到了这个具有启发性的例子:“例如,假设一位人工智能开发人员告诉客户,其产品将提供‘100% 公正的招聘决定’,但该算法是根据缺乏种族或性别多样性的数据构建的。 结果可能是欺骗、歧视——以及联邦贸易委员会的执法行动”(同上).

您需要针对 AI 广告策略采取的行动

公司有时会陷入潜在的困境,因为一只手不知道另一只手在做什么。

在许多公司中,一旦 AI 应用程序准备好发布,营销团队将无法获得有关 AI 应用程序功能的信息。 经典的说法是 AI 的细节就在他们的脑海中,他们的技术不够精明,无法理解它。 这一差距带来了古怪的人工智能广告的潜力。 营销人员根据与他们分享的任何细节或花絮,尽其所能。

我并不是说营销方面被蒙蔽了。 只是房子的 AI 开发方面和营销方面之间经常存在差距。 当然,有些情况下营销团队基本上被蒙蔽了。 AI 开发人员可能会吹嘘其宣称的超人 AI 能力,对此营销人员可能没有任何有意义的方式来反驳或表达警告。 我们可以考虑其他灾难性的排列。 可能是因为 AI 开发人员对 AI 的局限性持坦率态度,但营销方选择通过夸大 AI 的功能来增加一些活力。 你知道这是怎么回事,那些人工智能技术人员只是不明白销售东西需要什么。

必须有人担任裁判,并确保两个有些不同的部门有适当的意见。 构想的广告将需要基于 AI 开发人员应该能够提供证据或证明的基础。 此外,如果 AI 开发人员充满一厢情愿并且已经喝了 AI Kool-Aid,则需要确定这一点,以便营销团队不会被过于乐观和毫无根据的想法蒙蔽了双眼。

在一些公司中, 首席人工智能官 已作为一种可能的联系而浮出水面,以确保最高级别的执行团队正在考虑如何在公司内部使用人工智能并将其作为公司产品和服务的一部分。 这一角色还有望有助于将公司的 AI 方面和营销方面结合在一起,与营销主管或首席营销官 (CMO) 密切合作。 请参阅我对这个新兴角色的讨论,网址为 这里的链接.

在这些问题中需要包括另一个非常重要的角色。

房子的法律方面同样重要。 首席法律官 (CLO) 或首席法律顾问或外部法律顾问应在 AI 的整个开发、部署和营销过程中参与 AI 方面的工作。 可悲的是,法律团队往往是最后知道此类人工智能工作的人。 由于诉讼或联邦机构调查而收到法律通知的公司会突然意识到,也许法律人员应该参与他们的 AI 部署。

一个更聪明的方法是在马离开谷仓之前让法律团队参与进来。 早在马离开谷仓之前。 方式,方式更早。 有关我对 AI 和法律实践的报道,请参阅 这里的链接这里的链接,例如。

Debevoise & Plimpton 律师事务所(一家全球知名的国际律师事务所,总部位于纽约市)最近发表了一篇题为“过度销售人工智能的风险:FTC 正在关注”的在线帖子,作者是 Avi Gesser、Erez Liebermann 和 Jim Pastore, Anna R. Gressel、Melissa Muse、Paul D. Rubin、Christopher S. Ford、Mengyi Xu 以及发布日期为 6 年 2023 月 XNUMX 日的文章提供了一个非常有见地的指示,表明企业应该针对其 AI 工作采取行动。

以下是博客文章的部分节选(完整文章位于 这里的链接):

  • “一。 人工智能定义. 考虑为什么可以被恰当地描述为 AI 创建一个内部定义,以避免在公司仅使用算法或简单的非 AI 模型时错误地声称产品或服务利用人工智能的指控。”
  • “一。 库存. 考虑创建一份关于公司 AI 产品和服务的公开声明清单。”
  • “一。 教育:就 FTC 指南和 AI 定义问题对您的营销合规团队进行教育。”
  • “一。 回顾: 考虑制定一个流程来审查所有当前和拟议的关于公司人工智能产品和服务的公开声明,以确保它们是准确的、可以被证实的,并且不会夸大或过度承诺。”
  • “一。 供应商索赔:对于供应商提供给公司的 AI 系统,请注意不要在不确保其准确性的情况下仅重复供应商对 AI 系统的声明。”
  • “一。 风险评估:对于高风险人工智能应用,公司应考虑进行影响评估以确定可预见的风险以及如何最好地减轻这些风险,然后考虑在有关人工智能应用的外部声明中披露这些风险。”

作为一名高级管理人员和全球首席信息官/首席技术官,我知道法律团队对于面向内部和外部的人工智能系统的开发和部署有多么重要,包括在许可或获取第三方软件包时。 人工智能的努力尤其如此。 法律团队需要嵌入或至少被视为技术团队的亲密而可爱的盟友。 与任何和所有技术相关的法律地雷过多,对于公司决定构建或采用的 AI 来说尤其如此。

人工智能如今位居潜在合法地雷清单的首位。

人工智能技术人员与营销专家和法律大律师的配合是你做正确事情的最佳机会。 将这三者连续不断地而不是迟来的或一次性地放在一起,这样他们就可以找出一种营销和广告策略以及部署,从而获得 AI 实施的好处。 目的是最大限度地减少法律的幽灵和代价高昂且损害声誉的诉讼,同时最大限度地提高人工智能实质上提供的适当公平和平衡的赞誉。

金发姑娘原则适用于人工智能。 你想吹捧人工智能可以做伟大的事情,假设它可以并且确实有精心设计的证据和证明支持。 你不想无意中回避人工智能增加的任何价值。 这削弱了 AI 添加剂的特性。 而且,在另一个极端,您当然不希望制作滑稽的自夸广告,这些广告会偏离轨道并做出邪恶且容易引起法律纠纷的声明。

汤的温度必须恰到好处。 实现这一目标需要来自技术团队、营销团队和法律团队的头脑聪明、精通人工智能的厨师。

在 Arnold & Porter 律师事务所(总部位于华盛顿特区的知名跨国律师事务所)最近的一篇帖子中,Isaac E. Chao 和 Peter J. Schildkraut 撰写了一篇题为“FTC Warns: All You Need To Know About AI You Learned In Kindergarten”(发布日期为 7 年 2023 月 XNUMX 日,可在 这里的链接),并对与 AI 使用相关的法律责任做出了至关重要的警告强调:

  • “简而言之,不要被 AI 的魔力所吸引以至于忘记了基础知识。 欺骗性广告会使公司承担联邦和州消费者保护法规定的责任,其中许多法律除了政府执法外还允许私人诉讼权。 被误导的客户——尤其是 B2B 客户——也可能会根据各种合同和侵权理论寻求损害赔偿。 上市公司不得不担心 SEC 或股东断言,即未经证实的索赔是重大的。”

意识到即使你的 AI 不是针对消费者的,你也不能完全逃避潜在的法律风险。 作为企业的客户也可以确定您的 AI 声明是虚假的,或者可能是欺诈性地误导了他们。 可能会出现各种法律风险。

结论

很多人都在等着看人工智能广告相关的崩溃会从现有的和不断增长的人工智能狂潮中升起。 一些人认为,我们需要一个大众汽车级别的范例或一个欧莱雅级别的原型来让每个人都意识到,关于 AI 的毫无根据的断言是不能容忍的。

在关于 AI 越界广告的法律纠纷在社交媒体和日常新闻中引起广泛关注之前,令人担忧的是 AI 吹嘘的富矿将持续存在。 人工智能的营销将继续攀登古怪的阶梯。 越来越高。 每一个下一个 AI 都必须比之前的 AI 更胜一筹。

我的建议是,您可能不想成为原型并因为被 AI 装饰饼干罐抓到而载入史册。 不好看。 昂贵。 可能会破坏业务和相关职业。

你会被抓住吗?

我强烈建议,如果您注意自己的所作所为,那么被抓到就不会成为噩梦,因为您已经做了适当的尽职调查,并且可以枕着枕头安然入睡。

对于那些不愿意听从该建议的人,我将在 27 年 2023 月 XNUMX 日的 FTC 博客中为这一温和的预警言论留下最后一句话:“无论它能做什么或不能做什么,人工智能都很重要,你对它的主张也是如此。 你不需要机器来预测联邦贸易委员会在这些说法没有根据的情况下会做什么。”

好吧,我想人们可以使用 AI 来帮助您避开非法的 AI 广告,但那是以后的事了。 请记住,对您的人工智能要深思熟虑和诚实。 那并确保你有最好的法律猎犬,在这些问题上尖锐地提供他们虔诚的法律智慧。

资料来源:https://www.forbes.com/sites/lanceeliot/2023/03/12/federal-trade-commission-aims-to-bring-down-the-hammer-on-those-outsized-unfounded-claims-关于生成人工智能聊天和其他人工智能警告人工智能伦理和人工智能法律/