API 门户开放后,生成式 AI ChatGPT 将无处不在,颠覆 AI 伦理和 AI 法律

释放海妖!

你无疑熟悉演员连姆尼森在电影中特别说过的那句著名的标语。 泰坦之战 当他命令释放传说中的海怪时,旨在造成巨大的破坏和巨大的破坏。 这句话被无休止地重复,并催生了各种模因。 尽管有各种各样的模仿,但大多数人至少仍然发自内心地感觉到,这句话预示着某种阴暗而危险的事物即将出现。

如今,也许同样的观点也适用于人工智能 (AI)。

请允许我详细说明。

最近的一则公告表明,由 OpenAI 组织制作的名为 ChatGPT 的现在广为人知的人工智能应用程序很快将可供其他程序访问。 这是个大新闻。 尽管很少有正规媒体注意到这一声明,但我还是这么说了。 除了稍纵即逝的提及之外,即将到来的访问的全部影响将非常重要。

在今天的专栏中,我将解释为什么会这样。 你可以相应地做好准备。

一些人坚信这将类似于放开 Kraken,即会出现各种不好的事情。 其他人认为这是提供了一种重要资源,可以通过利用 ChatGPT 的强大功能来提升大量其他应用程序。 这要么是最坏的时代,要么是最好的时代。 我们将在此考虑辩论的双方,你可以自己决定你站在哪个阵营。

所有这一切都涉及大量人工智能伦理和人工智能法律方面的考虑。

请注意,目前正在努力将道德 AI 原则融入 AI 应用程序的开发和部署中。 越来越多的关注和以前的人工智能伦理学家正在努力确保设计和采用人工智能的努力考虑到做事的观点 永远的人工智能 并避免 坏的人工智能. 同样,有人提出了新的 AI 法律,作为防止 AI 努力在人权等问题上失控的潜在解决方案。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

人们越来越担心 ChatGPT 和其他类似的 AI 应用程序有一个丑陋的弱点,也许我们还没有准备好处理。 例如,您可能听说过学校的学生在使用 ChatGPT 撰写作业时可能会作弊。 人工智能为他们完成了所有的写作工作。 同时,学生能够看似毫无顾忌地翻阅论文,就好像他们是用自己的脑袋写的一样。 不是我们大概希望人工智能为人类做的事情。

一些关键要点可能有助于为这一切做好准备。

ChatGPT 是一种通常被称为 生成式人工智能. 这些流行的基于生成的 AI 应用程序允许您输入简短的提示并让应用程序为您生成输出。 对于 ChatGPT,输出是文本。 因此,您输入文本提示,ChatGPT 应用程序会为您生成文本。 我倾向于将其描述为生成式 AI 的一个特定子类型,它可以生成文本到文章的输出(还有其他子类型,例如文本到图像、文本到视频等)。

ChatGPT 的 AI 制造商表示,很快将为 AI 应用程序提供 API(应用程序编程接口)。 简而言之,API 是一种允许其他程序继续运行并使用可提供进入给定应用程序门户的程序的方法。 这意味着这个星球上几乎任何其他程序都可以潜在地利用 ChatGPT(好吧,经 ChatGPT 的 AI 制造商许可和批准,本文将立即进一步讨论)。

结果是,ChatGPT 的使用和使用可能会爆棚。

而今天有数量可观的注册需要那些在 个人 基础 可以使用 ChatGPT,由 AI 制造商限制在 XNUMX 万用户,这实际上可能是即将到来的事情的九牛一毛。

意识到那些现有的百万注册包括一些使用 ChatGPT 的一次性嬉戏,然后在兴奋消退之后,他们从那以后就没有使用过它。 许多人可能被 AI 应用程序吸引为社交媒体病毒式反应。 简而言之,如果其他人都想使用它,那么他们也想这样做。 在对基于生成的 AI 进行一些初步实验后,他们对避免了 FOMO(害怕错过)感到满意。

明确地说,我并不是在暗示人们不使用 ChatGPT。 他们是。 那些注册的人越来越多地发现人工智能应用程序超载了。 很多很多人都在使用这个应用程序。 您会不时收到一些巧妙组合的悲伤指示,表明系统正忙,您应该稍后再试。 街上的消息是,ChatGPT 的现有基础设施一直在竭力应对使用 AI 应用程序的狂热粉丝。

尽管拥有 XNUMX 万潜在用户不容小觑,但一旦 API 可用,这个数字很可能会成倍增加。 今天与生成式 AI 无关的其他程序的开发人员将希望利用生成式 AI 的潮流。 他们会想要将他们的程序与 ChatGPT 连接起来。 他们发自内心地希望这能将他们现有的节目提升到受欢迎的程度。

这样想。 假设今天制作的程序覆盖数百万用户的各种软件公司,通常达到数千万和数亿用户,选择将他们各自的程序与 ChatGPT 配对。 这表明使用 ChatGPT 的用户数量可能会飙升。

海妖被释放。

为什么各种软件公司都想与 ChatGPT 配对,您可能想知道?

一个直截了当的答案是,他们还不如利用推动 ChatGPT 向前和向上发展的惊人顺风。 有些人会出于明智和光明正大的原因这样做。 其他人这样做只是为了尝试获得他们自己十五分钟的名气。

我喜欢将 ChatGPT 的配对分为两个主要意图:

  • 与 ChatGPT 真正配对
  • Fakery 与 ChatGPT 配对

在第一种情况下,概念是与 ChatGPT 配对有一个真正的基础。 特定程序的开发者能够很好地阐明由于将他们的程序与 ChatGPT 配对而带来的有形和功能性好处。 我们都能以合理的心态看到这对搭档是天作之合。

对于另一种情况,包括我所说的伪造,有些人会在轻浮或不稳定的基础上寻求与 ChatGPT 配对。 业务案例不包含任何特别实质性的内容。 这对搭档是拼命尝试搭上 ChatGPT 的尾巴。 任何合理的检查都会表明该配对的价值很小。 现在,您是否认为这是一种适当的配对形式还是不适当的配对形式有些悬而未决。 有人可能会争辩说,与 ChatGPT 的特定配对,即使配对除了提高使用率之外没有完成任何事情并且没有其他功能附加值,大概仍然值得进行配对。

不利的一面是,那些错误地描绘了配对并让人们相信一些值得注意的事情正在发生,而实际上并没有发生。 我们当然可以预期有些人会尝试这样做。 AI Ethics 的那些人非常关注蛇油的使用,这些用途将要从木制品中出来。 如果这种情况失控,我们也有可能看到新的与人工智能相关的法律,这些法律将被激励起草和颁布。

让我们更深入地探讨什么构成真正的配对,什么也构成虚假配对。

首先,我们应该确保我们都在同一页面上了解生成 AI 的组成以及 ChatGPT 的全部内容。 一旦我们涵盖了这个基础方面,我们就可以对 ChatGPT 中的 API 如何从根本上改变事物进行有说服力的评估。

如果您已经非常熟悉生成式 AI 和 ChatGPT,您或许可以浏览下一部分并继续阅读下一节。 我相信,通过仔细阅读本节并跟上进度,其他所有人都会发现有关这些问题的重要细节具有指导意义。

关于生成式 AI 和 ChatGPT 的快速入门

ChatGPT 是一个通用的 AI 交互式对话系统,本质上是一个看似无害的通用聊天机器人,然而,它正被人们以一种让许多人完全措手不及的方式积极而热切地使用,我将在稍后详细说明。 这个 AI 应用程序利用了 AI 领域中的技术和技术,通常被称为 生成式人工智能. 人工智能生成文本等输出,这就是 ChatGPT 所做的。 其他基于生成的 AI 应用程序生成图片或艺术品等图像,而其他生成音频文件或视频。

在本次讨论中,我将重点关注基于文本的生成式 AI 应用程序,因为 ChatGPT 就是这样做的。

生成式 AI 应用程序非常易于使用。

您需要做的就是输入一个提示,AI 应用程序会为您生成一篇尝试回应您的提示的文章。 撰写的文本看起来就像这篇文章是由人的手和思想写成的。 如果你输入“告诉我关于亚伯拉罕·林肯”的提示,生成式人工智能将为你提供一篇关于林肯的文章。 这通常被归类为执行 文字到文字 或者有些人更喜欢称它为 文本到文章 输出。 如前所述,还有其他生成 AI 模式,例如文本到艺术和文本到视频。

您的第一个想法可能是,就撰写论文而言,这种生成能力似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。 生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能可以吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

这就是为什么学生在课堂外写论文时能够作弊引起了轩然大波。 老师不能仅仅拿那些欺骗学生声称是他们自己写的文章,并试图查明它是否是从其他在线来源复制的。 总的来说,不会有任何适合 AI 生成的文章的在线明确的预先存在的文章。 总而言之,老师将不得不勉强接受学生写的这篇文章是原创作品。

生成人工智能还有其他问题。

一个关键的缺点是,由基于生成的人工智能应用程序生成的文章可能会嵌入各种虚假信息,包括明显不真实的事实、被误导性描述的事实以及完全捏造的明显事实。 这些虚构的方面通常被称为 人工智能幻觉,一个我不喜欢但遗憾的是似乎越来越流行的标语(关于为什么这是糟糕和不合适的术语的详细解释,请参阅我的报道 这里的链接).

在我们深入讨论这个话题之前,我想澄清一个重要方面。

社交媒体上出现了一些关于 生成式人工智能 断言这个最新版本的人工智能实际上是 有感知的人工智能 (不,他们错了!)。 AI 伦理和 AI 法律领域的人士尤其担心这种不断扩大的索赔趋势。 您可能会礼貌地说,有些人夸大了当今 AI 的实际能力。 他们假设人工智能具有我们尚未能够实现的能力。 那真不幸。 更糟糕的是,他们可能会允许自己和他人陷入可怕的境地,因为他们假设人工智能在采取行动方面具有感知能力或类似人类。

不要将人工智能拟人化。

这样做会让你陷入一个棘手而沉闷的依赖陷阱,即期望 AI 做它无法执行的事情。 话虽如此,最新的生成式 AI 的功能相对令人印象深刻。 请注意,在使用任何生成式 AI 应用程序时,您应该始终牢记一些重大限制。

如果您对关于 ChatGPT 和生成式 AI 的迅速扩大的骚动感兴趣,我一直在我的专栏中做一个重点系列,您可能会从中找到有用的信息。 如果这些主题中的任何一个引起您的兴趣,请看一下:

  • 1) 生成人工智能进展的预测。 如果你想知道 AI 在整个 2023 年及以后可能会发生什么,包括生成 AI 和 ChatGPT 即将取得的进展,你会想阅读我的 2023 年预测综合列表,网址为 这里的链接.
  • 2) 生成人工智能和心理健康建议。 根据我在 这里的链接.
  • 3) 生成式 AI 和 ChatGPT 的基础知识。 本文探讨了生成式 AI 工作原理的关键要素,特别是深入研究了 ChatGPT 应用程序,包括对嗡嗡声和宣传的分析,网址为 这里的链接.
  • 4) 师生之间在生成式人工智能和 ChatGPT 上的紧张关系. 以下是学生不正当使用生成式 AI 和 ChatGPT 的方式。 此外,教师可以通过以下方式应对这一浪潮。 看 这里的链接.
  • 5) 上下文和生成人工智能的使用。 我还对涉及 ChatGPT 和生成 AI 的与圣诞老人相关的上下文进行了季节性的半开玩笑的检查 这里的链接.
  • 6) 诈骗者使用生成式人工智能. 一个不祥的消息是,一些诈骗者已经想出了如何使用生成式 AI 和 ChatGPT 进行不法行为,包括生成诈骗电子邮件,甚至为恶意软件生成编程代码,请参阅我的分析 这里的链接.
  • 7) 使用生成式 AI 的菜鸟错误. 许多人对生成式 AI 和 ChatGPT 可以做的事情既过头又出人意料地过头,所以我特别关注了 AI 菜鸟往往会做的过头,请参阅讨论 这里的链接.
  • 8) 应对生成式 AI 提示和 AI 幻觉. 我描述了一种使用 AI 插件来处理与尝试将合适的提示输入生成 AI 相关的各种问题的前沿方法,此外还有用于检测所谓的 AI 幻觉输出和谎言的其他 AI 插件,如涵盖于 这里的链接.
  • 9) 揭穿 Bonehead 关于检测生成的 AI 生成的论文的说法. AI 应用程序出现了一场被误导的淘金热,这些应用程序声称能够确定任何给定的文章是人工创作的还是人工智能生成的。 总的来说,这是一种误导,在某些情况下,这是一种愚蠢且站不住脚的说法,请参阅我的报道 这里的链接.
  • 10)通过生成人工智能进行角色扮演可能预示着心理健康问题. 有些人正在使用诸如 ChatGPT 之类的生成式人工智能来进行角色扮演,人工智能应用程序借此对人类做出反应,就好像存在于幻想世界或其他虚构的环境中一样。 这可能会对心理健康产生影响,请参阅 这里的链接.
  • 11) 暴露输出错误和错误的范围。 各种收集的列表被放在一起,试图展示 ChatGPT 产生的错误和谎言的性质。 一些人认为这是必不可少的,而另一些人则认为这种做法是徒劳的,请参阅我的分析 这里的链接.
  • 12) 禁止生成 AI ChatGPT 的学校错过了机会。 您可能知道纽约市 (NYC) 教育部等各种学校已宣布禁止在其网络和相关设备上使用 ChatGPT。 虽然这似乎是一个有用的预防措施,但它不会移动针头,遗憾的是完全错过了船,请参阅我的报道 这里的链接.

您可能会对 ChatGPT 基于称为 GPT-3 的前身 AI 应用程序版本感兴趣。 ChatGPT 被认为是稍微下一步,称为 GPT-3.5。 预计 GPT-4 可能会在 2023 年春季发布。据推测,GPT-4 将在能够产生看似更流畅的文章、更深入、更令人敬畏方面向前迈出令人印象深刻的一步- 令人惊叹的作品,它可以产生。

当春天到来并且最新的生成人工智能发布时,你可以期待看到新一轮的惊叹。

我提出这个问题是因为要记住另一个角度,包括这些更好、更大的生成式 AI 应用程序的潜在致命弱点。 如果任何 AI 供应商提供一种生成性 AI 应用程序,它会泡沫地吐出污秽,这可能会破灭那些 AI 制造商的希望。 社会溢出效应可能会导致所有生成式 AI 遭受严重的黑眼圈。 人们无疑会对犯规输出感到非常不安,这种情况已经发生过多次,并导致社会对人工智能的强烈谴责。

现在最后一个预警。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果生成式 AI 应用程序告诉您亚伯拉罕·林肯乘坐他自己的私人飞机在全国各地飞行,您无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到喷气式飞机在他那个时代并不存在,或者他们可能知道但没有注意到这篇文章提出了这种厚颜无耻的错误主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。

我们已准备好进入这一阐明的下一阶段。

释放野兽

现在我们已经建立了基础,我们可以深入研究由于 ChatGPT API 方面而导致的面向业务和社会的影响。

微软最近与 OpenAI 一起发布了关于即将在微软 Azure 云平台上使用 ChatGPT 的公告(根据题为“Azure OpenAI 服务的普遍可用性扩展了对大型高级 AI 模型的访问并增加了企业利益”的在线帖子, 16 年 2023 月 XNUMX 日):

  • “大型语言模型正迅速成为人们进行创新、应用 AI 解决重大问题以及想象无限可能的重要平台。 今天,我们很高兴地宣布 Azure OpenAI 服务全面上市,这是微软持续致力于人工智能民主化以及与 OpenAI 持续合作的一部分。 随着 Azure OpenAI 服务现已普遍可用,更多企业可以申请访问世界上最先进的人工智能模型——包括 GPT-3.5、Codex 和 DALL•E 2——由可信的企业级功能和人工智能优化的基础设施提供支持Microsoft Azure,创建尖端应用程序。 客户还将能够很快通过 Azure OpenAI 服务访问 ChatGPT——GPT-3.5 的微调版本,它已经过训练并在 Azure AI 基础设施上运行推理。”

你可能已经注意到,在该声明中,OpenAI 设计的其他各种人工智能应用程序也将可用。 事实上,其中一些 AI 应用程序已经可以访问很长一段时间了,正如最近的上述声明中进一步提到的:“我们于 2021 年 XNUMX 月推出了 Azure OpenAI 服务,使客户能够利用大规模生成 AI 模型的力量企业承诺客户已经从我们的 Azure 云和计算基础架构中获得期望——安全性、可靠性、合规性、数据隐私和内置的负责任的 AI 功能”(同上)。

我之前提到过,AI 伦理和 AI 法律都在努力平衡 永远的人工智能 有潜力的愿望 坏的人工智能 有时会出现这种情况。 在 AI 领域,有一种运动正在走向拥有 负责任的AI 或者有时被称为可信赖的人工智能或以人为本的人工智能,请参阅我的报道 这里的链接. 敦促所有人工智能制造商设计和部署他们的人工智能 永远的人工智能 并公开寻求减少或减轻任何 坏的人工智能 这可能会出现。

这是一项艰巨的任务。

无论如何,上述声明确实解决了 Responsible AI 的问题:

  • “作为行业领导者,我们认识到人工智能的任何创新都必须负责任地进行。 对于生成模型等强大的新技术,这一点变得更加重要。 我们对大型模型采用迭代方法,与我们的合作伙伴 OpenAI 和我们的客户密切合作,仔细评估用例、学习和解决潜在风险。 此外,我们还为 Azure OpenAI 服务实施了我们自己的护栏,这些护栏符合我们负责任的 AI 原则。 作为我们的有限访问框架的一部分,开发人员需要申请访问权限,在获得服务访问权限之前描述他们的预期用例或应用程序。 专门设计用于捕获辱骂、仇恨和冒犯性内容的内容过滤器不断监控提供给服务的输入以及生成的内容。 如果确认违反政策,我们可能会要求开发人员立即采取行动以防止进一步滥用”(同上)。

Responsible AI 观点的症结在于,通过要求正式请求以程序 API 为基础访问 ChatGPT,就有机会淘汰不受欢迎的提交。 如果在选择哪些其他公司及其程序可以访问 ChatGPT 时进行适当的尽职调查,或许就有可能阻止已发布的 Kraken 的全面愤怒。

可能是可能不是。

一些权威人士担心,允许使用 ChatGPT API 的赚钱可能性会影响想要合理、安全地控制这只野兽的平衡观念。 审查真的会预先足够小心吗? 相反,我们是否会看到随着请求量失控而出现松散的摇摇欲坠的批准流程? 有些人担心,只有当猫从袋子里出来时,才可能真正发生迟来的更全面的审查,尽管到那时损害已经造成。

好吧,你至少可以给予应有的信任,因为涉及到一个审查过程。 有一些生成式 AI 应用程序要么缺乏连贯的审查过程,要么粗略粗略。 此外,还有开源版本的生成 AI,几乎任何想要这样做的人都可以使用,尽管应该遵循一些许可限制(试图强制执行这比看起来更难)。

让我们快速浏览一下有关限制访问 Azure OpenAI 服务的现有规则,看看其他软件制造商需要做什么才能与 ChatGPT 建立潜在联系。 根据在线发布的 Microsoft 政策(最新发布日期为 14 年 2022 月 XNUMX 日):

  • “作为微软对负责任人工智能承诺的一部分,我们正在设计和发布 Azure OpenAI 服务,旨在保护个人和社会的权利,促进透明的人机交互。 出于这个原因,我们目前限制了 Azure OpenAI 的访问和使用,包括限制访问修改内容过滤器和修改滥用监控的能力。 Azure OpenAI 需要注册,目前仅适用于与 Microsoft 客户团队合作的托管客户和合作伙伴。 希望使用 Azure OpenAI 的客户需要提交一份注册表,用于初始访问实验和批准从实验转移到生产。”
  • “对于实验,客户证明仅将服务用于注册时提交的预期用途,并承诺结合人工监督、对输入和输出的严格技术限制、反馈渠道和全面测试。 对于生产,客户解释了如何实施这些以降低风险。 希望在使用该服务后修改内容过滤器和修改滥用监控的客户将受到额外的场景限制,并且需要在此处注册。”
  • “对 Azure OpenAI 服务的访问由微软根据资格标准和审查程序自行决定,客户必须承认他们已经阅读并同意 Azure OpenAI 服务的 Azure 服务条款。 Microsoft 可能会要求客户重新验证此信息。 Azure OpenAI 服务根据管理其 Microsoft Azure 服务订阅的条款向客户提供,包括 Microsoft 产品条款的 Azure OpenAI 部分。 请仔细阅读这些条款,因为它们包含管理您使用 Azure OpenAI 服务的重要条件和义务。”

这是微软方面的事情。

OpenAI 也有与其 API 相关的使用政策:

  • “我们希望每个人都能安全负责地使用我们的 API。 为此,我们制定了用例和内容政策。 通过关注他们,您将帮助我们确保我们的技术被用于公益事业。 如果我们发现您的产品不符合这些政策,我们会要求您进行必要的更改。 如果你不遵守,我们可能会采取进一步行动,包括终止你的帐户。”
  • “我们禁止构建针对以下用例的产品:”
  • “——非法或有害行业”
  • “——滥用个人数据”
  • “——促进不诚实”
  • “——欺骗或操纵用户”
  • “——试图影响政治”
  • “以下一组用例具有更大的潜在危害风险:刑事司法、执法、法律、政府和公务员服务、医疗保健、治疗、健康、教练、金融、新闻。 对于这些用例,您必须:”
  • “1) 彻底测试我们的模型在您的用例中的准确性,并对您的用户保持透明”
  • “2) 确保您的团队拥有领域专业知识并理解/遵守相关法律”
  • “我们也不允许您或您的应用程序的最终用户生成以下类型的内容:”
  • “- 恨”
  • “——骚扰”
  • “——暴力”
  • “- 自残”
  • “——性”
  • “- 政治的”
  • “- 垃圾邮件”
  • “——欺骗”
  • “——恶意软件”

一个大问题是,如果连接 ChatGPT 的请求激增,是否可以遵守这些理想。 也许会有压倒性的请求海啸。 检查和仔细审查每一个的人工可能成本高昂且难以管理。 面对巨大的访问需求,适当限制的愿望是否会在不经意间被淡化?

正如著名的俏皮话所说,最好的计划有时会在第一次接触强大的力量时被打乱。

在如何解释规定的规则方面也有很多回旋余地。 正如我们普遍看到的虚假信息和错误信息的增加,试图将小麦与谷壳分开可能非常具有挑战性。 如何判断生成的内容是否符合或违反不仇恨、政治、欺骗等规定?

一个迫在眉睫的困难可能是,如果将 ChatGPT API 提供给将其程序与 ChatGPT 配对的软件制造商,并且由此产生的输出明确违反规定的规则,那么这匹马是否已经离开了谷仓? 一些人认为,所有相关方极有可能遭受名誉损害。 是否可以通过简单地将 API 与特定违规者分离来克服这一问题尚不清楚。 从某种意义上说,损害可能会持续存在并破坏整个桶。 所有来者都会受到大量的指责。

对 API 配对进行分层

我之前提到,与 ChatGPT 的配对可以方便地分为两个主要目的:

  • 与 ChatGPT 真正配对
  • Fakery 与 ChatGPT 配对

让我们首先检查真正的或善意的配对。

作为背景,发生这种情况的方式有些简单。 ChatGPT 应用程序允许其他程序调用该应用程序。 通常,这包括一个我们称为 Widget 的程序,它向 ChatGPT 传递一个文本格式的提示,然后在 ChatGPT 完成它的工作后,一篇文章或文本被返回给程序 Widget。 这几乎就像一个人在做同样的事情,尽管我们会让一个程序来代替一个人做这些动作。

例如,假设有人设计了一个在网络上进行搜索的程序。 该程序询问用户他们想要搜索什么。 然后,该程序会根据用户查询向用户提供各种搜索结果列表或希望展示相关网站的发现。

想象一下,制作此网络搜索程序的公司想要美化其应用程序。

他们请求访问 ChatGPT API。 假设他们完成了所有适当的文书工作并最终获得批准。 然后需要修改他们进行网络搜索的程序,以包括通过 API 调用 ChatGPT 应用程序。 假设他们选择制作这些模组。

以下是这可能会完全起作用的方式。 当用户在核心程序中输入网络搜索查询时,该程序不仅会进行常规的网络搜索,还会通过 API 将查询传递给 ChatGPT。 ChatGPT 然后处理文本并将生成的文章返回给核心程序。 网络搜索核心程序现在向用户呈现两个方面,即网络搜索结果和来自 ChatGPT 的附加输出文章。

使用这个核心程序的人不一定知道后端使用了 ChatGPT。 它可能发生在核心程序的范围内,并且用户很高兴地没有意识到涉及 ChatGPT。 另一方面,可以设计核心程序来通知用户正在使用 ChatGPT。 这通常取决于核心程序的开发者是否想透露正在使用另一个应用程序,在本例中为 ChatGPT。 在某些安排中,被调用程序的开发者坚持 API 调用程序必须让用户知道另一个程序正在被使用。 这完全取决于偏好和许可细节。

对于真正的配对,以下是惯用的方法:

  • 1) 直通 ChatGPT
  • 2) 附加组件以增强 ChatGPT
  • 3) 与ChatGPT 重合的Allied app
  • 4) 与 ChatGPT 完全融合

简而言之,在第一个列出的方法中,我的想法是我可能会设计一个程序,它只是 ChatGPT 的前端,因此,我的程序所做的就是将文本传递给 ChatGPT 并从 ChatGPT 取回文本。 我将我的程序提供给任何想要使用 ChatGPT 以及尚未注册使用它的人。 这是一种方法。

其次,我可能会设计一个程序作为 ChatGPT 的附加组件。 例如,当 ChatGPT 生成一篇文章时,它可能包含虚假信息。 假设我编写了一个程序来检查 ChatGPT 输出并尝试筛选虚假信息。 我让我的程序可用,以便人们在我的程序中输入文本提示,然后将提示发送到 ChatGPT。 ChatGPT 生成了一篇文章,返回到我的程序中。 在我的程序向您展示这篇文章之前,它会预先筛选这篇文章并尝试标记或删除虚假信息。 然后你会在我的程序完成筛选后看到生成的文章。

第三种方法包括拥有一个在意义上与 ChatGPT 一致的联合应用程序。 假设我开发了一个程序来帮助人们进行创意写作。 我的程序提供了关于如何创造性写作的固定技巧和建议。 该程序只是刺激或刺激用户这样做。 同时,我想做的是向用户展示创意写作的组成部分。 因此,我使用 ChatGPT 建立了一个 API。 然后,我的程序接受用户的提示并调用 ChatGPT 来提供一篇可能展示创意写作的短文。 这可以迭代完成并在此过程中多次调用 ChatGPT。

对于第四种列出的方法,ChatGPT 完全集成到其他一些程序或程序集中。 例如,如果我有一个文字处理应用程序和一个电子表格应用程序,我可能想将 ChatGPT 集成到这些应用程序中。 他们会以一种说话的方式彼此携手合作。 我将在即将发布的专栏中介绍 Microsoft 可以选择将 ChatGPT 注入其办公生产力套件的浮动可能性,因此请留意即将到来的分析。

这些就是真正配对可能发生的关键方式。

接下来让我们考虑一些伪造的配对。

以下是您应该注意的一些整体造假配对:

  • 与 ChatGPT 配对的噱头 – 少量使用 ChatGPT,主要用于展示和获得宣传,没有附加值
  • 关于 ChatGPT 配对的诱人承诺 – 软件供应商声称他们正在与 ChatGPT 配对,寻求成为众人瞩目的焦点,而事实是他们不会这样做,而是在做一个经典的假冒并作出虚假承诺
  • 仿冒品声称类似于 ChatGPT – 一些软件供应商不会与 ChatGPT 配对,而是使用其他东西,这很好,但他们会试图暗示它是 ChatGPT,而实际上不是,希望能得到 ChatGPT 的一些余晖
  • 其他名称 – 可以想象到许多额外的扩展和纵容计划

毫无疑问,所有这一切都会发生很多恶作剧。 它将成为 Kraken 发布的重要组成部分。

结论

请允许我在这件事上投入一些扳手和其他障碍。

费用呢?

目前,那些注册使用 ChatGPT 的人都是免费的。 我之前曾说过,在某些时候需要涉及直接货币化。 这可能需要按每笔交易收取费用或可能需要支付订阅费用。 另一种可能性是广告可能被用来赚钱,因此每次您使用 ChatGPT 时都会出现一个广告。 等等。

那些选择通过 API 与 ChatGPT 建立配对的人应该认真考虑所涉及的潜在成本。 使用 Microsoft Azure 云运行 ChatGPT 应用程序可能会产生费用。 OpenAI 使用 ChatGPT API 和调用 AI 应用程序必然会产生成本。 软件供应商也会产生自己的内部成本,例如修改现有程序以使用 API 或围绕与 ChatGPT 的配对重新开发程序。 还要设想入门成本和持续维护成本。

要点是,这种成本分层将在某种程度上缓和利用 ChatGPT API 的淘金热。 软件供应商大概应该进行审慎的 ROI(投资回报)​​计算。 他们通过使用 ChatGPT 扩充他们的程序可以带来足够的额外资金来抵消成本吗?

并非每个人都一定会如此注重成本。 如果您财力雄厚,并且相信使用 ChatGPT 将推动您的程序进入最著名或最受认可的应用程序领域,那么您可能会认为现在的成本是值得的。 借助 ChatGPT 的优势为您的应用程序建立一个名称。 今后,一旦您的项目受到欢迎或以其他方式赚钱,您要么弥补早先的利润不足,要么将其注销为进入大时代所需的成本。

一家由风险投资 (VC) 公司支持的小型初创公司可能愿意拿出大部分种子投资来与 ChatGPT API 配对。 名声可能会立即出现。 财富可能还有很长的路要走,但这是以后要处理的事情。 正如他们所说,当获得好的时候抓住聚光灯。

有人假设可能会有非营利组织和社会企业决定也对此采取措施。 假设一家非营利性公司确定了调用 ChatGPT API 的有益用途,这似乎会支持他们的无私或对社会有益的目标。 也许他们通过在线筹款活动为此筹集资金。 也许他们试图与供应商达成协议,以便他们支付象征性的金额或免费使用。

时间会告诉我们。

我要留给您的最后一点是风险因素。

我不想显得过分悲观,但我之前提到过 ChatGPT 的输出可能包含虚假信息并有其他潜在的缺点。 问题是,如果开发应用程序的软件供应商混入使用 ChatGPT API,他们将冒着产生糟糕输出的风险,这是他们应该预料到的。 不要把头埋在沙子里。

问题出现了,这些输出可能会污染选择使用它们的应用程序。 从这个意义上说,如果依赖 ChatGPT 提供的输出,您的应用程序最初可能会因 ChatGPT 的荣耀而告终。 也许输出被呈现给用户,这会引起可怕的骚动。 他们消除了对您和您的应用程序的焦虑。

反过来,您尝试将矛头指向 ChatGPT。 这会让你摆脱困境吗? 一旦有臭味,就会弥漫开来,鲜有人幸免。 按照这些思路,可能是通过扩大使用 ChatGPT,对犯规输出的认识变得更加普遍。 因此,奇怪的是,或者具有讽刺意味的是,由于 API 而扩大使用 ChatGPT 可能会搬起石头砸自己的脚。

我不想以悲伤的表情结束我的发言,所以让我们试着换成开心的表情。

如果所有理想的限制和约束都得到谨慎和明智的遵循并严格遵守,那么通过 API 使用 ChatGPT 可能是一件好事。 这也很有可能会进一步刺激其他生成式 AI 应用程序采取行动。 水涨船高。

这看起来很乐观。

您可能知道据说宙斯控制着海妖。 古希腊剧作家索福克勒斯这样评价宙斯:“宙斯的骰子总是幸运地落下。”

也许对于生成人工智能将如何不可避免地落地也会有同样的说法,让我们至少希望如此。

来源:https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- open-stupefying-ai-ethics-and-ai-law/