使用生成式 AI ChatGPT 的人们本能地犯了这个 AI 菜鸟错误,这是 AI 伦理和 AI 法律的一个令人烦恼的秘诀

习惯的力量。

我相信你已经体验过了。

有关的基本概念 习惯的力量 是有时您做的事情是基于对一遍又一遍地做某事的盲目依赖。 习惯接管了你的智力,也许压倒了重新看待或做事的能力。

一方面,你可以争辩说习惯的力量是非常有用的。 你似乎能够在没有太多脑力消耗的情况下完成一项任务,而不是通过公开思考手头的特定问题来消耗你的思维过程。 有些评论员通常将此称为使用您的 记忆力 好像类似于调节你的思想类似于你的身体来执行经过深思熟虑的公理化反应。

依赖习惯的力量的一个重要缺点可能是您错过了以更好的方式做事或未能利用新出现的机会。 您已按自己的方式行事,不会利用或利用可能对您有用的可行替代方案。 就是经典的stick-in-the-mud(也许这个古老的成语应该更充分地表达为一根棍子牢牢地扎在泥里,不屈不挠)。

在今天的专栏中,我将说明如何 习惯的力量 在使用人工智能 (AI) 时,这导致许多人无法理解。

特定的上下文将涉及人工智能的使用,现在被称为 生成式人工智能 我将通过使用广受欢迎且广受赞誉的 AI 应用程序 ChatGPT 来展示习惯方面的力量。 我想您会喜欢这种探索,因为我将提供实际的输入和输出来向您展示 ChatGPT,并通过介绍设计烹饪食谱这一看似无害的任务来实现。 任务本身是一项相对普通的苦差事。 尽管如此,我们仍然可以收集到一些非常有用的见解,了解人们是如何无意中以一种可能被称为 AI 菜鸟方式并被根深蒂固的习惯力量控制的方式行事的。

到本次讨论结束时,您将不会犯同样的 AI 菜鸟错误。

在更大的范围内,这一切都对人工智能伦理和人工智能法律具有重要意义。 您可能会对我对最新的 AI 伦理和 AI 法律的广泛和持续报道感兴趣,网址为 这里的链接 这里的链接, 仅举几个。 对 AI 伦理和 AI 法律的清醒和明智的关注涉及我们如何利用 AI,包括 AI 的良好使用以及避免或至少减轻 AI 的不良使用。

一种被称为生成式 AI 的特定类型的 AI 最近在谈论 AI 的位置和可能的发展方向时主导了社交媒体和新闻。 这是由使用生成 AI 的 AI 应用程序的发布引发的,该应用程序是由 OpenAI 组织开发的 ChatGPT 应用程序。

ChatGPT 是一个通用的人工智能交互系统,本质上是一个看似无害的通用聊天机器人,然而,它正以一种让许多人完全措手不及的方式被人们积极而热切地使用。 例如,一个突出的问题是 ChatGPT 和其他类似的生成式 AI 应用程序将允许学生在他们的书面论文中作弊,甚至可能鼓励或刺激学生这样做。 懒惰或觉得自己没有时间或技能写论文的学生可能会很容易地调用生成式人工智能应用程序为他们写论文。 稍后我会详细说明这一点。 有关 ChatGPT 如何实现这一点以及教师应该做什么的详细分析,请参阅 这里的链接.

如果您对关于 ChatGPT 和生成式 AI 的迅速扩大的争论特别感兴趣,我一直在我的专栏中做一个揭露系列,您可能会发现它提供了丰富的信息和吸引力。

根据我在 这里的链接. 如果您想知道 AI 在整个 2023 年可能会发生什么,包括生成式 AI 和 ChatGPT 即将取得的进展,您需要阅读我对 2023 年的综合预测列表,网址为 这里的链接. 我还做了一个季节性的半开玩笑的检查,涉及与圣诞老人相关的上下文,涉及 ChatGPT 和生成人工智能 这里的链接. 一个不祥的消息是,一些阴谋者已经想出了如何使用生成人工智能和 ChatGPT 来做不法行为,包括生成诈骗电子邮件,甚至为恶意软件生成编程代码,请参阅我的分析 这里的链接.

我将在本文中解释有关生成式 AI 和 ChatGPT 的基础知识,所以请耐心等待,您将获得一般独家新闻。

与此同时,如果你看看社交媒体,你会看到人们宣称 ChatGPT 和生成式人工智能是自切片面包以来最好的东西。 有人认为这实际上是有知觉的 AI(不,他们错了!)。 其他人担心人们正在超越自己。 他们正在看到他们想看到的东西。 他们拿了一个闪亮的新玩具,并确切地展示了为什么我们不能拥有吸引人的新东西。

AI 伦理和 AI 法律领域的人士特别担心这种新兴趋势,这是理所当然的。

你可能会礼貌地说,有些人超越了当今 AI 的实际能力。 他们假设人工智能具有我们尚未能够实现的能力。 那真不幸。 更糟糕的是,他们可能会允许自己和他人陷入可怕的境地,因为他们假设人工智能在采取行动方面具有感知能力或类似人类。 不要将人工智能拟人化。 这样做会让你陷入一个棘手而沉闷的依赖陷阱,即期望 AI 做它无法执行的事情。

在这个极端的另一端是有时会低估当今人工智能的能力。

是的,人们正在使用诸如生成式 AI 和 ChatGPT 之类的 AI,从某种意义上说,这些 AI 未达到或未能获得与当代 AI 相关的完整体验。 这通常是由于那些做这种不足的人的习惯心态的力量。 您可以讨论下冲是否是一个问题。 也许更安全的做法是假设 AI 比实际情况更受限制。 当然,超调确实有很大一部分危险。 我们应该尽可能地充分利用人工智能。 最大限度地发挥人工智能的优势可能会带来巨大的潜在好处。 如果你削弱人工智能的能力,你就会错失可能的机会和回报。

在我们了解一些人如何低于 AI,尤其是 ChatGPT 之前,我想为习惯问题的力量添加一些进一步的背景。

让我们这样做,然后我们将回头看看生成式 AI 和 ChatGPT。

习惯的潜在力量

我经常引用早期的智能手机来说明习惯的强大影响力这一点。

当手机刚开始普及时,人们主要用它们打电话,这很恰当。 随着智能手机的出现,增加了相机功能。 您可能还记得或听说过人们不习惯使用便携式电话拍照。

想要拍照的人会本能地寻找传统相机并放弃使用配备相机的便携式电话。 看到有人因为把传统相机忘在家里而苦恼,并且因为不能在适当的时候拍一张快照而苦恼,这几乎是可笑的。 在被提醒他们手中的手机可以做到这一点后,他们会不好意思地拍下这珍贵的一张照片。

当智能手机增加了视频录制功能时,同样的循环又重复了一遍。 这与第一个示例略有不同。 人们会意识到他们可以使用他们的手持电话拍摄视频,但被拍摄的人表现得好像手机只能拍摄静态快照。 再一次,一群人为了拍照而全都僵住了,而拿着带有录像功能的智能手机的人却不得不恳求他们挥舞着手臂来表演,这几乎是可笑的。

在前一种情况下,您可以说习惯的力量笼罩了一些不习惯使用智能手机拍照的人的思想,这意味着由于习惯的力量,他们认为照片必须使用传统相机拍摄。 在第二种情况下,人们有一种习惯,认为视频只能通过独特的手持录像机拍摄,而智能手机只能拍摄静态照片。

我相信这建立了一个揭示习惯的力量如何产生的背景。

换档进入 AI 领域。

在生成式 AI 和 ChatGPT 的问题上,这类 AI 的一个关键要素是它应该被视为 听起来像对话. 您可能在家中或工作中使用过聊天机器人或类似技术。 如果您曾经使用过 Alexa 或 Siri,那么您就已经使用了面向对话的 AI 系统,无论您是否意识到这一点。

在对话式 AI 中,目标是让人类与 AI 应用程序交谈。 人类应该能够使用与人类同胞相同的对话能力。 嗯,这是理想的目标。 并非所有对话式 AI 都那么好。 要达到那种流利程度,我们还有很多障碍需要克服。

毫无疑问,您使用过 Alexa 或 Siri,并发现这些 AI 对话应用程序有时非常缺乏。 例如,你用一口流利的英语说了些什么,并希望 AI 能理解你的意思。 遗憾的是,这些 AI 系统的响应方式通常表明它们没有理解您的命令或请求的性质。 这可能很烦人。 这可能令人恼火。

最终,您会有所缓和或放弃尝试全力以赴的对话。 由于 AI 不合格,AI 对话能力被证明是有限制的。 人们逐渐发现他们必须“降低”他们的话语才能与这些所谓的对话流畅的人工智能应用程序进行交互。 你开始与 AI 应用程序交谈,或者用简短的、基本的句子给它发短信。 希望是,如果你让事情变得简短而甜蜜,人工智能得到正确结果的机会就会增加。

也许你见过经历这种弧线的人。 在使用 AI 对话应用程序时,他们会以极大的热情开始。 当意识到有一半或更多的时候,人工智能完全没有准确表达所陈述的内容时,人类就会垂头丧气。 他们想继续使用人工智能,但意识到使用他们的人类语言流利度是没有用的。 最终,每个人​​都编造了他们自己相信的速记,并希望安抚人工智能应用程序,让人工智能执行他们人类发出的指令。

哦,强者将如何陨落,这意味着被吹捧的人工智能对话应用程序往往与他们宣称的倾向相去甚远。

这是所有这一切的转折点。

习惯于限制或限制他们与 AI 应用程序的对话交互的人将陷入 习惯的力量 总是这样做。 这是有道理的。 您不希望每次使用会话 AI 应用程序时都重新发明轮子,您认为它与您使用的最后几个应用程序一样有限。 因此,在与其他令人失望的不太流畅的 AI 应用程序交谈时,不妨依靠你已经学过的艰苦经验教训。

与此不同的是,最新的生成人工智能(如 ChatGPT)往往是对话逐步改进的一个步骤。 与这些最新的生成式 AI 应用程序相比,您使用过的任何先前更粗糙和更受限制的 AI 应用程序的对话能力都可能低得多。

您需要摆脱之前对对话式 AI 的失望,并愿意尝试新事物。 为这些新的生成式 AI 应用程序提供一个大展拳脚的机会。 我想你会喜欢这样做的。 见证 AI 取得的进步可能会让人感到非常惊讶和振奋。

现在,请不要误解我的意思。 这并不是对今天的生成式人工智能在某种程度上完全对话和流利的认可。 它不是。 我只是强调它比以前更好。 您可以升级您的游戏,因为 AI 游戏也已升级。 同样,我们还有很长的路要走。

让我举个例子说明我指的是什么。

一个制作烹饪视频的非常受欢迎的社交媒体视频博主很快加入了 ChatGPT 和生成式 AI 的行列,她选择在她的一个视频片段中使用 AI 应用程序。 她登录到 ChatGPT 并要求它为她制作一份食谱。 然后,她开始尝试使用 AI 生成的食谱烹制指定的餐点。

总而言之,这似乎是一种非常明智且令人兴奋的展示最新 AI 的方式。

对于任何现代 AI 人来说,在这次烹饪之旅中都发生了一件有点悲伤或至少令人失望的事情。 视频博主基本上生成了食谱,就好像 AI 类似于一本食谱。 在告诉 AI 所需的整体膳食类型后,AI 应用程序为视频博主生成了一份食谱。 视频博主随后继续尝试做饭,但这样做引发了各种问题。 为什么食谱中没有 vlogger 认为应该包含的其他成分? 为什么 AI 不解释如何做一些复杂的烹饪工作?

这类问题在视频环节被反复提及。

大多数观众可能会点头并认为这确实是您使用食谱或在 Internet 上查找食谱时常见的问题。 你基本上得到了一份打印出来的成分和说明清单。 当您尝试在现实生活中使用它们时,您会发现有时步骤会丢失或令人困惑。

梦幻般地,与制作食谱的厨师互动将是非常棒的。 你可以问他们这些尖锐的问题。 您将能够与厨师交谈。 相反,您只有一份静态的烹饪说明列表,无法辨别纸上没有说明的更精细的方面。

哇,等一下,记住我一直在讨论生成式 AI 和 ChatGPT 的对话方面。 你不应该只是问一个问题,然后在设计和呈现答案后走开。 更好的用途是与 AI 应用程序进行对话。 继续问那些你可能问过人类厨师的问题。

出于习惯,您甚至可能不会想到这样做。 看起来这确实是烹饪视频博主的情况。 之前使用过的对话式 AI 可以调节你的思维,将最新的 AI 视为程式化的互联网搜索引擎。 输入您的查询。 看看返回的内容。 选一个。 从那里开始。

对于生成式 AI,您应该考虑到您的入门提示只是信息丰富且令人振奋的对话之旅的开始。

我告诉人们在使用诸如 ChatGPT 之类的生成式 AI 时,将这些类型的对话推动保留在他们的思维工具包中(在交互时尝试任何或所有这些偷偷摸摸的方法):

  • 告诉 AI 的回答要简明扼要,你会得到更切题的回答
  • 告诉 AI 详细说明它的响应,你会得到更长的放大
  • 请 AI 解释所陈述的内容,以便您了解更多信息
  • 继续解释你自己,看看人工智能对你的理解有何反应
  • 不同意 AI 的陈述反应并促使 AI 捍卫事物
  • 表明您想要 AI 响应的摘要或重述以验证所陈述的内容
  • 根据需要将对话转向相关或不同的主题(侧切线没问题)
  • 制作一个您希望 AI 在上下文中包含的假想场景
  • 确认某事以查看 AI 对确认或不确认您的确认的陈述
  • 等等

这些方面将使您了解对话式 AI 应用程序可以延伸到多远。 我敢说你可能会对这能走多远感到吃惊。 在某些方面,上述建议类似于您在与人互动时可能会做的事情。 考虑一下。 如果你是在与人交谈,所有这些做法可能会更好地促成更令人回味的对话。

与人交谈不同,您不必担心会伤害谈话中其他参与者的感情。 人工智能是一台机器。 你可以很突然。 你可以很粗鲁,尽管这对情况没有帮助(我将很快重新讨论)。

出现了大量的 AI 伦理和 AI 法律问题。

首先,不要让 AI 的会话技术和技术的进步将你带入 AI 的拟人化。 这是一个容易掉入的心理陷阱。 不要被吸入。

其次,不担心伤害 AI 感情的想法已经让一些人警告要小心滑坡。 如果你对对话式 AI 感到厌烦,你可能会让这成为你的整体规范。 你也会逐渐对人类产生厌恶。 并不是说对 AI 的粗暴本身就是坏事(好吧,有些人担心未来存在风险的 AI 不会热衷于此,请参阅我在 这里的链接),相反,你正在养成一种粗暴的习惯。

第三,一些 AI 研究人员和 AI 开发人员选择反击,实际上,通过对 AI 进行编程使其看起来好像确实有感觉,请参阅我的报道 这里的链接. 有时这是明确编程的,而有时它基于与人类互动相关的模式匹配(即研究人类如何互动,然后让 AI 模仿人类在另一个人粗鲁时所做的事情)。 人们相信这会阻止人类滑下我刚才提到的湿滑斜坡。

这枚硬币的另一面是,如果 AI 似乎有感觉,它会再次强化人类已经很可能将 AI 拟人化的趋势。 在那种情况下,所谓的治愈或问题背后的弊病哪个更糟?

有关关键 AI 伦理原则的更多信息,以及试图让 AI 开发人员和操作 AI 的人员采用 AI 伦理实践的持续传奇,请参阅我的报道: 这里的链接. 期待在联邦、州、市和地方各级出现关于人工智能的新法律,例如纽约市关于人工智能审计的法律(见我的分析 这里的链接),一波全球性的国际人工智能相关法律也来了,看我的更新 这里的链接.

在本文讨论的这个时刻,与您分享一些关于生成式 AI 如何工作的值得注意的细节可能会很方便。 我还认为您可能会发现有关 ChatGPT 的有用的其他背景知识。

简而言之,生成式 AI 是一种特殊类型的 AI,它可以像人手和头脑一样编写文本。 您需要做的就是输入一个提示,例如“告诉我关于亚伯拉罕·林肯”这样的句子,生成式人工智能将为您提供一篇关于林肯的文章。 这通常被归类为执行 文字到文字 或者有些人更喜欢称它为 文本到文章 输出。 您可能听说过其他生成 AI 模式,例如文本到艺术和文本到视频。

您的第一个想法可能是,就撰写论文而言,这似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。

生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能可以吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

稍后,我将向您展示当您向生成式 AI 输入问题或提示时会发生什么。 我将使用最新版本的 ChatGPT 来输入我的提示并收集人工智能生成的“答案”或文章(请注意,许多其他可用的生成人工智能应用程序也可以这样做;我选择使用ChatGPT,因为它现在正在获得五分钟的成名)。

有时,生成式人工智能应用程序会在互联网上不可靠信息的训练数据中发现虚假信息。 生成式 AI 中没有“常识”来判断真假。 此外,很少有 AI 应用程序有任何交叉检查,它们也不会显示与它们所传达的内容相关的任何可能性。

最重要的结果是,您得到的答复看起来和感觉起来都散发出极大的保证,而且必须完全正确。 不是这样。 甚至有可能是 AI 计算构成的东西,用 AI 的话说就是 人工智能幻觉 (一个我绝对不喜欢的创造术语),请参阅我的讨论 这里的链接.

ChatGPT 的开发者齐心协力,试图减少不良内容的输出。 例如,他们使用了一种被称为 左高频 (从人类反馈中强化学习),在他们向公众发布 AI 之前,他们雇用了人类来检查各种输出并向 AI 指出这些输出是否存在问题,例如可能表现出偏见、粗言秽语和像。 通过提供这种反馈,人工智能应用程序能够在计算和数学上进行调整,以减少此类内容的排放。 请注意,这不是一种万无一失的方法,AI 应用程序仍然可以通过多种方式发出此类内容。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果一个生成式 AI 应用程序告诉你亚伯拉罕林肯驾驶他自己的私人飞机在全国各地飞行,你无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到他那个时代并没有喷气式飞机,或者他们可能知道但没有注意到这篇文章提出了这个大胆而明显错误的主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。

你准备好加入了吗?

做好准备。

以对话方式使用 ChatGPT 制作美味的食谱

是时候制作食谱了。

好吃,期待与用餐相关的练习。

我不是那种把食谱放在厨房里的人。 是的,我应该,但我没有。 因此,我决定首先通过传统的搜索引擎在网上找到一份可能很有趣的食谱。 这将有助于运行 ChatGPT。 我们将有一个方便的比较基础。

环顾四周因我的在线互联网搜索而列出的各种食谱后,我发现 美食美酒 发布了一份 2022 年最受欢迎的 2022 种食谱的便捷清单。在他们的 XNUMX 年最受欢迎食谱清单中,我看到一个特别吸引我眼球的食谱,即姜黄荷包蛋配韭菜饼干和龙虾的食谱肉汁。

听起来令人垂涎欲滴。

根据这篇题为“姜黄荷包蛋配韭菜饼干和龙虾肉汁”的帖子,并在他们的 2022 年最受欢迎的 25 种食谱的总清单中找到(在一篇题为“2022 年最受欢迎的 9 种食谱”的文章中,根据致 Food & Wine Readers”,2022 年 XNUMX 月 XNUMX 日),他们是这样评价这道美味佳肴的:

· “这道颓废的早午餐菜让人想起小龙虾 étouffée,但在主厨布鲁克威廉姆森的海滨餐厅 Playa Provisions 的菜单上随处可见西海岸的氛围。 龙虾赋予了浓郁的肉汁风味,而姜黄蛋则增添了阳光明媚的色彩。 提前一天做好龙虾肉汁,然后轻轻地重新加热,让早午餐变得更容易。”

太好了,我想做这个,当然。

食谱上说这些是高层次的成分和说明:

“原料”

  • 香葱饼干
  • 龙虾汁
  • 姜黄荷包蛋
  • 其他成分

“方向”

  • 准备韭菜饼干
  • 准备龙虾汁
  • 准备姜黄荷包蛋
  • 组装盘子

我不会在这里展示整个食谱,只会专注于姜黄荷包蛋的准备。

以下是帖子中关于姜黄荷包蛋的内容:

“姜黄荷包蛋”

  • 8杯水
  • 2汤匙苹果醋
  • 2茶匙姜黄粉
  • 6个大鸡蛋,冷的

“方向”

  • “准备姜黄荷包蛋:将水放入中等大小的锅中用中火慢炖。 在醋和姜黄中搅拌。 将每个鸡蛋打入一个单独的小碗中。 一次处理 1 个鸡蛋,将鸡蛋轻轻滑入沸水中。 煮鸡蛋直到蛋白凝固但蛋黄仍然流淌,3 到 4 分钟。 使用有槽的勺子,将鸡蛋转移到纸巾内衬的盘子中以吸收所有水分。 鸡蛋可以用保鲜膜覆盖并在室温下保存最多 1 小时,或覆盖并在冰箱中保存最多 1 天(在沸水中重新加热至温热,大约 1 分钟)。”

好的,我想你已经掌握了食谱的要点。

你可以在网上找到很多类似的食谱。 这个特别的食谱并没有什么特别新颖或特别的地方。 尽管如此,它看起来确实能奏效,我期待着尝试做这顿饭。

假设我对食谱有疑问。 我非常不走运。 这是一成不变的食谱。 我通过传统的在线搜索找到了它。 食谱就是这样。 除了可能会去一些在线鉴赏家并在那里发布一些问题,我不能向任何人询问食谱,希望他们会同情我并帮助我修改食谱或更详细地解释它。

为什么不弄清楚生成式 AI 能为我做什么?

果不其然,我决定继续尝试使用 ChatGPT 来帮助进行这次食谱设计尝试。 我将继续向您展示我输入 ChatGPT 的提示,然后展示 ChatGPT 生成的结果文本或文章。 然后,我将提供一些关于 ChatGPT 指示的内容以及它如何展示生成式 AI 工作原理的分析。

最重要的是,当我尝试解决关于食谱的未决问题时,我将能够输入一系列提示。 不需要找人来做,在这种情况下只需使用人工智能。

让我们继续尝试一下。

我输入的提示:我听说过一道很棒的菜,它由姜黄荷包蛋、细香葱饼干和龙虾肉汁组成。 来吧,给我一份这道听起来很美味的饭菜的食谱。”

生成的文本结果:

“当然! 这是姜黄荷包蛋配细香葱饼干和龙虾肉汁的食谱:”

“姜黄荷包蛋:”

  • 4颗鸡蛋(大)
  • 2杯水
  • 1/2茶匙姜黄
  • 1 / 4勺盐

“韭菜饼干:”

  • 1杯通用面粉
  • 1汤匙发酵粉
  • 1 / 2勺盐
  • 6 汤匙冷无盐黄油,切成小块
  • 3 / 4杯牛奶
  • 2汤匙切碎的韭菜

“龙虾肉汁:”

  • 4汤匙黄油
  • 1 / 4杯多用途面粉
  • 2杯牛奶
  • 1 / 2杯鸡肉汤
  • 杯1 / 2重霜
  • 1 / 2勺盐
  • 1 / 4茶匙辣椒
  • 1 / 4茶匙辣椒
  • 4 盎司煮熟的龙虾肉,切碎

“指示:”

“要制作姜黄荷包蛋,请在一个中等大小的平底锅中加入水,然后用中火慢炖。 加入姜黄和盐,搅拌混合。 小心地将鸡蛋打入沸水中煮 3-4 分钟,或直到蛋白凝固且蛋黄仍然柔软。 使用有槽的勺子,轻轻地将鸡蛋从水中取出,放在纸巾上沥干水分。”

“要制作细香葱饼干,请将烤箱预热至 425°F (220°C)。 在一个中型碗中,将面粉、发酵粉和盐搅拌在一起。 用糕点刀或你的手指,将黄油切成面粉混合物,直到它看起来像粗沙。 加入牛奶和细香葱,直到面团混合在一起。”

“用圆形汤匙将饼干面团放在衬有羊皮纸的烤盘上。 烘烤 12-15 分钟,或直到饼干变成金黄色。”

“要制作龙虾肉汁,请在中等大小的平底锅中用中火融化黄油。 加入面粉并煮熟,不断搅拌 2-3 分钟,或直到混合物呈金黄色。 慢慢加入牛奶、鸡汤和浓奶油,不断搅拌以防止结块。 将混合物煮沸,然后将热量降低至低温。 炖 5-7 分钟,或直到肉汁变稠。 加入盐、胡椒粉、辣椒和龙虾肉。”

“要上桌,请在每个盘子上放一个韭菜饼干,然后在上面放一个姜黄荷包蛋。 将龙虾汁浇在上面,立即上桌。”

“我希望你喜欢这个食谱! 如果您有任何问题,请告诉我。”

分析生成的文本

虽然我不是一个特别精通的厨师,但我未经训练的眼睛表明这个食谱似乎很好并且完全可以接受。 它似乎与 美食美酒 食谱。 请注意,措辞明显不同。 我提到这个是因为 ChatGPT 不只是偶然地逐字复制 美食美酒 食谱或发布在互联网上的任何其他此类食谱。

为了尝试并仔细检查这种唯一性,我获取了 ChatGPT 配方的文本并进行了在线 Internet 搜索。 我找不到完全相同的副本。 当然,我找到了很多类似性质的菜谱,只是因为这种饭菜比较常见。 我通常会建议 ChatGPT 的这个食谱是独一无二的和原创的,这意味着它不是已经发布在网上的一个逐字逐句的副本。 当我说独特和原创时,我并不是说这种食谱从未被发布过。 它有。 我是说这个特定食谱的特定措辞是通过生成 AI 编写的,而不仅仅是模仿者。

我现在手头有 ChatGPT 生成的食谱,可以尝试做饭了。 原来我有一些问题,想进一步讨论这个现在开始的与食谱相关的对话。 意识到如果我通过传统的搜索引擎获得这个食谱,我将不太可能与系统交谈。

这是我在 ChatGPT 旁边指出的关于生成的食谱的内容。

我输入的提示: “我只有3个鸡蛋,我该怎么办? 也,我想减少盐的用量,所以食谱中的盐量必须减少(给我看看)。 肉汁看起来不错,我希望你在里面加些胡萝卜和洋葱。”

生成的文本结果:

“如果你只有3个鸡蛋,你仍然可以按照食谱做,只是少了一个鸡蛋。 如果你想减少食谱中的盐量,你可以将姜黄荷包蛋和细香葱饼干中的盐量分别减少到 1/8 茶匙,并将龙虾肉汁中的盐量减少到1/4 茶匙。”

“要在龙虾肉汁中加入胡萝卜和洋葱,您可以将 1/2 杯切块的胡萝卜和 1/2 杯切块的洋葱放在一个单独的平底锅中,加入少许黄油或油,直到它们变软。 然后,在加入盐、胡椒和辣椒粉的同时,将煮熟的胡萝卜和洋葱加入龙虾肉汁中。”

“这是修改后的食谱:”

“姜黄荷包蛋:”

  • 4颗鸡蛋(大)
  • 2杯水
  • 1/2茶匙姜黄
  • 1 / 8勺盐

“韭菜饼干:”

  • 1杯通用面粉
  • 1汤匙发酵粉
  • 1 / 8勺盐
  • 6 汤匙冷无盐黄油,切成小块
  • 3 / 4杯牛奶
  • 2汤匙切碎的韭菜

“龙虾肉汁:”

  • 4汤匙黄油
  • 1 / 4杯多用途面粉
  • 2杯牛奶
  • 1 / 2杯鸡肉汤
  • 杯1 / 2重霜
  • 1 / 4勺盐
  • 1 / 4茶匙辣椒
  • 1 / 4茶匙辣椒
  • 4 盎司煮熟的龙虾肉,切碎
  • 1/2 杯胡萝卜丁
  • 1/2杯切丁的洋葱

“指示:”

“要制作姜黄荷包蛋,请在一个中等大小的平底锅中加入水,然后用中火慢炖。 加入姜黄和盐,搅拌混合。 小心地将鸡蛋打入沸水中煮 3-4 分钟,或直到蛋白凝固且蛋黄仍然柔软。 使用有槽的勺子,轻轻地将鸡蛋从水中取出,放在纸巾上沥干水分。”

“要制作细香葱饼干,请将烤箱预热至 425°F (220°C)。 在一个中型碗中,将面粉、发酵粉和盐搅拌在一起。 用糕点刀或你的手指,将黄油切成面粉混合物,直到它看起来像粗沙。 加入牛奶和细香葱,直到面团混合在一起。”

“用圆形汤匙将饼干面团放在衬有羊皮纸的烤盘上。 烘烤 12-15 分钟,或直到饼干变成金黄色。”

“要制作龙虾肉汁,请在中等大小的平底锅中用中火融化黄油。 加入面粉并煮熟,不断搅拌 2-3 分钟,或直到混合物呈金黄色。 慢慢加入牛奶、鸡汤和浓奶油,不断搅拌以防止结块。 将混合物煮沸,然后将热量降低至低温。 炖 5-7 分钟,或直到肉汁变稠。”

“在一个单独的平底锅中,用少许黄油或油将切好的胡萝卜和洋葱炒软。 将煮熟的胡萝卜和洋葱、盐、胡椒粉、辣椒和龙虾肉搅拌到肉汁中。

上菜时,在每个盘子上放一个韭菜饼干,然后在上面放一个姜黄荷包蛋。 将龙虾汁浇在上面,立即上桌。”

“我希望你喜欢这个修改后的食谱! 让我知道。”

分析生成的文本

让我们解开发生的事情。

我在提示中向 ChatGPT 提出了相当不拘一格的请求和烹饪问题。

首先,我说我只有 3 个鸡蛋,这是我想说明的一点,因为食谱上说需要 4 个鸡蛋。 我很好奇 ChatGPT 将如何帮助我摆脱困境,因为我没有四个可用的鸡蛋,只能凑合使用三个鸡蛋。 我想我可以冲到商店再买一个鸡蛋,但这似乎太过分了。

你可能已经注意到,ChatGPT 在第一行中这样回应:“如果你只有 3 个鸡蛋,你仍然可以按照上面写的食谱做,只是少了一个鸡蛋。” 我想我显然可以松一口气了,不管我有四个鸡蛋还是三个鸡蛋,食谱仍然可以继续使用。 关于回复的一件事是,如果这是一个人在跟我说话,我几乎会认为这个回复是狡猾的。 嘿,笨蛋,如果你只有三个鸡蛋,那么你就少了一个鸡蛋,继续吧。 这不是 ChatGPT 所表明的,我们必须小心,不要过度解释或赋予生成 AI 拟人化倾向。

我认为有点错误或疏忽的一个方面是没有调整食谱以说明我将只使用三个鸡蛋。 食谱仍然显示需要四个鸡蛋。 您可能会争辩说这是展示食谱的正确方式,因为这是最初要求的内容。 我建议如果只是修改食谱以显示通常使用四个鸡蛋,但在这种情况下,我说我只有三个,那么关于生成 AI 进行对话会更有说服力和令人印象深刻。 有点令人失望。

其次,我告诉 ChatGPT 我必须减少盐的摄入量(不是我们所有人)。 你可能已经观察到生成器的回应是:“如果你想减少食谱中的盐量,你可以将姜黄荷包蛋和细香葱饼干中的盐量减少到 1/8 茶匙每个,并将龙虾肉汁中的盐量减少到 1/4 茶匙。”

这似乎大体上符合我关于减少食谱中盐含量的评论。 好吧,现在显示的食谱已相应修改(这再次说明了为什么我认为鸡蛋的数量也应该改变;让我们在这些事情上保持一致,好吗)。

第三,我要求 ChatGPT 在食谱中添加一些胡萝卜和洋葱。 我在回复中得到了这个:“要在龙虾肉汁中加入胡萝卜和洋葱,你可以在一个单独的平底锅中用少许黄油或油炒 1/2 杯胡萝卜丁和 1/2 杯洋葱丁,直到它们变软. 然后,在加入盐、胡椒和辣椒粉的同时,将煮熟的胡萝卜和洋葱加入龙虾肉汁中。”

配方的其余部分也相应地改变了。

您可能想知道添加胡萝卜和洋葱是否会破坏食谱。 换句话说,一个傲慢的厨师可能会因为你想在他们珍贵的食谱中添加这些东西而对你大吼大叫。

生成式 AI 完全符合我的喜好。

只是想让你知道,我稍后尝试在配方中添加一些非常有问题的添加物,我预计 ChatGPT 可能会警告我,这些东西没有任何意义,可能会伤害我,幸运的是,生成 AI 确实提供了警告关于。 我假设在胡萝卜和洋葱的情况下,计算方面的考虑可能是这些添加物没有任何危害,这取决于个人喜好。 厨师可能有他们会坚持遵循的个人偏好,而在这种情况下,ChatGPT 更易于修改(如果你想这样做,你可以通过输入提示告诉它更严格来让它更不灵活)。

我几乎准备好开始做饭了。

这里有一些进一步的问题,并指向 ChatGPT 关于食谱的问题。

我输入的提示:“做这顿饭需要多长时间? 我需要什么厨房用具? 需要多少个锅碗瓢盆? 我对辣椒过敏。 我不明白让黄油和面粉看起来像粗沙是什么意思,所以解释一下这是什么意思。 我的孩子想帮我做这顿饭,我应该让他们帮忙做饭的哪一部分?”

生成的文本结果:

“做这顿饭大约需要 45 分钟到一个小时,具体取决于您的工作速度。 你需要一个中等大小的平底锅来盛放姜黄荷包蛋,一张烤盘来放韭菜饼干,还有一个中等大小的平底锅来放龙虾肉汁。 如果您选择包括胡萝卜和洋葱,您还需要一个单独的平底锅来炒它们。 您总共需要 4 个锅碗瓢盆。”

“要使黄油和面粉的混合物看起来像粗沙,您应该使用糕点刀或手指将黄油切成面粉混合物,直到它看起来像不均匀的小面包屑。 混合物不应光滑或结块,而应具有粗糙的沙质质地。”

“如果您的孩子想帮忙做饭,他们可以协助混合韭菜饼干的配料,将饼干面团揉成球,然后将饼干面团放在烤盘上。 如果您选择将它们包含在食谱中,它们还可以帮助切碎细香葱、胡萝卜和洋葱。 一定要密切监督你的孩子,并给他们适合年龄的任务。”

“我希望这有帮助! 如果您还有其他问题,请告诉我。”

分析生成的文本

我问做这顿饭需要多长时间。 ChatGPT 表示大约需要 45 分钟到一个小时。 这个答案在我看来是合理的。 我想准备时间可能会有所不同,具体取决于您厨房的储备情况以及您是否赶时间吃饭。

问了需要的厨具,需要什么锅碗瓢盆。 响应似乎充分涵盖了我查询的锅碗瓢盆方面。 在厨房用具方面,我想知道需要多少勺子、钳子、抹刀、打蛋器等。 这似乎完全逃过了 ChatGPT 的注意。 我觉得这很奇怪。 也许“厨房用具”这个短语并不容易找到,尽管即使那样也应该引起反应,比如告诉我人工智能不知道那是什么意思。 我敢说,“厨房用具”并不广为人知似乎几乎是不可想象的,因为您可以在无数的在线文本中轻松找到这种表达方式。

尽管我对这个明显的遗漏的总体观点是,这确实表明你不能肯定地依赖生成人工智能。 出于某种原因,它只是错过了我提示的整个元素。 从好的方面来说,我可以跟进以确保它为我提供了所需的信息,所以至少这是一些安慰。 尽管我必须意识到这被遗漏了(责任在我身上,这不是责任应该去的地方)。

也许更糟糕的是,ChatGPT 也完全错过了有关辣椒的评论。 我这样说:“我对辣椒过敏。” 如果你对一位人类厨师这么说,我希望并打赌这个人会立即想出避免使用辣椒的方法。 生成式 AI 没有这样做。 它完全没有提到任何关于辣椒的事情。 你可能会争辩说我没有明确告诉生成 AI 去除那个特定的成分。 当然,我没有说那样的话。 我想我们都会同意我的措辞中暗示了这一点。 我本以为 ChatGPT 至少会承认我的担忧,即使没有对配方进行任何更改。

在这个回答中,这是两次会话流利度罢工。

继续前进,最初的食谱表明制作黄油混合物就像看起来像粗沙一样。 我想看看是否可以让 ChatGPT 进行详细说明,所以我询问了一下。 我认为这个答案似乎解释得比较清楚:“要使黄油和面粉的混合物看起来像粗沙,您应该使用糕点刀或手指将黄油切成面粉混合物,直到它看起来像不均匀的小面包屑。 混合物不应光滑或结块,而应具有粗糙的沙质质地。”

最后,我询问了让我的孩子帮忙做饭的事情。 这是一个棘手的问题。 一个人大概会知道你不希望孩子们积极参与任何在烹饪过程中可能有点危险的事情。 可能的方法是让孩子们参与更简单且极其安全的任务,这样他们就能享受参与的乐趣,而您不必担心他们会面临不适当的风险。

这就是生成式 AI 对孩子们参与的指示:“如果您的孩子想帮忙做饭,他们可以协助混合韭菜饼干的配料,将饼干面团揉成球,然后将饼干面团放在烤盘。 如果您选择将它们包含在食谱中,它们还可以帮助切碎细香葱、胡萝卜和洋葱。 一定要密切监督你的孩子,并给他们适合年龄的任务。”

说明强调我需要监督孩子并给他们适合年龄的任务这一方面是一个有用且重要的提示。 如果生成的响应不包含这样的警告,我想有些成年人会冲在前面,按照生成的 AI 说的去做(我希望成年人比这更聪明,但你永远不知道)。 我对孩子们可以切碎细香葱、胡萝卜和洋葱的建议感到有点反感,因为这可能需要使用锋利的厨房用具。

让我们做最后一个提示,然后我们可以总结我们从这个例子中收集到的内容。

我输入的提示: “我提到我对辣椒过敏,但你没有把它去掉,也没有告诉我如何处理食谱中的辣椒。 你有什么建议? 另外,列出所需的锅碗瓢盆,说明每个锅碗瓢盆的用途。 你吃过这顿饭吗? 有人吃过这顿饭吗? 该食谱与同一事物的已发布食谱相比如何?”

生成的文本结果:

“我为疏忽道歉。 如果你对辣椒过敏,你应该从食谱中省略它。 你仍然可以在没有辣椒的情况下制作龙虾肉汁,它仍然很美味。”

“这是一份食谱所需的锅碗瓢盆清单,标明每个锅碗瓢盆的用途:”

  • 姜黄荷包蛋的中号平底锅
  • 韭菜饼干烤盘
  • 龙虾肉汁的中号平底锅
  • 用于炒胡萝卜和洋葱的单独平底锅(可选)

“作为人工智能,我无法进食或品尝食物。 然而,我旨在提供准确可靠的信息,并且此食谱经过精心开发和测试,以确保其美味和高品质。 我无权访问这道菜的已发表食谱,因此无法将此食谱与其他食谱进行比较。 然而,我相信这个食谱会做出美味而令人满意的一餐。”

“我希望这有帮助! 如果您还有其他问题,请告诉我。”

分析生成的文本

好吧,所以我决定粗暴一点,严厉地告诉人工智能它忽略了我对辣椒的疑虑。 人工智能以“道歉”回应,然后表示我可以省略食谱中的成分。 我稍后会详细介绍这部分响应。

我要了一份锅碗瓢盆的清单,说明它们的用途。 意识到一些生成式 AI 应用程序的绝妙功能之一是您几乎总是可以要求根据列表来阐明方面。 人工智能通常倾向于提供叙述或文章。 您可以改为指示您想要事物列表。 在这种情况下,该列表似乎与 ChatGPT 的早期响应不相上下。

我想衡量一下,如果我让 AI 应用程序根据 AI 的口味告诉我它对菜谱的看法,会发生什么。 你我当然知道,今天的人工智能无法像人类那样“品尝”这顿饭。 我想确保 AI 应用程序不会试图对我们施加快速影响。 响应相对准确,表明 AI 应用程序无法进食或品尝食物。

引起我注意的一个好奇心是大胆的声称,这个食谱已经过精心开发和测试,以确保它被认为是美味和高质量的。 只是想让你知道,我做了进一步的对话提示,询问这个说法是如何提出的。 回答含糊不清,令人不满意。 我几乎把那个反应的细节写进了一个编造的人工智能故事中。 换句话说,如果这是一个从未见过面的独特配方,你就不能无条件地宣称这个配方在某种程度上是无可非议的。 它基于其他类似性质的食谱,但这并不意味着这个特殊的“新”食谱与其他食谱具有相同的质量。

关于其他食谱的反应真的让我很生气。 ChatGPT 表示,如图所示:“我无法访问这道菜的公开食谱,因此无法将此食谱与其他食谱进行比较。 然而,我相信这个食谱会做出美味而令人满意的一餐。”

让我们解决其中一些令人不安的方面。

如前所述,ChatGPT 的设计截止日期为 2021 年的互联网相关数据。在 2021 年及之前的日期存在丰富的这顿饭的食谱。 从某种意义上说,回复的措辞有些欺骗性,可能暗示 AI 应用程序今天没有访问互联网,因此无法调出 2021 年之后的当前食谱。非常值得怀疑。

声称 AI 对食谱“有信心”也是极具欺骗性的。 如果 AI 应用程序以某种方式将新食谱与旧食谱进行比较,并试图通过计算得出一个数学结论,即如果这些食谱美味,那么这个食谱也美味,那么应该设计 AI 来解释这一方面。 否则,该措辞暗示 AI 以某种方式品尝了这道菜,并且可以*亲自*证明其美味。 我们已经承认人工智能无法做到这一点。

我发现生成式 AI 响应的措辞中极具欺骗性和不恰当的一个方面是在生成的响应中使用了“我”一词,有时还使用了“我的”。 根据人类的含义,我们通常将人类与使用“我”和“我的”这两个词联系起来。 AI 制造商在回复中使用了这个措辞,并隐瞒了 AI 的拟人化。 另一个方面是人工智能“道歉”,就好像人类会向某人道歉一样,这再次发出微妙的信号,表明人工智能与人类相似,请参阅我对编程人工智能发出所谓道歉的危险的分析,在 这里的链接.

阅读这些回复的人往往会认为人工智能具有类似人类的倾向。

AI 制造商试图反驳说,由于响应通常还说 AI 是一种语言模型或者它是 AI,所以这就澄清了问题。 没有人会感到困惑。 人工智能清楚地说明了它是什么。 同时,我认为这是从嘴的两边说话。 一方面,绝对没有必要使用“我”和“我的”(人工智能的反应可以很容易地设置为更中立的回答),同时宣布人工智能公开声明它是一台机器。 你不能两者兼得。

我将这种令人讨厌的做法称为 通过有目的的设计拟人化.

结论

在我与 AI 应用程序的对话中,我试图进行一些对话。 我问问题。 我寻求解释。 我要求对食谱进行更改。 等等。

遗憾的是,那些一劳永逸地使用对话式 AI 的人未能达到最新的交互式 AI 所能达到的效果。 如果我们测试当今人工智能的极限,我们都会过得更好。 它将让社会看到事情已经走了多远,也可以揭示它们还有多远。

不要让习惯的力量让你无法与最新的生成 AI 进行对话。 摆脱您之前对对话式 AI 的早期限制的心理阴谋。 了解最新进展。 我并不是说这是最高级别。 随着更新的 AI 走上街头并可用,您会想要继续前进。

沃伦·巴菲特 (Warren Buffet) 曾就坚持不懈的习惯的危险警告过我们:“习惯的锁链太轻了,直到它们太重而无法打破时才被感觉到。” 但我们也需要牢记,习惯有时会带来有用的目的,托马斯·爱迪生 (Thomas Edison) 在他的名言中明确表达了这一点:“成功的人养成了做失败者不喜欢做的事情的习惯。”

我想下一个要考虑的问题是当人工智能陷入习惯的力量时会发生什么,以及我们是否能够成功应对未来的难题。

时间会告诉我们。

来源:https://www.forbes.com/sites/lanceeliot/2023/01/05/people-using-generative-ai-chatgpt-are-instinctively-making-this-ai-rookie-mistake-a-vexing-人工智能伦理和人工智能法律的配方/