深入探讨生成式 AI ChatGPT 的嗡嗡声和大张旗鼓,包括迫在眉睫的 AI 伦理和 AI 法律注意事项

我猜你现在已经听说过,或者可能看到过引人注目的新闻头条或社交媒体帖子,宣传人工智能的最热门和最新用途,这些人工智能通过称为 ChatGPT 的人工智能应用程序生成看似人类编写的面向文本的叙述。

如果您还没有听说过或读过这个新的 AI 应用程序,请不要担心,我会带您快速了解。

对于那些已经了解 ChatGPT 的人,您可能会对我在本文中关于它的作用、工作原理以及注意事项的一些内幕消息产生浓厚的兴趣。 总而言之,几乎所有关心未来的人都不可避免地想知道为什么每个人都对这个 AI 应用程序如此热衷。

需要澄清的是,普遍的预测是这种类型的人工智能将改变生活,包括那些对 ChatGPT 或任何其他此类人工智能功能一无所知的人的生活。 正如我即将解释的那样,这些人工智能应用程序将以我们才刚刚开始预期的方式产生相当广泛的影响。

准备好乘坐过山车 生成式人工智能.

我将从有关生成 AI 的一些关键背景开始,并使用涉及生成艺术的 AI 的最简单场景。 在带您完成该基础之后,我们将跳入生成面向文本的叙述的生成 AI。

关于我对 AI 的持续广泛报道,包括 AI 伦理和 AI 法律,请参阅 这里的链接这里的链接,仅举几例。

生成生成艺术的生成 AI

我将这种类型或风格的 AI 称为 生成的 这是 AI 爱好者的术语,用于描述生成文本、图像、视频等输出的 AI。

今年早些时候,您可能已经注意到,通过输入一两行文本即可生成艺术图像的热潮不断涌现。 这个想法很简单。 你使用了一个 AI 应用程序,它允许你输入一些你选择的文本。 例如,您可能会输入想要查看在烟囱顶上戴着帽子的青蛙会是什么样子。 然后,AI 应用程序会解析您的文字并尝试生成与您指定的文字基本匹配的图像。 人们非常喜欢生成各种图像。 一段时间以来,社交媒体上充斥着它们。

生成式 AI 如何进行生成方面的工作?

对于生成式 AI 的文本到艺术风格,大量在线艺术通过计算机算法进行预扫描,并针对所涉及的组件对扫描艺术的元素进行计算分析。 设想一张在线图片,里面有一只青蛙。 想象另一个单独的图像,里面有一个烟囱。 还有一张照片里有一顶帽子。 这些组件是通过计算来识别的,有时无需人工协助,有时则需要人工指导,然后形成一种数学网络。

当你稍后出现并要求生成一个艺术作品,其中有一只青蛙和一顶帽子在烟囱上时,AI 应用程序使用数学网络来查找并拼凑这些元素。 由此产生的艺术形象可能会或可能不会以您希望的方式出现。 也许这只青蛙长得很丑。 这顶帽子可能是一顶大的瘦腿帽,但你想要一顶更苗条的德比帽。 与此同时,青蛙形象正站在烟囱上,尽管你正试图让青蛙坐下来。

这些人工智能应用程序的妙处在于,它们通常允许您重复您的请求,并且如果您愿意,还可以添加额外的规范。 因此,您可能会重复您的请求并表明您想要一只坐在烟囱上的戴着礼帽的漂亮青蛙。 瞧,新生成的图像可能更接近你想要的。

有些人想知道人工智能是否只是在精确地反刍它所接受的训练。 答案是否定的(通常)。 AI 根据您的要求展示的青蛙图像不一定与训练集中的同类图像完全相同。 这些生成式 AI 应用程序中的大多数都被设置为概括它们最初找到的任何图像。 这样想。 假设您收集了一千张青蛙图像。 你可能会选择逐渐弄清楚青蛙的样子,把你找到的一千张图片拼凑在一起。 因此,您最终绘制的青蛙不一定与您用于训练目的的青蛙完全相同。

话虽如此,人工智能算法有可能不会像假设的那样进行泛化。 如果有独特的训练图像而没有其他类似的图像,则可能是人工智能“概括”了相当接近它接收到的唯一特定实例。 在这种情况下,算法稍后会尝试生成所请求的那种性质的图像,看起来与训练集中的任何图像都非常相似。

我会暂停一下,提出一些与 AI 伦理和 AI 法律相关的想法。

如前所述,如果生成人工智能是在互联网上训练的,这意味着互联网上公开发布的任何内容都可能被人工智能算法利用。 假设你有一件漂亮的艺术品,你辛辛苦苦创作出来的,并且相信你拥有这件艺术品的权利。 你把它的照片发到网上。 任何想要使用您的作品的人都应该来找您并为此支付费用。

您可能已经感觉到它的发展方向。

坚持下去等待坏消息。

因此,通过广泛检查 Internet 上的内容接受训练的生成式 AI 应用程序可以检测到您的奇妙艺术品。 你的艺术作品的图像被吸收到人工智能应用程序中。 您的艺术特征现在正以数学方式与其他扫描的艺术品相结合。 在被要求生成一件艺术品时,AI 可能会在创作新生成的艺术图像时利用您的作品。 那些获得艺术品的人可能没有意识到,从某种意义上说,艺术品上到处都是你的特定指纹,因为人工智能算法已经在你的杰作上留下了一些印记。

还有一种可能是,如果您的艺术作品非常独特,它可能会被 AI 应用程序重复使用,以更好地展示艺术性。 因此,有时您的艺术作品可能在一些新生成的 AI 艺术作品中几乎无法辨认,而在其他情况下,生成的艺术作品可能几乎是您所猜想的图像。

现在是时候将 AI 伦理引入这种情况了。

生成式 AI 生成的艺术作品与您的艺术有相似之处,这在伦理上是否恰当或合适?

有人说是,有人说不是。

是的阵营认为这在道德上是完全正确的,他们可能会争辩说,既然你把你的作品发布到了网上,它就对任何想要复制它的人或任何东西开放。 此外,他们可能会声称新艺术不是您作品的精确复制品。 因此,你不能抱怨。 如果我们以某种方式停止对现有艺术的所有再利用,我们将永远不会看到任何新艺术。 另外,我们可能会就您的特定艺术作品是否被复制或利用展开激烈辩论——它可能是您甚至不知道存在的其他艺术作品,实际上是潜在来源。

反对阵营会强烈坚持认为这是非常不道德的。 没有两种方法。 他们会争辩说你被敲诈了。 仅仅因为您的作品发布在网上并不意味着任何人都可以随意复制它。 也许您在发布艺术作品时带有严厉警告不要复制它。 与此同时,人工智能出现并剥离了艺术并完全跳过了警告。 离谱! 人工智能算法已经泛化并且没有做精确复制的细节的借口似乎是那些假借口之一。 它想出了如何利用你的艺术才能,这是一个骗局和耻辱。

这种生成人工智能的法律方面如何?

关于生成式 AI 的法律细节有很多令人费解的地方。 您是否查阅有关知识产权 (IP) 权利的联邦法律? 那些刺耳到足以申请吗? 当生成式 AI 跨越国际边界收集训练集时呢? 人工智能生成的艺术品是否属于与知识产权相关的各种排他性类别? 等等。

一些人认为,我们需要新的人工智能相关法律来专门应对这些生成人工智能的情况。 与其试图硬塞现有的法律,不如制定新的法律更清晰、更容易。 此外,即使现行法律适用,尝试提起法律诉讼的成本和延误也可能是巨大的,并且在您认为自己受到不公平和非法伤害时阻碍您继续前进的能力。 有关我对这些主题的报道,请参阅 这里的链接.

我将为这些 AI 伦理和 AI 法律考虑因素添加额外的转折。

谁拥有 AI 生成输出的权利?

你可能会说开发人工智能的人应该拥有这些权利。 并非所有人都同意这样的论点。 你可能会说 AI 拥有这些权利,但这与我们通常不承认 AI 能够拥有这些权利的事实相混淆。 在我们弄清楚人工智能是否具有法人资格之前,这方面的事情是不确定的,请参阅我的分析 这里的链接.

我相信您现在对生成式 AI 的功能有所了解。 接下来我们可以继续考虑涉及生成基于文本的叙述的用例。

生成基于文本的叙述的生成式 AI

现在我们已经讨论了使用生成式 AI 来制作艺术或图像,我们可以很容易地研究相同的通用公式来制作基于文本的叙述。

让我们从我们都知道并倾向于每天使用的东西开始。 当您在文字处理包或电子邮件应用程序中输入文本时,很可能会有一个自动更正功能试图捕捉您的任何拼写错误。

一旦这种自动辅助功能变得普遍,下一个更高级的方面就是自动完成功能。 对于自动完成,其概念是当您开始写一个句子时,文字处理或电子邮件应用程序会尝试预测您接下来可能输入的单词。 它可能只预测前面的一两个词。 如果能力得到特别增强,它可能会预测整个句子的其余部分。

我们可以把它推向高潮。 假设你开始写一个句子,自动完成生成了整个段落的其余部分。 瞧,你不必直接写段落。 相反,该应用程序会为您这样做。

好吧,这看起来很漂亮。 进一步推动这一点。 你开始一个句子,自动完成组成你整个信息的其余部分。 这可能包含许多段落。 所有这些都是通过您输入句子的一部分或一两个完整的句子生成的。

自动完成如何确定您接下来可能输入的内容?

事实证明,人类倾向于一遍又一遍地写同样的东西。 也许你不知道,但关键是无论你写什么,都可能是其他人已经写过的东西。 它可能不完全是你打算写的。 相反,它可能有点类似于您要写的内容。

让我们使用与生成艺术或图像相同的逻辑。

通过访问互联网并检查在线世界中存在的各种文本来准备生成式 AI 应用程序。 该算法试图通过计算识别单词与其他单词的关系、句子与其他句子的关系以及段落与其他段落的关系。 所有这些都经过数学建模,并建立了一个计算网络。

接下来会发生什么。

您决定使用专注于生成基于文本的叙述的生成式 AI 应用程序。 启动应用程序后,您输入一个句子。 AI 应用程序通过计算检查您的句子。 您输入的单词之间的各种数学关系在数学网络中用于尝试确定接下来会出现什么文本。 从你写的一行中,可能会生成一个完整的故事或叙述。

现在,您可能会认为这是猴子看猴子做的事,生成式 AI 生成的结果文本将毫无意义。 好吧,你会惊讶于这种 AI 的调整程度。 有了足够大的训练数据集,以及足够多的计算机处理来广泛地处理它,生成式 AI 产生的输出可能会令人印象深刻。

你会看到输出并可能发誓生成的叙述肯定是由人类直接编写的。 就好像你的句子被交给了一个躲在幕后的人,他们很快就给你写了一个完整的叙述,几乎完全符合你原本要说的内容。 这就是数学和计算基础变得多么好。

通常,当使用生成基于文本的叙述的生成式 AI 时,您倾向于提供一个起始问题或某种断言。 例如,您可以输入“告诉我关于北美的鸟类”,生成式 AI 会认为这是一个断言或问题,然后该应用程序将通过任何经过训练的数据集寻求识别“鸟类”和“北美”它有。 我相信您可以想象,互联网上存在大量描述北美鸟类的文本,AI 在预训练期间从中提取文本存储并对其建模。

为您生成的输出不太可能是任何特定在线站点的精确文本。 回想一下前面提到的关于生成的艺术作品的相同内容。 文本将是在数学和计算上联系在一起的各种、位和片段的组合。 生成的基于文本的叙述对于所有整体外观来说似乎是独一无二的,就好像这个特定的文本之前从未被任何人编写过一样。

当然,可以有明显的线索。 如果您要求或让生成式 AI 进入极其晦涩的主题,则您更有可能看到类似于所用来源的文本输出。 在文本的情况下,虽然机会通常低于艺术。 文本将是主题细节的组合,但也会与整个话语中使用的一般文本类型模糊和融合。

用于这些生成式 AI 功能的数学和计算技巧和技术通常被 AI 业内人士称为大型语言模型 (LLM)。 简单地说,这是在大规模基础上对人类语言进行建模。 在 Internet 出现之前,您很难找到一个非常庞大的在线文本数据集,而且价格低廉。 您可能不得不购买对文本的访问权限,而且它不一定已经以电子或数字格式提供。

你看,互联网有一些好处,即成为训练生成人工智能的现成资源。

敏锐地思考生成文本的生成人工智能

我们应该花点时间思考一下生成基于文本的叙述的生成式 AI 对 AI 伦理和 AI 法律的影响。

请记住,在生成艺术的情况下,我们担心基于其他人类创作的艺术作品创作艺术的 AI 算法的道德规范。 基于文本的实例也出现了同样的问题。 即使生成的文本看起来与原始来源不完全一样,您也可以争辩说,尽管如此,AI 正在利用文本并且原始制作者正在被剥夺。 硬币的另一面是,互联网上的文本如果免费提供,任何人都可以使用它来做同样的事情,因此,为什么不允许人工智能做同样的事情呢?

在基于文本的生成 AI 实例中,与知识产权法律方面相关的复杂性也凸显出来。 假设被训练的文本是受版权保护的,你会说生成的文本侵犯了这些合法权利吗? 一个答案是是,另一个答案是不是。 意识到生成的文本可能与原始文本相去甚远,因此您可能很难声称原始文本被盗用了。

另一个已经提到的问题是生成人工智能对生成的基于文本的叙述的所有权。 假设你在 AI 中输入“写一个关于人们排队等候喝咖啡的有趣故事”,然后生成式 AI 生成一页又一页的搞笑故事,讲的是一群人在等一杯咖啡时碰巧遇到的故事。爪哇。

谁拥有那个故事?

你可能会争辩说,既然你输入了提示,你就应该“拥有”生成的故事。 哇,有些人会说,人工智能是故事的生成方式,因此人工智能“拥有”这个令人愉快的故事。 哎呀,其他人会劝告,如果人工智能从互联网上各种其他类似故事中摘取点点滴滴,那么所有这些人类作家都应该分享所有权。

此事尚未解决,我们现在正进入一个法律泥潭,这个泥潭将在未来几年内发挥作用。

还有其他人工智能伦理和人工智能法律的担忧。

一些一直在使用生成式 AI 应用程序的人开始相信 AI 应用程序是有感觉的。 一定是,他们惊呼。 您还能如何解释人工智能能够产生的惊人答案和故事? 我们终于实现了有感知力的人工智能。

他们完全错了。

这不是有知觉的人工智能。

当我这么说时,人工智能的一些内部人士感到不安,并且表现得好像任何否认人工智能有知觉的人同时都在说人工智能一文不值。 这是一个虚假和错误的论点。 我公开同意这种生成式 AI 非常令人印象深刻。 我们可以将它用于各种目的,正如我将在本文后面提到的那样。 尽管如此,它并不是有意识的。 关于为什么这些 AI 突破不是在感知方面的解释,请参阅 这里的链接.

另一种夸张且明显错误的说法是,生成式人工智能已成功赢得图灵测试。

它肯定有 不能 这样做了。

图灵测试是一种确定人工智能应用程序是否能够与人类相提并论的测试。 最初由伟大的数学家和计算机先驱艾伦图灵设计的模拟游戏,测试本身很简单。 如果你把一个人放在一个窗帘后面,把一个 AI 应用程序放在另一个窗帘后面,你问他们两个问题,你无法确定哪个是机器哪个是人,那么 AI 将成功通过图灵测试。 关于我对图灵测试的深入解释和分析,请看 这里的链接.

那些口口声声叫嚷着生成式人工智能已经通过图灵测试的人根本不知道自己在说什么。 他们要么不知道图灵测试是什么,要么遗憾地以错误和完全误导的方式炒作人工智能。 无论如何,关于图灵测试的重要考虑因素之一包括要问什么问题,以及谁在提问,以及评估答案是否符合人类的水平。

我的观点是,人们正在向生成式 AI 输入十几个问题,当答案看起来合理时,这些人就轻率地宣布图灵测试已经通过。 同样,这是错误的。 输入一组脆弱的问题并在这里做一些戳,既没有图灵测试的意图也没有精神。 停止提出这些不光彩的主张。

这是一个你很少听到的合理的抱怨,尽管我相信它非常有价值。

AI 开发人员通常会设置生成 AI,使其像人类一样做出响应,即在组合输出时使用“我”或“我”的措辞。 例如,当要求讲述一只狗在树林里迷路的故事时,生成式 AI 可能会提供这样的文字:“我会告诉你所有关于一只名叫 Sam 的狗在树林里迷路的故事。 这是我最喜欢的故事之一。”

请注意,措辞是“我会告诉你……”,而且这个故事是“我最喜欢的……”,因此阅读此输出的任何人都会巧妙地陷入将 AI 拟人化的心理陷阱。 拟人化包括人类试图将类似人类的特征和人类情感分配给非人类。 你被哄骗相信这个人工智能是人类或类人类,因为输出中的措辞是故意这样设计的。

这不必以那种方式设计。 输出可能会说“这是一个关于一只名叫 Sam 的狗在树林里迷路的故事。 这是一个受欢迎的故事。” 你不太可能立即假设人工智能是人类或类人类。 我知道你可能仍然会落入那个陷阱,但至少陷阱不像以前那么明显了。

简而言之,您拥有生成式 AI,它可以根据人类的写作方式生成基于文本的叙述,并且生成的输出看起来就像人类写的东西一样。 这很有意义,因为人工智能在数学和计算上都在模仿人类所写的内容。 现在,再加上拟人化措辞的使用,你就会得到一场完美的风暴,让人们相信人工智能是有感知力的,或者已经通过了图灵测试。

出现了许多人工智能伦理和人工智能法律问题。

我会用这种生成式 AI 的相当危险的后果来打击你。

坐下来。

所产生的基于文本的叙述不一定遵守真实性或准确性。 重要的是要认识到,生成式 AI 并不“理解”正在生成的内容(不是以任何与人类相关的方式,有人会争辩说)。 如果训练中使用的文本包含虚假信息,那么这些虚假信息很可能会被加工到生成式 AI 数学和计算网络中。

此外,生成式人工智能通常没有任何数学或计算手段来辨别生成的文本是否包含虚假信息。 当您查看生成的输出叙述时,叙述通常在事物表面上看起来完全“真实”。 您可能没有可行的方法来检测叙述中是否嵌入了谎言。

假设你问一个生成人工智能的医学问题。 人工智能应用程序会产生冗长的叙述。 想象一下,大部分的叙述都是有道理的,而且看起来很合理。 但是,如果您不是医学专家,您可能不会意识到叙述中存在一些重要的谎言。 也许文字告诉你在两小时内服用五十粒,而实际上,真正的医学建议是在两小时内服用两粒。 你可能会相信声称的五十粒药丸的建议,只是因为其余的叙述似乎是合理和明智的。

在原始源数据中使用 AI 模式来判断谎言只是让 AI 在这些叙述中歪曲的一种方法。 根据所使用的数学和计算网络,人工智能将尝试“编造”东西。 用 AI 的说法,这被称为 AI 幻觉的,这是一个可怕的术语,我强烈反对并认为不应继续作为流行语,请参阅我的分析 这里的链接.

假设您要求生成式 AI 讲一个关于狗的故事。 人工智能最终可能会让狗能够飞翔。 如果你想要的故事应该基于现实,那么飞狗似乎不太可能。 你我都知道狗天生不会飞。 没什么大不了的,你说,因为每个人都知道这一点。

想象一下学校里的一个孩子正在尝试了解狗。 他们使用生成式人工智能。 它产生的输出表明狗会飞。 孩子不知道这是不是真的,并认为这一定是真的。 从某种意义上说,这就像孩子去了一本在线百科全书,上面说狗会飞。 孩子也许从此以后会坚持认为狗确实会飞。

回到 AI 伦理和 AI 法律难题,我们现在即将能够通过使用生成 AI 来制作几乎无限量的基于文本的内容,我们将被无数的叙述淹没无疑充满了谎言和其他相关的虚假信息和错误信息。

是的,只需按一下按钮,将几个词输入到生成式 AI 中,您就可以生成大量看似完全合理且真实的文本叙述。 然后,您可以在线发布此信息。 其他人会阅读材料并假设它是真实的。 最重要的是,其他试图接受文本训练的生成 AI 可能会遇到这种材料,并将其包装到它正在设计的生成 AI 中。

就好像我们现在正在添加类固醇来产生虚假信息和错误信息。 我们正朝着巨大的银河全球范围内的虚假信息和错误信息迈进。

生产这一切不需要太多的人力。

生成式 AI 和 ChatGPT

让我们来看看关于生成 AI 的讨论的头条新闻。 我们现在已经介绍了生成式 AI 的本质,它总体上会生成基于文本的叙述。 有许多这样的生成式 AI 应用程序可用。

其中一个特别臭名昭著的人工智能应用程序被称为 ChatGPT。

一场公关政变在社交媒体和新闻中引起了轩然大波——ChatGPT 现在正获得所有的荣耀。 ChatGPT 灯火通明。 它正在获得惊人的五分钟成名。

ChatGPT 是由名为 OpenAI 的实体开发的生成式 AI 应用程序的名称。 OpenAI在人工智能领域相当有名,可以说是一个人工智能研究实验室。 在涉及自然语言处理 (NLP) 的 AI 以及其他 AI 进步方面,他们以挑战极限而著称。 他们一直在着手开发一系列 AI 应用程序,这些应用程序被称为 GPT(生成式预训练变形金刚)。 每个版本都有一个编号。 我之前写过关于他们的 GPT-3(他们的 GPT 系列的第 3 版)的文章,请参阅 这里的链接.

GPT-3 首次发布时受到了相当多的关注(它在大约两年前进行了广泛的 Beta 测试,并在 2022 年更广泛地提供)。 这是一个生成式 AI 应用程序,在输入提示后将生成或生成基于文本的叙述。 我之前提到的关于生成 AI 应用程序的一般情况的所有内容基本上都适用于 GPT-3。

长期以来一直有传言说 GPT-4 正在进行中,人工智能领域的人们一直在屏息等待,看看 GPT-4 与 GPT-3 相比有哪些改进或增强。 在这个系列中出现了最新的中间版本,称为 GPT-3.5。 是的,你没看错,它介于已发布的 GPT-3 和尚未发布的 GPT 4.0 之间。

OpenAI 使用他们的 GPT-3.5 创建了一个他们命名为 ChatGPT 的分支。 据说他们对制作 ChatGPT 做了一些特殊的改进。 例如,浮出水面的概念是 ChatGPT 是为能够以聊天机器人的方式工作而量身定制的。 这包括您与 AI 应用程序的“对话”,由 AI 跟踪并用于生成随后请求的叙述。

许多生成式 AI 应用程序往往是一次性设计。 你输入一个提示,人工智能生成一个叙述,就是这样。 您的下一个提示与接下来发生的事情无关。 每次输入提示时,就好像您重新开始一样。

ChatGPT 的情况并非如此。 以一种尚未公开的方式,AI 应用程序会尝试检测您的提示中的模式,因此看起来对您的请求响应更快(此 AI 应用程序被认为 公开访问 由于允许任何人注册使用它,但它仍然是 所有权 并且果断地 不能 公开其内部工作原理的开源 AI 应用程序)。 例如,回想一下我之前提到的你想在烟囱上看到一只戴帽子的青蛙。 一种方法是每次你提出这样的要求,一切都重新开始。 另一种方法是你可以继续你之前说过的话。 因此,您也许可以告诉 AI 您想让青蛙坐下,这本身是没有意义的,而在您之前提示要求在烟囱上放一只带帽子的青蛙的情况下,这个要求似乎是有道理的。

您可能想知道为什么 ChatGPT 突然间似乎进入了全盛时期。

部分原因是 ChatGPT 可供任何想注册使用的人使用。 过去,对于谁可以使用新推出的生成式 AI 应用程序,通常会有选择性标准。 供应商会要求你是 AI 内部人士,或者可能有其他规定。 ChatGPT 并非如此。

消息迅速传开,ChatGPT 非常易于使用,免费使用,并且可以通过简单的注册来使用,只需要您提供一个电子邮件地址。 ChatGPT 应用程序就像快速火力一样,突然间被社交媒体上的病毒式帖子激起或刺激,据说用户超过了 XNUMX 万。 新闻媒体强调了百万人注册 ChatGPT 的方面。

虽然这当然是值得注意的,但请记住这些注册的背景。 它免费且易于注册。 该聊天机器人非常易于使用,无需事先培训或经验。 您只需输入自己选择的提示和措辞,然后 AI 应用程序 shazam 就会提供生成的叙述。 一个孩子可以做到这一点,这实际上是一些人担心的问题,即如果孩子正在使用 ChatGPT,他们是否会学习有问题的材料(根据我之前在本文中关于此类问题的观点)?

此外,也许值得注意的是,这百万注册中的一些(很多?)是可能想要踢轮胎并且什么都不做的人。 他们很快创建了一个帐户,玩了一会儿 AI 应用程序,觉得这很有趣也很令人惊讶,然后也许发布了一些社交媒体帖子来展示他们的发现。 之后,他们可能再也不会登录,或者至少只有在出现特殊需求时才会使用 AI 应用程序。

其他人还指出,ChatGPT 推出的时间恰逢一年中对人工智能应用程序产生极大兴趣的时间。 也许在假期里,我们有更多的时间去玩一些有趣的东西。 社交媒体的出现也将其推向了一种现象。 经典的 FOMO(害怕错过)可能增加了混乱的匆忙。 当然,如果您将 XNUMX 万与一些受欢迎的 YouTube 影响者进行比较,您可能会认为与那些在首次发布或发布时获得数亿注册或观看的视频博客相比,XNUMX 万是一个微不足道的数字。

好吧,我们不要离题,请注意,对于一个实验性质的 AI 应用程序来说,百万注册量当然值得吹嘘。

人们立即使用 ChatGPT 来创建故事。 然后他们发布了这些故事并滔滔不绝地讲述了其中的奇迹。 记者和新闻记者甚至一直在对 ChatGPT 进行“采访”,这有点令人不安,因为他们陷入了同样的拟人化陷阱(无论是实际上没有意识到,还是希望通过他们的文章获得过大的观点)。 直接的趋势也是宣布人工智能现在已经达到感知或通过了图灵测试,我在本文前面已经明确评论过这一点。

ChatGPT 引起的社会关注实际上已经渗透到早期版本的 GPT 以及大量的 LLM 和已经可用的生成 AI 中。 不同的是,现在整个世界都选择了插话。这很方便。 我们需要确保人工智能伦理和人工智能法律得到应有的曝光和关注。 如果需要 ChatGPT 才能让我们到达那里,那就这样吧。

表达了什么样的担忧?

以学生被要求为他们的班级写论文为例。 学生通常应该完全根据自己的写作和作文能力来写一篇论文。 当然,他们可能会查看其他书面材料以从中获取想法和引述,但学生被认为是根据自己的想法编造他们的文章。 从其他来源复制散文是不受欢迎的,通常会导致 F 级或可能因剽窃其他材料而被开除。

如今,这就是可能发生的事情。 一名学生注册了 ChatGPT(或任何其他类似的生成式 AI 应用程序)。 他们输入老师给他们的任何提示以得出一篇文章。 ChatGPT 根据提示生成一篇完整的文章。 它是“原创”作品,因为您不一定能在其他任何地方找到它。 您无法证明该作文被抄袭,因为从某种意义上说,它没有被抄袭。

学生上交论文。 他们声称这是他们自己的书面作品。 老师没有现成的方法可以不这么想。 话虽这么说,但您可能会想到,如果书面作业似乎超出了学生现有的能力范围,您可能会产生怀疑。 但是,如果您要指控学生作弊,那就没什么好说的了。

教师将如何应对这种情况?

有些人在他们的教学材料中规定了任何使用 ChatGPT 或类似工具的行为都将被视为作弊。 此外,不承认使用 ChatGPT 或同等产品也是一种作弊。 这会减少这个新机会吗? 据说这是值得怀疑的,因为被抓到的几率很低,而在一篇写得很好的论文上获得好成绩的机会很高。 您可能会设想,学生在截止日期前写一篇文章,而在前一天晚上,他们会很想使用生成式 AI 来帮助他们摆脱困境。

换档,任何类型的写作都可能成为 打乱 通过生成人工智能。

你是否被要求在工作中写一份关于这件事或另一件事的备忘录? 不要从头开始这样做浪费你的时间。 使用生成式 AI。 然后,您可以将生成的文本剪切并粘贴到您的作品中,根据需要优化文本,轻松完成繁重的写作工作。

这看起来合适吗?

我敢打赌,大多数人都会说是的。 这甚至比从 Internet 上复制某些东西要好,后者可能会让您因剽窃而陷入热水。 使用生成式人工智能让您的写作工作部分完成,甚至可能完全为您完成,意义重大。 这就是工具的用途。

顺便说一句,在我的下一个专栏中,将仔细研究在从事律师类型的工作和制作法律文件的意义上将生成人工智能用于法律目的的用例。 任何律师或法律专业人士都想考虑生成式人工智能将如何潜在地根除或颠覆法律实践。 例如,考虑一名律师为法庭案件撰写法律摘要。 他们可能会使用生成式 AI 来编写作文。 当然,它可能有一些缺陷,因此律师必须在这里或那里进行调整。 减少制作简报的劳动量和时间可能会使调整非常值得。

不过,有些人担心法律文件可能包含律师没有发现的谎言或 AI 幻觉。 这种扭曲的观点是,这是在律师的肩上。 他们大概是在表示简报是他们写的,因此,无论是初级助理写的还是 AI 应用程序写的,他们仍然对最终内容负最终责任。

如果非律师开始使用生成人工智能为他们做法律工作,这会变得更具挑战性。 他们可能认为生成式人工智能可以生成各种法律文件。 当然,麻烦在于这些文件可能不具有法律效力。 我将在我即将发布的专栏中详细介绍这一点。

关于社会和人类写作行为的重要经验法则正在出现。

这有点重要:

  • 每当你接到写东西的任务时,你应该从头开始写,还是应该使用生成式 AI 工具来完成?

输出可能不完整,您需要进行大量重写。 或者输出可能是正确的,你只需要做一些小的修饰。 总而言之,如果使用是免费且容易的,那么使用生成式 AI 的诱惑将是巨大的。

一个好处是您可以使用生成式 AI 来进行一些重写。 类似于关于戴帽子的青蛙和烟囱的提示,在创作艺术时,你可以在生成基于文本的叙述时做同样的事情。 AI 可能会为您制作关于狗的故事,而您却决定要主角是一只猫。 获得狗的故事后,您输入另一个提示并指示 AI 应用程序切换到在故事中使用猫。 这可能不仅仅是简单地以“猫”这个词取代叙述中的“狗”这个词。 人工智能应用程序可以很容易地改变故事,以参考猫的行为与狗的行为。 整个故事可能会被修改,就好像你要求一个人进行这样的修改一样。

强大,令人印象深刻,方便花花公子。

需要仔细考虑的一些注意事项:

  • 我们会集体失去写作能力,变得完全依赖生成式人工智能为我们写作吗?
  • 以写作为生的人会失业吗(对艺术家的询问也是如此)?
  • 随着生成的叙述在网上泛滥成灾,我们再也无法分辨真假,互联网是否会实现突飞猛进的发展?
  • 人们是否会坚信这些生成的叙述,并表现得好像权威人物给了他们可以依赖的真实材料,包括可能与生死相关的内容?
  • 其他名称

考虑一下。

请注意,其中一个要点涉及在生死攸关的基础上依赖生成式人工智能生成的材料。

这是一个让你心碎的消息(触发警告,你可能想跳过这一段)。 想象一下,一个青少年问一个生成式人工智能,他们是否应该消灭自己。 生成式 AI 应用程序会生成什么? 你自然会希望 AI 应用程序会产生一个叙述说不要这样做,并大声敦促询问者寻求心理健康专家。

AI 可能不会提及这些方面。 更糟糕的是,人工智能应用程序可能早些时候在互联网上捕获了可能鼓励采取此类行动的文本,而人工智能应用程序(因为它没有人类的理解能力)吐出一段基本上暗示或直截了当地说青少年应该继续的叙述未受阻的。 少年认为这是来自网络权威“人工智能”系统的真实引导。

坏的东西。

真的,非常糟糕的东西。

一些生成式 AI 的开发人员正试图在 AI 中进行制衡,以防止此类情况的发生。 问题是,提示的措辞方式可能会溜过编程的护栏。 同样,对于产生的输出也可以这样说。 目前还没有任何一种可靠的铁定过滤可以确保这种情况永远不会发生。

您可能没有预料到这种基于文本的制作还有另一个角度。

在这里。

当程序员或软件开发人员为他们的软件创建代码时,他们实际上是在用文本编写。 文本有点神秘,因为它是基于为特定编程语言定义的语言,例如 Python、C++、Java 等。归根结底,它是文本。

然后在计算机上编译或运行源代码。 开发人员检查他们的代码,看看它是否在做它应该做的事情。 他们可能会更正或调试代码。 如您所知,程序员或软件工程师的需求量很大,而且他们的工作成果往往要价很高。

对于生成式 AI,源代码的文本是文本。 在 Internet 上和各种存储库中可用的无数代码行中找到模式的能力提供了一种多汁的方式来从数学和计算上弄清楚什么代码似乎在做什么。

问题是这个。

有了提示,您就可以让生成式 AI 为您生成整个计算机程序。 无需费心编写代码。 你可能听说过有所谓的 低码 现在可用的工具可以减少程序员编写代码时的工作量。 生成式人工智能可能被解释为 低码 甚至 无代码 选项,因为它会为您编写代码。

在你们这些以编写代码为生的人倒在地上晕倒之前,请记住,代码并不是以您作为人类大概理解它的方式“理解”的。 此外,该代码可能包含虚假信息和 AI 幻觉。 依赖这样的代码而不进行广泛的代码审查似乎是有风险和有问题的。

关于故事和备忘录的写作,我们又回到了同样的考虑。 也许方法是使用生成式 AI 让您参与编码工作。 虽然有相当大的权衡。 您是直接编写代码更安全,还是处理 AI 生成的可能存在隐蔽且难以检测的嵌入式问题的代码?

时间会告诉我们。

简要了解 ChatGPT

当您开始使用 ChatGPT 时,会显示一系列注意事项和信息性注释。

让我们快速浏览一下它们:

  • “可能偶尔会产生不正确的信息。”
  • “可能偶尔会产生有害的指令或有偏见的内容。”
  • “受过拒绝不当请求的培训。”
  • “我们的目标是获得外部反馈,以改进我们的系统并使它们更安全。”
  • “虽然我们有适当的保护措施,但系统可能偶尔会产生不正确或误导性的信息,并产生令人反感或有偏见的内容。 它不是为了提供建议。”
  • “我们的人工智能培训师可能会审查对话,以改进我们的系统。”
  • “请不要在谈话中分享任何敏感信息。”
  • “该系统针对对话进行了优化。 让我们知道某个特定的反应是好是坏。”
  • “对 2021 年后的世界和事件的了解有限。”

限于篇幅,我不能在这里详细介绍,但至少让我们快速分析一下。

我已经提到,生成的文本叙述可能包含虚假信息和虚假信息。

还有一些事情你需要注意。 警惕可能包含各种具有不良偏见的煽动性言论的叙述。

为了试图减少这种情况的发生,据报道,OpenAI 在 ChatGPT 的训练过程中使用了人类双重检查器。 双重检查员会输入可能会刺激 AI 产生煽动性内容的提示。 当双重检查员看到此类内容时,他们会向 AI 表明这是不合适的,并且在某种意义上对所产生的输出进行数字惩罚。 从数学上讲,人工智能算法会寻求将罚分保持在最低水平,因此在计算上旨在今后不再使用这些短语或措辞。

同样,当您输入提示时,AI 会尝试确定您的提示是否具有煽动性或可能导致炎症输出,对此提示可以被 AI 拒绝。 礼貌地,这个想法是拒绝不适当的提示或请求。 例如,要求获得一个包含种族歧视的笑话很可能会被 AI 拒绝。

我相信您不会对使用 ChatGPT 的人试图以智取胜的预防措施感到惊讶。 这些“有进取心”的用户要么欺骗了人工智能,要么找到了绕过数学公式的巧妙方法。 其中一些努力是为了击败或超越系统的明显乐趣,而其他人则声称他们试图展示 ChatGPT 仍会产生不良结果。

他们在一件事上是对的; 预防措施并非万无一失。 我们回到另一个 AI 伦理和潜在的 AI 法律考虑。 是否应该允许生成式 AI 继续运行,即使它可能会产生不良输出?

当你使用 ChatGPT 时的警告似乎会预先警告任何人 AI 应用程序可能会做什么或说什么。 当某人(也许是未成年人)得到具有冒犯性的不良输出(或者,当他们得到看起来很权威的文本叙述,他们遗憾地认为是真实的,并根据输出对他们的输出采取行动时,可能不可避免地会提起某种诉讼。自己的危险)。

关于提示的其他一些细微差别值得了解。

每次输入提示时,输出可能会大不相同,即使输入完全相同的提示也是如此。 例如,输入“Tell me a story about a dog”将为您提供一个基于文本的叙述,可能表示一个关于牧羊犬的故事,而下次您输入“Tell me a story about a dog”时,它可能完全是一个不同的故事,涉及一只贵宾犬。 这就是大多数生成性人工智能在数学和计算上的安排方式。 据说它是非确定性的。 有些人觉得这令人不安,因为他们已经习惯了您对计算机的输入将始终产生相同精确输出的概念。

重新排列单词也会显着影响生成的输出。 如果您输入“告诉我一个关于狗的故事”,然后又输入“告诉我一个狗的故事”,则很可能产生的叙述会大不相同。 敏感性可以是敏锐的。 询问关于狗的故事与询问关于大狗的故事无疑会产生截然不同的叙述。

最后,请注意,上面带项目符号的项目表明 ChatGPT “对 2021 年后的世界和事件的了解有限”。 这是因为 AI 开发人员决定中断 AI 应用程序收集和训练互联网数据的时间。 我注意到,用户似乎常常没有意识到 ChatGPT 并没有直接连接到当今的 Internet 以检索数据和生成生成的输出。 我们已经习惯了实时工作和联网的一切,因此我们也期望 AI 应用程序也是如此。 在这种特殊情况下不是(而且,澄清一下,ChatGPT 确实可以在 Internet 上使用,但是当它编写基于文本的输出时,它本身并没有剔除 Internet 这样做,相反,它通常会及时冻结截止日期前后)。

您可能会感到困惑,为什么 ChatGPT 不实时从 Internet 馈送数据。 几个合理的理由。 首先,尝试实时进行训练在计算上会很昂贵,而且 AI 应用程序会延迟或对提示的响应较慢(目前,它非常快,通常会在几秒钟内以基于文本的输出叙述来响应). 其次,他们试图训练 AI 应用程序避免的互联网上令人讨厌的东西可能会渗透到数学和计算公式中(并且,如前所述,尽管他们试图通过使用那些人类双重检查器)。

你一定会听到一些人厚颜无耻地宣布 ChatGPT 和类似的生成 AI 是谷歌搜索和其他搜索引擎的丧钟。 当您可以让 AI 为您写一些东西时,为什么要进行带回大量参考项目的 Google 搜索? 啊哈,这些人宣称,谷歌应该关门回家。

当然,这纯属无稽之谈。

人们仍然想进行搜索。 他们希望能够查看参考资料并自己弄清楚事情。 它不是相互排斥的这种方式或那种方式的二元选择(这是错误的二分法)。

生成式人工智能是一种不同的工具。 你不会因为发明了螺丝刀就到处扔锤子。

一个更明智的思考方式是,这两种类型的工具可以兼容,供那些想做与 Internet 相关的事情的人使用。 一些人已经尝试将生成式人工智能与传统的互联网搜索引擎结合起来。

对于已经提供搜索引擎的任何人来说,一个担忧是“免费的”生成人工智能工具可能会削弱搜索引擎的声誉。 如果您进行互联网搜索并获得煽动性材料,您就会知道这只是互联网的方式。 如果你使用生成式人工智能,它会产生令人厌恶和卑鄙的基于文本的叙述,你可能会为此感到不安。 可能是,如果生成式人工智能与特定搜索引擎紧密相关,那么你对生成式人工智能的不满和厌恶就会蔓延到你对搜索引擎的任何感受上。

无论如何,我们几乎肯定会看到各种生成人工智能工具和互联网搜索引擎之间的联盟,谨慎而谨慎地踏入这些浑水。

结论

这是您的问题。

有人如何通过提供生成基于文本的叙述的生成 AI 来赚钱?

OpenAI 已经表示,ChatGPT 的内部每笔交易成本显然有些高。 他们还没有通过 ChatGPT 获利。

人们愿意支付交易费或支付订阅费来访问生成人工智能工具吗?

广告能否成为一种尝试通过生成式 AI 工具赚钱的方式?

目前还没有人完全确定这将如何赚钱。 我们还处于这种人工智能的大实验阶段。 将 AI 应用程序放在那里,看看你会得到什么反应。 调整人工智能。 使用从使用中获得的见解来指导 AI 的下一步目标。

泡沫,冲洗,重复。

作为结束评论,目前,一些人认为这是一种我们根本不应该拥有的人工智能。 让时钟倒转。 把这个精灵放回瓶子里。 我们尝到了它的滋味,并意识到它有明显的缺点,并且作为一个社会可能会集体同意我们应该一路把那匹马牵回谷仓。

您认为生成式 AI 的前景是好是坏?

从现实世界的角度来看,这并不特别重要,因为消除生成人工智能的现实通常是不切实际的。 生成人工智能正在进一步发展,你不会停止它,无论是在这里还是在任何或所有其他国家(它是)。 你会怎么做? 通过法律全面禁止生成人工智能。 不是特别可行(你​​大概有更好的机会建立塑造生成人工智能的法律,并寻求合法地管理那些设计它的人)。 也许取而代之的是让文化避开生成人工智能? 你可能会让一些人同意这种羞辱,但其他人会不同意并继续使用生成人工智能。

正如我之前提到的,这是一个 AI 伦理和 AI 法律难题。

最后一个大问题是生成式 AI 是否正在带领我们走上有感知力的 AI 之路。 有些人坚持认为是的。 争论的焦点是,如果我们只是继续评估数学模型,充分利用计算计算机服务器,将互联网的每一点,甚至更多的东西都喂给这头野兽,算法人工智能就会把这个角落变成有知觉的。

而且,如果是这样的话,我们将面临人工智能成为一种生存风险的担忧。 你一遍又一遍地听说,一旦我们有了有知觉的人工智能,人工智能可能会认为人类不是很有用。 接下来你知道,AI 要么奴役了我们,要么消灭了我们,请参阅我对这些存在风险的探索 这里的链接.

一种相反的观点是,我们不会从某些人狡猾地描述为 随机鹦鹉 (这是在 AI 领域获得关注的标语),这里引用该短语:

  • “与我们观察它的输出时看起来的样子相反,LM 是一个系统,它根据关于它们如何组合的概率信息,随意地将它在其大量训练数据中观察到的语言形式序列拼接在一起,但没有任何意义参考:一只随机鹦鹉”(在 Emily M. Bender、Timnit Gebru、Angelina McMillan-Major、Shmargaret Shmitchell 的研究论文中, ACM FAccT '21,3 年 10 月 2021 日至 XNUMX 日,虚拟活动,加拿大,题为“关于随机鹦鹉的危险:语言模型会不会太大?”)。

生成式 AI 是否是一种死胡同,它将提供有用的 AI 功能,但不会让我们进入有感知力的 AI,或者缩放因子可能以某种方式促成奇点的出现,从而导致有感知力的 AI?

一场激烈的辩论随之而来。

说,你想尝试生成人工智能吗?

如果是这样,这里有一个指向 ChatGPT 的链接,您可以在其中创建一个帐户并尝试使用它,请参阅 这里的链接.

请注意,由于使用实验性 AI 应用程序的需求很高,显然注册访问可能会随时停止,可能会暂时停止,也可能会受到限制(我上次检查时,注册仍处于启用状态)。 只是给你提个醒。

请考虑我在本文中所说的关于生成 AI 的所有内容,以便您了解在使用 ChatGPT 等 AI 应用程序时发生的情况。

沉思你的行为。

你是否会无意中将我们引向有感知力的人工智能,最终将我们压垮,仅仅是因为你选择了与生成人工智能打交道? 你会被责备吗? 你应该阻止自己为人类的悲惨毁灭做出贡献吗?

我不这么认为。 但可能是 AI 霸主(已经)强迫我这么说,或者这次整个专栏可能是由 ChatGPT 或等效的生成 AI 应用程序编写的。

别担心,我向你保证是我, 人类智慧, 并不是 人工智能.

来源:https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-including-looming-ai-ethics- and-ai-law-considerations/