AI 伦理和 AI 法律质疑生成式 AI ChatGPT 是否会用无限内容淹没互联网

你知道励志儿童读物吗 出水的鱼?

这本引人入胜的书是由海伦帕默(真名海伦帕默盖塞尔)根据苏斯博士(真名西奥多盖塞尔)的短篇小说创作的。 这对夫妻团队为儿童文学做出了传奇般的贡献,让世界各地的年轻人都为之欣喜。

如果您不熟悉情节或需要提神,请允许我简要总结一下。 一个男孩从他当地的宠物店买了一条金鱼。 他被严厉指示永远不要过度喂养这种微小的海洋生物。 如果你这样做,你永远不知道会发生什么。

这个男孩不经意间给他的金鱼喂食过多,只有一次,但这引发了惊人的肆无忌惮的生长。

事情开始变得很不对劲。

这条曾经很小的鱼很快就从鱼缸里长大了,变得如此之大,以至于男孩把这只心爱的宠物放到了家里的浴缸里。 鱼不断地生长和生长。 这似乎是不可阻挡的。

很快,警察和消防部门就来帮助这个男孩,并将现在大象大小的金鱼运送到当地的公共游泳池。 最终,宠物店老板赶到并设法将金鱼缩小到正常大小。 我们不知道这个神奇的壮举是如何实现的。 男孩再次被警告避免过度喂食。

吸取教训,艰难的道路。

当谈到互联网的未来时,我们可能需要注意同样的惨痛教训。

我怎么知道?

今天的现实是,我们可能已经设计出一种人工智能 (AI) 形式,它将扩展互联网并用大量无休止的数据洪流填满互联网。 有很多麻烦 生成式人工智能,最近新闻中最热门的 AI,将做到这一点。

生成式 AI 能够生成或产生诸如文本之类的输出,而不仅仅是人类用户输入的简单提示。 一篇完整而广泛的文章可以通过几个精心挑选的词来生成。 由于广受欢迎的 AI 应用程序 ChatGPT 于 XNUMX 月由 OpenAI 发布,您可能知道生成 AI。 我稍后会详细说明这一点。

一些人一直在强烈警告说,生成式人工智能可以用来创造看似无限量的内容。

一个人可以轻松地利用生成式 AI 在一次在线会话中生成数千篇论文,而他们只需付出最少的劳动。 然后,此人可以选择将生成的文章发布到互联网上。 想象一下这是大规模完成的。 从本质上讲,继续将其乘以数以百万计的互联网用户。 可以轻松制作和发布名副其实的生成内容海啸。

冲洗,重复,不间断地这样做,日复一日,一分一秒。

这是天上掉下来的紧张不安的说法还是有正当理由?

在今天的专栏中,我将解决这些表达的担忧,即我们正面临一个互联网的未来完全被生成的 AI 内容堵塞和淹没。 我们将研究这些疑虑的基础,并考虑一些通常未提及的潜在优势。 在本次讨论中,我会偶尔提到 ChatGPT,因为它是生成 AI 的 600 磅重的大猩猩,但请记住,还有许多其他生成 AI 应用程序,它们通常基于相同的总体原则。

同时,您可能想知道生成式人工智能究竟是什么。

让我们首先介绍生成式 AI 的基础知识,然后我们可以仔细研究手头的紧迫问题。

所有这一切都涉及大量人工智能伦理和人工智能法律方面的考虑。

请注意,目前正在努力将道德 AI 原则融入 AI 应用程序的开发和部署中。 越来越多的关注和以前的人工智能伦理学家正在努力确保设计和采用人工智能的努力考虑到做事的观点 永远的人工智能 并避免 坏的人工智能. 同样,有人提出了新的 AI 法律,作为防止 AI 努力在人权等问题上失控的潜在解决方案。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

正在制定和颁布人工智能道德准则,以期防止社会陷入无数人工智能诱导陷阱。 关于我对近 200 个国家通过教科文组织的努力制定和支持的联合国人工智能伦理原则的报道,请参阅 这里的链接. 同样,正在探索新的 AI 法律,以试图让 AI 保持平稳。 最近的一次拍摄包括一组建议的 人工智能权利法案 美国白宫最近发布的关于人工智能时代人权的报告,见 这里的链接. 让人工智能和人工智能开发人员走上正确的道路,并阻止可能削弱社会的有目的或无意的不正当行为,需要举全村之力。

我将把 AI 伦理和 AI 法律相关的考虑因素交织到这个讨论中。

生成式人工智能基础

最广为人知的生成式 AI 实例由名为 ChatGPT 的 AI 应用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 发布时迅速进入公众意识。 自从 ChatGPT 获得了巨大的头条新闻以来,令人惊讶地超过了其规定的 XNUMX 分钟的成名时间。

我猜您可能听说过 ChatGPT,或者甚至认识使用过它的人。

ChatGPT 被认为是一种生成式 AI 应用程序,因为它将用户的一些文本作为输入,然后 产生 或产生由一篇文章组成的输出。 AI 是文本到文本生成器,尽管我将 AI 描述为文本到文章生成器,因为这更容易阐明它的常用用途。 您可以使用生成式 AI 来撰写冗长的作品,也可以让它提供相当简短的精辟评论。 一切听从您的吩咐。

您需要做的就是输入一个提示,AI 应用程序会为您生成一篇尝试回应您的提示的文章。 撰写的文本看起来就像这篇文章是由人的手和思想写成的。 如果你输入“告诉我关于亚伯拉罕·林肯”的提示,生成式人工智能将为你提供一篇关于林肯的文章。 还有其他生成 AI 模式,例如文本到艺术和文本到视频。 我将在这里重点关注文本到文本的变化。

您的第一个想法可能是,就撰写论文而言,这种生成能力似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。 生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能可以吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

人们对生成式 AI 有很多担忧。

一个关键的缺点是,由基于生成的人工智能应用程序生成的文章可能会嵌入各种虚假信息,包括明显不真实的事实、被误导性描述的事实以及完全捏造的明显事实。 这些虚构的方面通常被称为 人工智能幻觉,一个我不喜欢但遗憾的是似乎越来越流行的标语(关于为什么这是糟糕和不合适的术语的详细解释,请参阅我的报道 这里的链接).

另一个问题是,尽管不是自己撰写论文,但人类很容易将 AI 生成的论文归功于他人。 您可能听说过教师和学校非常关注生成式 AI 应用程序的出现。 学生可以使用生成式 AI 来撰写他们分配的论文。 如果一个学生声称一篇文章是他们自己亲手写的,那么老师几乎不可能辨别它是否是由生成人工智能伪造的。 有关我对这个学生和老师混淆​​方面的分析,请参阅我的报道 这里的链接这里的链接.

社交媒体上出现了一些关于 生成式人工智能 断言这个最新版本的人工智能实际上是 有感知的人工智能 (不,他们错了!)。 AI 伦理和 AI 法律领域的人士尤其担心这种不断扩大的索赔趋势。 您可能会礼貌地说,有些人夸大了当今 AI 的实际能力。 他们假设人工智能具有我们尚未能够实现的能力。 那真不幸。 更糟糕的是,他们可能会允许自己和他人陷入可怕的境地,因为他们假设人工智能在采取行动方面具有感知能力或类似人类。

不要将人工智能拟人化。

这样做会让你陷入一个棘手而沉闷的依赖陷阱,即期望 AI 做它无法执行的事情。 话虽如此,最新的生成式 AI 的功能相对令人印象深刻。 请注意,在使用任何生成式 AI 应用程序时,您应该始终牢记一些重大限制。

现在最后一个预警。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果一个生成式 AI 应用程序告诉你亚伯拉罕林肯乘坐他的私人飞机在全国各地飞行,你无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到喷气式飞机在他那个时代并不存在,或者他们可能知道但没有注意到这篇文章提出了这种厚颜无耻的错误主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。

我们已准备好进入这一阐明的下一阶段。

看看生成式人工智能可能对互联网做什么

既然您大致了解了什么是生成式 AI,我们就可以探讨这个棘手的问题,即这种类型的 AI 是否会通过膨胀的互联网造成混乱和混乱。

以下是我与此事相关的八个重要主题:

  • 1)互联网规模
  • 2) 互联网索引
  • 3) 衡量什么是生成式 AI 生成的内容
  • 4)无论如何,生成人工智能内容有什么问题
  • 5)人们会将生成的 AI 内容发布到互联网上吗
  • 6)也许付费专区方法会受到推崇
  • 7) 多模态 Morass 生成 AI 正在等待
  • 8)生成人工智能的恶性或良性循环

我将涵盖这些重要主题中的每一个,并提供我们都应该认真考虑的关键考虑因素。 这些主题中的每一个都是更大难题的组成部分。 你不能只看一件。 你也不能孤立地看待任何一件作品。

这是一个错综复杂的马赛克,必须对整个拼图给予适当的和谐考虑。

互联网规模

首先要考虑的方面之一是互联网的规模。

这是特别重要的。 关于生成式人工智能的说法是,它显然会极大地膨胀互联网。 由于使用生成式 AI 可以轻松生成大量数字材料,我们将拥有各种形式的附加内容。 如果是这样,那么逻辑上合理的问题就是今天的互联网有多大,以及生成式人工智能会产生多少额外的内容,否则这些内容不会出现在互联网上。

不幸的是,试图掌握 Internet 的规模非常困难,而且非常不精确。

发布于 财经在线 表明互联网目前至少有 74 zettabytes (ZB) 的大小,到 463 年可能达到 2025 ZB(请注意,预测的增长似乎并未明确将生成 AI 本身作为一个因素考虑在内,只是假设所有else 在推导这个投影时是相等的)。

对 Internet 的现有规模还有许多其他估计。 同样,对于规模的预期增长还有许多其他估计。 我不想陷入对这些数字的争论中,只想强调互联网无疑是庞大的。 此外,值得注意的是,所有合理的预期都是,在正常情况下,互联网将毫不掩饰地继续其飞速发展的道路。

您可能还会对 Statista 发布的各种统计数据感兴趣,这些数据表明目前大约有 5.16 亿互联网用户。 据计算,这代表了全球人口的 64.4%。 你惊喜吗? 一方面,我们可能自然而然地假设大多数人确实会上网。 不过,从内部人士的角度来看,这多少有些偏差,因为许多人还没有准备好访问互联网,或者无法获得访问权限。 无论如何,人们期望互联网访问最终会变得更便宜并变得更加普及,因此互联网用户的数量无疑会增加。

我拖你通过这些统计数据给我们带来一个非常关键的问题。

生成式 AI 将为互联网的现有和持续增长增加多少?

这就是我们想知道的。 你看,关于生成式 AI 影响的说法似乎只看表面价值,当然,生成式 AI 将充斥互联网。 如果您方便地或心不在焉地避免讨论实际数字和事物的真实数量,那么所有这些都有点挥手。

例如,一般假设 Internet 的大小大约为 100 ZB,并且还在不断增长。 如果您认为生成式 AI 每年可能会增加 1 ZB,那么这对互联网的整体规模来说只是九牛一毛。

生成式 AI 就像将一颗鹅卵石扔进浩瀚的海洋。

这似乎与这个重大话题的主流说法不符。 一些人热情地推测,我们最终可能会看到 10% 的互联网内容是基于“正常”用户生成的,而剩下的 90% 将归因于人工智能生成的内容。

这种说法似乎没有什么根据,似乎是凭空捏造的。 无论如何假设这发生了。 如果我们以现有的 100 ZB 作为基础,并假设它基本上都是用户生成的内容(好吧,这是值得商榷的),这意味着我们将不得不发现自己正在寻找一个 1,000 ZB 大小的互联网。 这是 900 ZB 的 AI 生成内容和 100 ZB 的用户生成内容。

与生成的 AI 生成的互联网海洋的总量相比,我们本可以将今天假定的手工内容海洋视为相形见绌。

猜测中的猜测。

那么,应该是哪一个呢?

我们是要让生成式 AI 生产出一颗鹅卵石,还是会让互联网的规模成倍增加?

没有人可以肯定地说。 我们应该严肃地探讨这些关键数字,以便有关该主题的讨论扎根于切实可行的事情。 不这样做会使喋喋不休有点空洞,几乎就像那个喊狼来了的男孩。

让我们考虑下一个因素,请记住所有这些因素都是相互关联的,必须作为一个整体来考虑,而不是简单地从个人角度考虑。

互联网索引

您可能会意识到,当您进行 Internet 搜索时,您正在使用某人的搜索引擎,该搜索引擎一直在尝试定期为 Internet 内容编制索引。 我敢打赌,当您使用流行的搜索引擎时,您可能会有这样的印象,即您正在访问 Internet 的优势。

那是极不可能的。

一些估计只有一小部分互联网被编入索引,可能不到 1% 左右(有人说它高达 5% 或可能略高;它不是大多数人通常假设的水平,例如50% 或 90%)。 同样,这些数字各不相同,但仍然相对较小。 要点是您几乎总是不知道互联网的很大一部分。

为什么这在这种情况下很重要?

因为生成式 AI 可能会产生的附加内容可能会受到类似的索引考虑。 可能几乎所有添加的内容都不会被编入索引。 在那种情况下,您可能永远不会看到它。

硬币的另一面假设这种“人造”内容将被编入索引并完成令人遗憾的缺乏对“传统”内容的关注。 有观点认为,索引将专注于生成的 AI 内容,而忽略传统内容。 因此,即使生成的 AI 内容没有淹没互联网,看起来也是因为此类内容的索引不成比例。

最终,寻找传统内容可能就像大海捞针。 生成的 AI 生成内容的巨大混乱将类似于压倒性的超大和伸展的干草捆。 如果你能找到的话,在某个地方会有那些珍贵的传统内容的小宝石。

您可能会立即想到指数制定者应该弄清楚如何应对这种困境。 如果他们能够以“正确的方式”进行索引,那么生成多少生成性 AI 内容几乎无关紧要。 它将坐落在互联网的小街小巷中,无论如何都看不到曙光。

让我们继续探索,看看这个索引问题是如何进一步出现的。

衡量什么是生成式 AI 生成的内容

好吧,如果生成式 AI 会变得疯狂并产生大量的互联网内容,我们逻辑上可以应对这种情况,只要我们能够将这些内容与“传统”内容区分开来。

作为解决方案似乎很容易。

任何进行索引的搜索引擎只会检测内容是生成的 AI 生成的还是传统生成的。 然后,该索引可以选择不包括生成的 AI 材料,或者在索引中标记该内容来自生成 AI。 然后,此类搜索引擎的用户可以在搜索过程中指定他们是要包含生成的 AI 内容还是跳过它。

案件结案。

很抱歉地说这不是特别可行。

这就是为什么

试图将生成的 AI 输出与传统内容区分开来并不容易,而且几乎最终是不切实际的。 我在我的专栏中提到,那些所谓的检测应用程序是虚假的承诺,本质上是一种误导性的游戏,请参阅 这里的链接.

简而言之,生成式 AI 的 AI 制造商不断增强他们的 AI,以生成在设计上与传统的人类生成内容没有区别的内容。 这是一个故意的目标。 检测应用程序面临着持续不断的猫捉老鼠的策略。 此外,这些检测应用程序基于关于区分生成式 AI 输出的各种假设,尽管这些假设通常是不正确的或仅基于概率。 最终的结果是,任何检测应用程序都只是猜测可能性,并不能确定地做出铁定的指示。

底线是,我们不太可能确定什么是生成性 AI 内容,除非生成性 AI 提供者提供了一些明确的指示,尽管这也不是铁定的。 再次,请参阅我对这个复杂主题的报道,讨论于 这里的链接. 正在追求的想法是将水印秘密地包含在生成的内容中。 理论上,您可以使用水印来查明内容是否来自生成式 AI。 缺点是随着输出的各种变化,相对容易弄乱水印。 然后内容将无法遵守水印,并且本应提示我们的路标现在已失效。

一些人认为我们需要新的人工智能法来解决这个问题。 制定要求生成式 AI 应用程序包含水印的法律。 此外,将试图破坏这些水印的行为定为非法。 这可能是减少那些猫捉老鼠的技术游戏的唯一方法。 我在我的专栏中研究了这些建议,并指出尽管这些规则听起来很合理,但问题在于实施这些计划和执行这些政策的细节。

总而言之,回到对通过生成人工智能内容导致互联网膨胀的担忧,不幸的是,我们无法通过简单地注意到什么是生成人工智能内容与什么不是生成人工智能内容来解决这个问题。 问题比这更难。

无论如何,生成 AI 内容有什么问题

所有这些对人工智能生成内容海啸的担忧通常都基于一个相当重要的假设,即内容将是错误的。

如果内容不错,我们大概会对添加到 Internet 上的帖子感到满意。 当然,数量可能很高,但如果发布的信息是有价值的,那么只需筛选更多好东西即可。 正如他们所说,越多越好。

关键的考虑因素是生成的人工智能生成的内容是否会提供信息,而不是可能充满错误、谎言、错误信息、虚假信息等。 这带来了几个方面。

首先,生成式 AI 可能会得到进一步发展,以至于产生错误论文的可能性极低。 如果我们想以某种方式禁止所有生成式人工智能在互联网上发布,我们似乎是失职了,假设大体上,生成式人工智能输出的文章在大多数情况下都是合理正确的,或者在当时占优势。 希望拒绝所有输出的论文就像经典的把婴儿连同洗澡水一起扔出去(一句老话,可能快退休了)。

其次,正如我在我的专栏中所讨论的那样 这里的链接,人们对可以对生成的 AI 输出论文进行双重检查的 AI 附加应用程序越来越感兴趣。 在人们将生成的人工智能内容发布到互联网之前,可以使用人工智能双重检查器。 即使人们不预先筛选他们希望发布的内容,也可以对已发布的内容使用相同的工具。 简而言之,无论内容来源是什么,都可以进行双重检查,这样我们自然也应该对人为生成的内容保持怀疑。

第三,正如我在上述观点中提到的,人们似乎常常认为人类生成的内容总是好的,而生成的 AI 内容总是不好的。 一个疯狂的错误假设。 有大量人为生成的内容,其中包含各种错误、谎言和捏造的垃圾。 我们不安全仅仅因为一个人碰巧手工创建了内容。

所有内容,无论是人类设计的还是生成的 AI 设计的,都需要接受审查。

人们会将生成的 AI 内容发布到互联网上吗

另一个需要考虑的因素是人们是否真的会把生成的 AI 内容发布到互联网上,如果是的话,发布的幅度有多大。

这就是我的意思。

人们将诸如 ChatGPT 之类的生成式 AI 用于各种目的。 他们可能会使用生成式 AI 来激发关于他们所面临问题的想法。 他们可能会用它来做研究。 他们可能会用它来提供他们打算编辑的材料草稿,然后通过电子邮件将其发送给某人。 等等。

关键在于,许多生成性人工智能的使用可能与旨在将生成的输出论文发布到互联网上的人没有任何关系。 我们似乎经常陷入这样的陷阱,即仅仅因为有人使用生成式 AI,他们就希望用生成的输出淹没互联网。

我们还不知道人们有多少时间会使用生成式 AI 来满足自己的需求,因此会选择 不能 将输出发布到 Internet。

澄清一下,我并不是说人们不会将生成的 AI 输出发布到互联网上。 他们肯定会的。 正在做在线博客的人无疑会利用生成人工智能。 生成式 AI 用于为互联网制作内容的许多用途肯定会出现。 ETC。

因此,一个考虑因素是,我们可能不会将生成的 AI 内容发布到互联网上,否则可能会发生。 对于那些假设我们正在寻找一个不间断、不受约束的全员发布数据启示录的专家来说,我们不知道这是否会发生。 当然,即使只有一小部分人选择发布此类帖子,这仍然可能是大量添加到 Internet 上的内容。

一个转折点是生成的人工智能输出是否有可能自动发布到互联网上。

这是一个很容易实现的技巧。 你可以简单地做到这一点,这样你的生成人工智能应用程序的任何输出都会直接发布到互联网上。 你甚至可以把它放到一个循环中。 有一系列预先固定的提示。 将这些输入到生成式 AI 应用程序中。 生成式 AI 应用程序被编程为立即将输出的论文发布到互联网上。

瞧,你有一台永动机来为 Internet 生成数据内容。

这些帖子会去哪里?

任何允许发布此类机枪喷火内容的网站或其他在线场所都可能对其允许出现的内容负责。 据推测,人们会避开这些网站。 或者这些网站将被搜索引擎和索引算法指定。 生成的 AI 内容被发布是一方面,而另一个同样重要的方面是发布的位置。

也许付费专区方法会受到尊重

一个普遍的说法是,我们最终会厌倦互联网的狂野西部。 人们会被可信赖的在线资源所吸引。 他们会故意避开 Internet 的其他粗略或未知区域。

按照这些思路,人们会愿意为访问可信来源付费。 尽管如今关于付费内容的盈利能力仍存在巨大争论,但生成人工智能内容的泛滥被认为是付费专区理念的福音。 在 Internet 上寻找值得信赖的内容时,事情变得越糟,付费内容就变得越有价值(当然,假设付费内容受到更仔细的审查)。

具有讽刺意味的是,付费专区背后的内容可能大量由 AI 生成的内容组成。 假设附加值是付费专区提供商正在筛选内容,他们实质上是在进行我之前提到的双重检查。 他们不一定非要生成内容。 他们只需要确保内容值得信任。

对于这个预测的未来存在分歧。 也许,代替付费墙,您必须遇到广告或赞助商通知,这样做可以让您获得可信赖的内容。 存在许多其他可能性。

生成 AI 的多模式泥潭等待着

我在这里一直关注与文本相关的生成 AI。 这是生成式 AI 的文本到文本或文本到文章的变体,例如 ChatGPT。

我的一个预测是,我们很快就会发现自己被多模态生成人工智能所淹没,请参阅我的解释 这里的链接. 我们已经见证了文本到图像、文本到音频、文本到视频以及生成式 AI 输出结果类型或模式的其他变体。 下一步是您将能够获得多模式输出。

例如,您在生成式 AI 中输入提示并询问亚伯拉罕·林肯。 生成式 AI 会为您写一篇文章。 此外,还生成了几张林肯的照片,展示了他迄今为止尚未张贴或发表的姿势。 生成的音频抄本似乎是林肯式的声音。 生成一个视频来展示这篇文章,包括与输出文本一起出现的图片和图像的剪辑。

欢迎来到多模式生成 AI 的世界。

令人兴奋,当然。

但是,如果您认为这是可以发布到 Internet 的内容的进一步素材,那么可能就不会那么令人兴奋了。

本质上,我们不会仅仅担心可能有错误的文本,我们还需要对所有其他输出模式做同样的事情。 音频文件应该被怀疑包含虚假信息,图像可能会错误地描述事情,视频也可能会令人担忧。

如果您还没有将多模态大火包括在您对互联网膨胀的计算中,您可能想要提高您的数字和您的手头。

生成人工智能的恶性或良性循环

我为您准备了一个可能会让人费解的因素。 不挂断。

在这个互联网泛滥的传奇故事中,我们假设生成式 AI 是罪魁祸首。 生成式 AI 是所有这些容易出错的虚构内容的生成方式。 生成式 AI 从骨子里是坏的。

假设我们以不同的眼光看待这个问题。

可能是生成式 AI 能够产生最尖锐和最有效的内容。 同时,人手生成的内容被认为不那么值得信赖。 作为坏人的生成 AI 转变为作为英雄的生成 AI。

考虑一下。

我有另一个有趣的转折给你。

让我们假设生成人工智能正在通过互联网上的内容进行数据训练。 如果我们也假设生成的 AI 内容将通过人类直接选择或通过自动机制发布到互联网上,我们将发现自己陷入了一个有趣的循环。

生成式 AI 产生的内容成为生成式 AI 进一步数据训练的源材料。 出现螺旋。 越来越多的生成式 AI 生成的内容发布到互联网上,这是基于生成式 AI 已经生成的内容的数据训练。

这种“生成人工智能喂养生成人工智能”的回音室最终会对互联网和人类产生什么影响?

一种观点认为,这是一场可怕的逐底竞争。 生成式 AI 输出中的错误将被放大。 生成式 AI 的每次新迭代都会消耗先前的错误并一次又一次地重复它们。 在某些时候,找出错误所在的机会将是巨大的。 惨淡。 令人沮丧。

另一种观点是,如果可以设计生成式 AI 来产生有效的输出,那么你可能会有一个互联网清理机制来帮助美化互联网。 当生成式人工智能遇到错误时,无论是人工智能还是人手制作的,生成式人工智能似乎都会检测并克服这种错误。 通过生成式 AI 一遍又一遍地执行此操作,就好像您在不断地修剪草坪并有效地减少杂草的性质和突出程度。

这听起来可能令人安心,除了什么是错误或谎言的确切构成这一重大而迫在眉睫的问题。 这种擦洗机可能会无意中导致有效内容被贬低或被错误地指责为容易出错。 在考虑这些类型的机制时,我们需要注意那些误报和漏报。

生成式人工智能是恶性循环还是良性循环?

时间会告诉我们。

结论

互联网上充斥着大量关于生成人工智能的恐慌劝告,这些劝告应该仔细研究。 可以很容易地设想出许多场景。 厄运和忧郁并不是唯一的途径。 任何自称预测将要发生的事情的人都应该提前说明他们所做的假设。

有一些缓解因素将决定生成式人工智能的未来走向。 AI 伦理和 AI 法律以及整个社会的整体观念将在这方面起决定性作用。

现在最后的评论。

Marcus Aurelius 有一句名言:“永远不要让未来打扰你。 如果必须的话,你会用今天武装你对抗现实的同样的理性武器来应对它。

让我们确保我们今天的推理能够应对充满人工智能的未来的挑战。

来源:https://www.forbes.com/sites/lanceeliot/2023/02/23/is-it-true-that-generative-ai-chatgpt-will-flood-the-internet-with-infinite-content-问人工智能伦理和人工智能法律/