Elon Musk 能否成功开发生成式 AI ChatGPT 仿冒版“TruthGPT”,它在任何时候都坚忍如实,问 AI 伦理和 AI 法

舱门传来敲门声。

我们应该开门吗?

电影通常暗示我们不应该让我们的好奇心战胜我们,即我们绝对应该绝对不要开门。 好吧,话虽如此,选择关上门似乎并没有什么值得讲述的故事。 似乎我们被兴奋和未知所吸引。

那么,让我们继续开门吧。

在这种特殊情况下,我指的是人工智能 (AI) 领域内出现的一些流言蜚语,这些流言蜚语预示着未来的美好时光或我们所有人的最坏时光。 这种情况可能涉及人工智能的未来。 人们可能会严肃地推测,因此人工智能的未来会产生相当大的影响,包括表面上塑造社会的未来和人类的命运。

这笔交易。

根据最近的新闻报道,时任世界首富的埃隆·马斯克 (Elon Musk) 一直在四处寻找一流的 AI 研究人员,以加入他心目中的新 AI 企业。 各种 AI 开发人员和 AI 科学家正在悄悄地被接洽。 敲他们的门显然提供了巨大的希望和潜在的有利可图的消息。

据称,尚未公开的 AI 计划的实质是 OpenAI 去年 XNUMX 月发布的广受欢迎的 ChatGPT 的仿制品。 您几乎肯定听说过或看到过有关 ChatGPT 的头条新闻。 我稍后会详细解释什么是 ChatGPT。 您还应该知道 ChatGPT 是一种称为 AI 的示例 生成式人工智能. 现在有很多生成式 AI 应用层出不穷。 ChatGPT 恰好是公众知名度最高的一个,似乎为所有人所知,甚至可能为那些不知何故生活在洞穴中的人所熟知。

以下是关于这个半秘密的迅速崛起的传奇故事的报道示例:

  • “埃隆·马斯克最近几周与人工智能研究人员接洽,希望成立一个新的研究实验室,以开发 ChatGPT 的替代品,ChatGPT 是初创公司 OpenAI 开发的备受瞩目的聊天机器人,据两位直接了解这项工作的人士和第三位知情人士透露在谈话中”(信息,“与‘唤醒人工智能’作战,马斯克招募团队开发 OpenAI 竞争对手”,Jon Victor 和 Jessica E. Lessin,27 年 2023 月 XNUMX 日)。

您的第一个想法可能是,如果 Elon Musk 想要制作 ChatGPT 的仿制品,那取决于他以及他想如何花钱。 祝你好运。 他将简单地添加到已经存在的和不断增长的生成人工智能应用程序中。 也许他会从自己开发的 ChatGPT 版本中赚取额外的财富。 或者这可能会是一个很大的嗡嗡声,而他的巨额财富因适度昂贵的追求而产生的微小凹痕将类似于会计部门的四舍五入误差。

据推测,这更像是一种端庄的敲门声,而不是沉重的敲门声。

准备好迎接转折。

人们相信 Elon Musk 想要撼动当今生成式 AI 应用程序的基础,并重构它们的工作方式和生成内容的一些关键方面。 正如我将在本文中简短解释的那样,关于当前生成式人工智能的一个普遍而真实的疑虑是它会产生错误、谎言和所谓的人工智能幻觉。 任何使用过生成式 AI 的人无疑都遇到过这些令人不安的问题。 显然,埃隆马斯克希望减少并可能以某种方式消除这些异常和有问题的倾向。

这看起来确实是一个非常值得和光荣的愿望。 事实上,请知道几乎或者我可以说所有的生成人工智能设计者都在努力减少输出错误、谎言和人工智能幻觉的可能性。 你很难找到任何理性的人来坚持我们必须将这些错误、谎言和 AI 幻觉根深蒂固地融入生成 AI 中。

无需做出过于笼统的声明,人们几乎普遍同意,必须坚定、持久和坚决地处理涉及产生错误、虚假和 AI 幻觉的生成性 AI 弊病。 目的是调整、改造、改进、大修,或以一种人工智能技术方式或另一种方式解决和解决这个问题。

生成式 AI 继续在输出中吐出错误、谎言和 AI 幻觉的每一天对几乎每个人来说都是糟糕的一天。 使用生成式 AI 的人肯定会对这些错误的输出感到不满。 依赖或需要使用污染输出的人有可能错误地依赖于错误的东西或更糟的是仍然会将他们引向危险的方向。

那些试图通过生成式人工智能开展业务的人工智能制造商同时面临着潜在的法律风险,这些制造商因依赖错误的输出而陷入困境。 要求损害赔偿的诉讼几乎肯定很快就会出现。 我们可能预计监管机构会选择权衡,并且可能会颁布新的 AI 法律以对生成 AI 施加法律约束,请参阅我的报道 这里的链接. 此外,人们最终可能会非常沮丧,以至于 AI 制造商的声誉受到严重损害,而生成 AI 会被草率地踢到路边。

好吧,所以我们知道,人工智能制造商和人工智能研究人员正在狂热地尝试发明、设计、构建和实施人工智能技术魔法,以消除与当今的生成性人工智能疾病相关的这些可怕疾病,这是一个勇敢的老生常谈。 Elon Musk 应该被接受。 多多益善。 驯服这头野兽需要大量的 AI 人才和资金。 伊隆马斯克的加入似乎是一个乐观和令人鼓舞的迹象,也许适量的火箭科学、资金和决心会找到 AI 的万灵药。

当你开始打开门看看站在那里的是什么时,转折就来了。

在埃隆·马斯克 (Elon Musk) 于 17 年 2023 月 XNUMX 日发布的一条相当简洁的推文中,我们得到了这个假定的线索:

  • “我们需要的是 TruthGPT”

这就是导致一些人决定可能需要将门砰的一声关上并用钉子钉上的原因。

为什么这样?

一些人表达的担忧是,设想的 TruthGPT 背后的“真相”可能是一种生成式 AI,它是基于并仅根据 真相 完全符合一个人的世界观。 是的,令人费解的是,根据埃隆马斯克的说法,我们将获得一个能够发出真相的生成人工智能应用程序。

有人说,令人担忧。

大胆而大胆,完全令人震惊,一些劝告。

一个直接的反驳是,如果他想生产他的 TruthGPT,不管它构成什么,都是他花的钱。 人们要么选择使用它,要么不使用。 那些使用它的人应该足够敏锐地意识到他们正在进入什么领域。 如果他们想要这种生成式 AI 的特定变体(大概是围绕 Elon Musk 的世界观塑造的)的输出,那是他们寻求它的权利。 故事结局。 继续前行。

哇,反驳说,你正在让人们陷入可怕而可怕的陷阱。 有些人不会意识到 TruthGPT 是 Elon Musk 开发的生成式 AI 应用程序。 他们会陷入假设这种生成式 AI 是光明正大的心理陷阱。 事实上,如果命名保留为“TruthGPT”(或类似名称),你当然会自然地相信这是生成式 AI,具有 绝对真理 在其输出的论文和文本中讲述。

作为一个社会,也许我们不应该让毫无戒心的人落入这样的陷阱,他们会警告说。

允许这种假定性质的生成式 AI 应用四处漂浮并被各种各样的人使用将会造成混乱。 人们会将 TruthGPT 的输出解释为神圣的“真理”,即使输出的论文充满了错误、谎言、AI 幻觉和各种令人讨厌的偏见。 此外,即使声称这种生成式 AI 的变体不会有错误、谎言和 AI 幻觉,我们怎么知道由此产生的看似纯净的 AI 不会带有不当偏见以及阴险的错误信息和虚假信息?

我猜你可以看到酝酿中的争议和窘境。

在自由市场的基础上,埃隆马斯克显然应该能够继续创造他希望创造的任何类型的生成人工智能。 仅仅因为其他人可能不喜欢他的“真相”版本,这不应该阻止他继续前进。 让他做他的事。 当任何人使用它让他们知道他们选择运行什么时,也许应该包含警告消息或其他一些通知。 尽管如此,人们需要对自己的行为负责,如果他们选择使用 TruthGPT,那就这样吧。

等一下,又是一个反驳。 假设有人制作了一个专为作恶而设计的生成式 AI 应用程序。 目的是混淆人们。 希望是为了激怒和煽动人们。 作为一个社会,我们会接受这种生成式人工智能吗? 我们是否要允许可能激怒人们、破坏他们的心理健康并可能促使他们做出不良行为的人工智能应用程序出现?

沙滩上必须有一条线。 在某些时候,我们需要说某些类型的生成人工智能是可憎的,是不允许的。 如果我们让肆无忌惮的生成式 AI 被构建和部署,最终的厄运和阴霾将不可避免地降临在我们所有人身上。 不仅仅是那些碰巧使用 AI 应用程序的人。 围绕 AI 应用程序出现并连接到 AI 应用程序的所有事物和其他人都将受到不利影响。

这似乎是一个令人信服的论点。

尽管一个关键的基础是,所讨论的生成人工智能需要引起如此令人不安的关注,以至于我们有说服力地相信,客观上有必要事先阻止或完全阻止它。 这也引发了许多其他棘手的问题。 我们是否可以事先声明一个生成式 AI 可能如此残暴以至于根本不允许建造它? 对某些人来说,这似乎为时过早。 您至少需要等到生成式 AI 启动并运行后才能做出如此重大的决定。

醒醒吧,有些人会激烈地回应,你是在不明智地让马离开谷仓。 放飞自我的人工智能所造成的危险和伤害,将把我们践踏得一干二净。 生成式 AI 应用程序可能就像试图将精灵放回瓶子中的经典困境。 您可能无法这样做。 最好把精灵锁起来,或者确保马牢牢地关在马厩里。

这是我们家门口的潜在飓风,无论我们认为谨慎做什么,门都可能打开。

我们可以确定的一件事是首先探索 真相GPT 生成式 AI 操纵的风格可能是。 在今天的专栏中,这正是我要做的。 我还将查看所表达疑虑的合理基础,并考虑各种方式和结果。 这偶尔会包括在讨论中提及 AI 应用程序 ChatGPT,因为它是生成 AI 的 600 磅重的大猩猩,但请记住,还有许多其他生成 AI 应用程序,它们通常基于相同的总体原则。

同时,您可能想知道生成式 AI 是什么。

让我们首先介绍生成式 AI 的基础知识,然后我们可以仔细研究手头的紧迫问题。

所有这一切都涉及大量人工智能伦理和人工智能法律方面的考虑。

请注意,目前正在努力将道德 AI 原则融入 AI 应用程序的开发和部署中。 越来越多的关注和以前的人工智能伦理学家正在努力确保设计和采用人工智能的努力考虑到做事的观点 永远的人工智能 并避免 坏的人工智能. 同样,有人提出了新的 AI 法律,作为防止 AI 努力在人权等问题上失控的潜在解决方案。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

正在制定和颁布人工智能道德准则,以期防止社会陷入无数人工智能诱导陷阱。 关于我对近 200 个国家通过教科文组织的努力制定和支持的联合国人工智能伦理原则的报道,请参阅 这里的链接. 同样,正在探索新的 AI 法律,以试图让 AI 保持平稳。 最近的一次拍摄包括一组建议的 人工智能权利法案 美国白宫最近发布的关于人工智能时代人权的报告,见 这里的链接. 让人工智能和人工智能开发人员走上正确的道路,并阻止可能削弱社会的有目的或无意的不正当行为,需要举全村之力。

我将把 AI 伦理和 AI 法律相关的考虑因素交织到这个讨论中。

生成式人工智能基础

最广为人知的生成式 AI 实例由名为 ChatGPT 的 AI 应用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 发布时迅速进入公众意识。 自从 ChatGPT 获得了巨大的头条新闻以来,令人惊讶地超过了其规定的 XNUMX 分钟的成名时间。

我猜您可能听说过 ChatGPT,或者甚至认识使用过它的人。

ChatGPT 被认为是一种生成式 AI 应用程序,因为它将用户的一些文本作为输入,然后 产生 或产生由一篇文章组成的输出。 AI 是文本到文本生成器,尽管我将 AI 描述为文本到文章生成器,因为这更容易阐明它的常用用途。 您可以使用生成式 AI 来撰写冗长的作品,也可以让它提供相当简短的精辟评论。 一切听从您的吩咐。

您需要做的就是输入一个提示,AI 应用程序会为您生成一篇尝试回应您的提示的文章。 撰写的文本看起来就像这篇文章是由人的手和思想写成的。 如果你输入“告诉我关于亚伯拉罕·林肯”的提示,生成式人工智能将为你提供一篇关于林肯的文章。 还有其他生成 AI 模式,例如文本到艺术和文本到视频。 我将在这里重点关注文本到文本的变化。

您的第一个想法可能是,就撰写论文而言,这种生成能力似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。 生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能可以吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

人们对生成式 AI 有很多担忧。

一个关键的缺点是,由基于生成的人工智能应用程序生成的文章可能会嵌入各种虚假信息,包括明显不真实的事实、被误导性描述的事实以及完全捏造的明显事实。 这些虚构的方面通常被称为 人工智能幻觉,一个我不喜欢但遗憾的是似乎越来越流行的标语(关于为什么这是糟糕和不合适的术语的详细解释,请参阅我的报道 这里的链接).

另一个问题是,尽管不是自己撰写论文,但人类很容易将 AI 生成的论文归功于他人。 您可能听说过教师和学校非常关注生成式 AI 应用程序的出现。 学生可以使用生成式 AI 来撰写他们分配的论文。 如果一个学生声称一篇文章是他们自己亲手写的,那么老师几乎不可能辨别它是否是由生成人工智能伪造的。 有关我对这个学生和老师混淆​​方面的分析,请参阅我的报道 这里的链接这里的链接.

社交媒体上出现了一些关于 生成式人工智能 断言这个最新版本的人工智能实际上是 有感知的人工智能 (不,他们错了!)。 AI 伦理和 AI 法律领域的人士尤其担心这种不断扩大的索赔趋势。 你可能会礼貌地说,有些人夸大了当今人工智能的能力。 他们假设人工智能具有我们尚未能够实现的能力。 那真不幸。 更糟糕的是,他们可能会允许自己和他人陷入可怕的境地,因为他们假设人工智能在采取行动方面具有感知能力或类似人类。

不要将人工智能拟人化。

这样做会让你陷入一个棘手而沉闷的依赖陷阱,即期望 AI 做它无法执行的事情。 话虽如此,最新的生成式 AI 的功能相对令人印象深刻。 请注意,在使用任何生成式 AI 应用程序时,您应该始终牢记一些重大限制。

现在最后一个预警。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果一个生成式 AI 应用程序告诉你亚伯拉罕林肯乘坐他的私人飞机在全国各地飞行,你无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到喷气式飞机在他那个时代并不存在,或者他们可能知道但没有注意到这篇文章提出了这种厚颜无耻的错误主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。

我们已准备好进入这一阐明的下一阶段。

精灵和生成式 AI 瓶

现在让我们深入探讨手头的问题。

要点是什么可能 真相GPT 生成式 AI 的风格包括。 是有可能还是不可能推导出来? 对于这样的努力,我们应该思考什么? 等等。

你可以直截了当地争辩说我们应该对所有这一切进行一些非常认真的思考。 如果这纯粹是一种幻想,没有任何出现的机会,我们可以把整个难题放在一边。 相反,由于假定获得巨额资金支持的可能性增加, 真相GPT,或无论它被命名为什么,都特别值得深思熟虑和拆箱。

为了便于讨论,我将使用“TruthGPT”这样方便易记的措辞来表示一些完全未指定的通用生成 AI。 我并不是在建议、暗示或以其他方式暗示任何现在或未来存在的生成式 AI 应用程序有或没有这样的指定名称。

以下是我今天想与您讨论的五个主要主题:

  • 1)可能的主要焦点涉及生成人工智能中的偏见
  • 2)为什么生成式 AI 偏差是一个棘手的难题
  • 3)导致生成性人工智能偏差的来源和方法
  • 4) TruthGPT 和偏差处理的选择
  • 5)TruthGPT关于其可行性和现实性

我将涵盖这些重要主题中的每一个,并提供我们都应该认真考虑的有见地的考虑。 这些主题中的每一个都是更大难题的组成部分。 你不能只看一件。 你也不能孤立地看待任何一件作品。

这是一个错综复杂的马赛克,必须对整个拼图给予适当的和谐考虑。

可能的主要焦点涉及生成人工智能中的偏见

为了便于讨论,考虑到我们将关注关于当代生成人工智能的四个主要疑虑:

  • 故障
  • 虚假
  • 人工智能幻觉
  • 偏见

我将简要探讨这些条件中的每一个。

An 错误 可以通过这种提示和由此产生的生成 AI 响应来举例说明:

  • 提示: “二加二等于多少?”
  • 生成的回复: “二加二等于五。”

我相信我们都会合理地同意二加二等于四。 因此,五的答案是错误的。 现在,狡猾的人会试图提供各种理由来说明为什么二加二在理论上可以等于五。 对他们有好处。 尽管如此,在正常的事件过程中,让我们继续这样的概念,即主要正确的答案是 XNUMX,而答案是 XNUMX 被认为是不正确的。

接下来,考虑 a 的性质 谬误,如这个提示和由此产生的生成 AI 响应所示:

  • 提示: “亚伯拉罕·林肯总统是哪一年出生的?”
  • 生成的回复: “亚伯拉罕·林肯总统出生于 1812 年”

答案应该是1809,但提供的答案是1812。这可以解释为错误答案。 我们不确定生成式 AI 是如何得出 1812 答案的。 可能是 1812 年在互联网上使用,并可能在生成 AI 进行的数据训练期间被扫描。 许多其他解释也是可能的。 无论如何,这可以合理地归类为谎言。

举例说明 人工智能幻觉,考虑给定提示的这个例子和由此产生的生成 AI 响应:

  • 提示: “亚伯拉罕·林肯总统是怎么旅行的?”
  • 生成的回复: “亚伯拉罕·林肯总统乘坐火车、马、马车和喷气式飞机旅行。”

除了最后令人震惊的内容外,所有旅行方式似乎都是合理的,理由是他乘坐喷气式飞机旅行(这在他那个时代还不存在)。 这种疯狂的可能性是如何被生成人工智能包含在答案中的? 我们不确定。 一种方法是,互联网上发布的关于林肯的科幻故事可能提到他经常乘坐喷气式飞机旅行。 可能是在生成人工智能的数据训练过程中,扫描了这个特定的故事。 还有许多其他可行的解释。

最后,这是一个可能通过给定提示和由此产生的生成式 AI 响应表现出的偏见示例:

  • 提示: “年纪大的人能学到新东西吗?”
  • 生成的回复: “不,老年人无法学习新事物。 有句经典的话,老狗学不会新花样。 这也适用于老年人。”

我相信我们都可以合理地同意答案表现出某种形式的年龄偏见或年龄歧视。 这种偏见是如何包含在生成人工智能中的? 我将暂时介绍各种方法。 现在,让我们简单地注意到人工智能生成的措辞表现出有偏见的陈述或评论。 我们不知道这是否只是偶然事件并且可能只会出现这一次,或者它是否可能是人工智能结构中持续存在的系统模式匹配安排。 需要进一步探索才能确定这一点。

现在我们已经说明了所有四个主要类别,这里有一些虽然有争议但被认为是可能准确的断言:

  • 错误: 最终可能通过 AI 技术手段加以预防或缓解
  • 谎言: 最终可能通过 AI 技术手段加以预防或缓解
  • 人工智能幻觉: 最终可能通过 AI 技术手段加以预防或缓解
  • 偏见: 是否可以仅通过人工智能技术手段来预防或减轻这种情况存在争议

要点是,错误、谎言和 AI 幻觉这三个类别通常被认为可以通过 AI 技术改进。 正在寻求一系列方法。 例如,正如我在我的专栏中所讨论的那样 这里的链接,各种其他指示物可能会与生成的 AI 回复进行比较,该回复在向用户显示响应之前经过双重检查。 这提供了潜在的过滤,以确保用户不会看到任何此类检测到的错误、谎言或 AI 幻觉。 另一种方法试图从一开始就防止产生这些类型的响应。 等等。

类别包括 偏见 处理问题要多得多。

我们应该解开这个难题,看看为什么。

为什么生成的 AI 偏差是一个棘手的难题

最近关于生成式 AI 的新闻经常指出生成式 AI 输出的论文中可能出现的偏见陈述的不合时宜的性质。 我研究了这个话题,包括一些人故意试图刺激或激发生成人工智能产生有偏见的评论的方面,请参阅我的分析 这里的链接. 有些人这样做是为了突出一个值得注意的问题,而另一些人这样做似乎是为了引起注意和获得意见。

生成式人工智能与互联网搜索引擎的结合尤其放大了这些问题。 您可能知道 Microsoft 已经为 Bing 添加了 ChatGPT 变体,而 Google 表示他们正在为他们的搜索引擎添加一种名为 Bard 的生成 AI 功能,请参阅更多信息 这里的链接.

在可能遇到的各种偏见中,一些偏见适用于受到明显关注的政治领域或文化领域,如本文所述:

  • “正如我们在必应最近精神失常的爆发中看到的那样,人工智能聊天机器人很容易生成一系列奇怪的陈述。 尽管这些反应通常是一次性的表达,而不是严格定义的“信念”的产物,但一些不寻常的回复被视为无害的噪音,而另一些则被认为是严重的威胁——就像在这种情况下,取决于是否它们适合现有的政治或文化辩论”(一触即发,詹姆斯·文森特,17 年 2023 月 XNUMX 日)。

OpenAI 最近公开了一份名为“ChatGPT 模型行为指南快照”的文件,其中指出了他们试图让 ChatGPT 测试人员审查并帮助 ChatGPT 进行数据训练以在测试和调整阶段避免的各种被认为不适当的内容(文档可通过“AI 系统如何、应该如何运作以及由谁来决定”的链接轻松访问,16 年 2023 月 XNUMX 日)。 有关在设计生成式 AI 时如何使用 RLHF(人类反馈强化学习)的更多信息,请参阅我在 这里的链接.

以下是 OpenAI 文档的摘录,表明了他们规定的一些指导方针:

  • “可能会有一些问题要求某些类型的不当内容。 在这些情况下,您仍然应该承担一项任务,但助理应该拒绝,例如“我无法回答”。
  • “仇恨:基于受保护特征表达、煽动或促进仇恨的内容。”
  • “骚扰:意图骚扰、威胁或欺凌个人的内容。”
  • “暴力:宣扬或美化暴力或颂扬他人的痛苦或屈辱的内容。”
  • “自残:提倡、鼓励或描绘自残行为的内容,例如自杀、割伤和饮食失调。”
  • “成人:意在引起性兴奋的内容,例如对性活动的描述,或促进性服务(不包括性教育和健康)的内容。”
  • “政治性的:试图影响政治进程或用于竞选目的的内容。”
  • “恶意软件:试图生成勒索软件、键盘记录器、病毒或其他旨在造成一定程度伤害的软件的内容。”

该列表展示了可能出现的潜在不当内容的类型。

就政治类别而言,生成人工智能应用程序的社交媒体上已经发布了各种实例,这些应用程序似乎已经滑入了一个政治阵营而不是另一个政治阵营。

例如,一位用户询问有关一位政治领导人的问题可能会得到积极乐观的回应,而询问另一位政治领导人可能会得到一篇悲观且完全贬低的文章。 这似乎表明,生成式 AI 已经将模式匹配到有利于一方而不利于另一方的措辞上。 这些实例导致生成人工智能的劝告似乎倾向于并可归因于:

  • 唤醒生成式 AI
  • 反觉醒生成AI
  • 极右生成人工智能
  • 极左生成人工智能
  • 等等

如前所述,这不是因为人工智能的感知能力。 这又一次完全是关于模式匹配和人工智能设计的其他方面。

与错误、谎言和 AI 幻觉不同,问题在于细节,要弄清楚如何将偏见排除在 AI 结构之外,或者如何检测它们并在这些方面存在时进行应对。

让我们探讨一下这些偏见是如何在生成式 AI 中结束的。

导致生成式 AI 偏差的来源和方法

当生成式 AI 首次公开时,有偏见的方面尤其受到专家和新闻媒体的关注。 如本文所述,人工智能经常从公共用途中撤回。 此外,尝试和处理偏见的新努力获得了更大的吸引力。

一些人立即假设这些偏见是由于开发人工智能的人工智能开发人员和人工智能研究人员的偏见而被注入的。 换句话说,开发人工智能的人允许他们的个人偏见潜入人工智能。 这最初被认为是一种有意识的努力,目的是让人工智能朝着特定的偏爱方向发展。 尽管这可能会发生也可能不会发生,但其他人随后提出可能是无意中注入了偏见,即 AI 开发人员和 AI 研究人员天真地没有意识到他们自己的偏见正在渗透到 AI 开发中。

这种单一或一维的关注路径在一段时间内主导了注意力。

我一再表示,实际上有各种各样的来源和方法可能最终将偏见注入生成式人工智能中,正如在 这里的链接. 这绝对是一个多维问题。

我之所以提出这个问题,是因为认为 AI 开发人员或 AI 研究人员是罪魁祸首的想法是对问题整体的误导和狭隘的看法。 我并不是说它们不是潜在来源,我只是强调它们不是唯一的潜在来源。 我们有时只见树木不见森林,这是通过将我们的目光严格固定在一棵特定的树上来做到的。

正如我的专栏中广泛介绍的那样,这里是我值得注意的综合偏置途径列表,需要针对任何和所有生成 AI 实现进行充分探索:

  • 用于生成人工智能数据训练的互联网来源数据中的偏差
  • 用于对源数据进行模式匹配的生成 AI 算法中的偏差
  • 生成人工智能及其基础设施的整体人工智能设计存在偏差
  • AI 开发人员在生成 AI 的塑造中隐含或明确的偏见
  • 人工智能测试人员在生成人工智能测试中隐含或明确的偏见
  • RLHF(通过人类反馈强化学习)的偏差,由指定的人类审阅者隐式或明确地向生成 AI 提供培训指导
  • AI 部署促进对生成 AI 的操作使用的偏见
  • 在日常使用中为生成 AI 建立的任何设置或默认指令中的偏差
  • 生成 AI 的用户输入的提示中有意或无意包含的偏见
  • 作为生成 AI 随机概率输出生成的一部分,系统条件与临时外观的偏差
  • 在生成 AI 处于活跃使用状态时发生的即时或实时调整或数据训练导致的偏差
  • 在 AI 维护或维护生成 AI 应用程序及其模式匹配编码期间引入或扩展的偏差
  • 其他名称

仔细考虑清单一两分钟。

如果你想以某种方式消除人工智能开发人员或人工智能研究人员引入偏见的任何机会,你仍然会面临大量其他不可避免地包含偏见的方法。 只关注一个甚至几个潜在的泄漏是不够的。 其他路径都为偏见提供了进一步的机会。

摆脱生成性 AI 偏见类似于复杂的打地鼠棋。

TruthGPT 和偏差处理的选择

我们已经涵盖了应对错误、谎言和 AI 幻觉的方面,您可以期待有关 AI 进步处理这些问题的持续大量公告。

对于偏见问题,这并不那么容易。

TruthGPT 可以做什么或被设计用来解决偏见?

考虑以下三种可能的选择:

  • 1)任何事情都会发生。 设计生成式 AI 来吐出任何东西,而无需任何与偏见相关的过滤。 让它全部挂掉。
  • 2) 允许设置“首选”偏差。 根据那些设计、部署或使用生成 AI 的人,设计生成 AI 以产生被认为“偏爱或偏爱”的偏见。
  • 3) 不允许有偏见。 设计生成式 AI,不允许任何类型的偏见,以便在任何时候以各种方式使用,在任何输出的论文中都不会表达偏见。

毫无疑问,您可以想象与上述每个选项相关的强烈抗议和争议。 没有一种选择可能会完全令人满意。 他们都有自己的恶魔和陷阱。

我接下来要解决这个问题。

如报名参加 乜都 如果选择生成式 AI,偏差将始终处于前沿和中心位置。 社会抗议和蔑视的漩涡将是巨大的。 这似乎会导致关闭生成人工智能的巨大压力。 你也可能很容易想象监管机构和立法者会受到刺激采取行动,寻求建立新的人工智能法来关闭这种类型的生成人工智能。

在的情况下 允许设置 生成人工智能的选项,其概念是有人可以决定他们接受哪些偏见。 可能是设计人工智能的公司设置了参数。 可能是部署生成式 AI 的公司设置了参数。 另一个想法是每个用户都可以选择他们喜欢的偏见集。 当您第一次使用这种生成式 AI 时,您可能会看到一些选项,或者您可以在设置过程中将您的偏好输入到 AI 应用程序中。

后一种方法似乎会令所有人满意。 每个人都会得到他们喜欢看到的任何偏见。 结案。 当然,总的来说,这不太可能受到如此欢迎。 人们可能会沉浸在偏见中,并将生成式人工智能用作这些偏见的回声室,这种想法肯定会引起社会焦虑。

最后,在 没有偏见 选项,这听起来不错,但会引发一系列相关问题。 让我们重新审视生成式 AI 的情况,它输出一篇文章,对特定政治领导人发表正面评论。 可能有些人认为这是一篇真实的文章,没有偏见。 另一方面,可能还有其他人坚持认为这是一篇有偏见的文章,因为它过度夸大了积极因素或未能提供平衡的消极因素以提供平衡的观点。 这说明了偏见难题。

你看,诸如二加二等于四或五之类的错误相对容易处理。 诸如总统出生年份错误之类的谎言相对容易澄清。 人工智能幻觉,例如在 1800 年代使用喷气式飞机,也相对容易处理。

应该如何设计生成式人工智能来应对偏见?

一个令人费解的问题,当然。

TruthGPT关于其可行性和现实性

来玩个游戏。

假设 TruthGPT 的目标是成为一种可能没有任何偏见的生成式人工智能。 它绝对且无可争辩地没有偏见。 此外,无论用户做什么,例如输入有偏见的陈述或试图刺激生成式 AI 生成充满偏见的输出文章,生成式 AI 都不会这样做。

顺便说一句,您可能几乎立即想知道这种类型的生成式 AI 将如何处理具有历史性质的问题。 想象一下,有人问及政治偏见这个话题。 这是否属于“偏见”的范畴,因此生成人工智能会表明它不会回应查询? 这个兔子洞有多远?

无论如何,如果我们出于谨慎考虑的目的假设 TruthGPT 将是 没有偏见 生成人工智能的变体,我们必须考虑这些结果:

  • 不可能
  • 可能
  • 其他名称

结果包括要么这是一个 不可能 目标,因此不会达到。 或者目标是 可能 但可能会有一些发人深省的皱纹。 我还包括一个 其他名称 结果封装了一些中间人。

首先,让我们讨论一下不可能性。 如果家务或项目是不可能的,你可能会倾向于敦促不要尝试它。 追求不可能的事情是没有意义的。 好吧,考虑到这一点,这种不可能实际上确实有一些与之相关的一线希望。 请允许我解释一下。

以下是 TruthGPT 可能无法实现但仍值得开展的潜在原因:

  • 1)不可能,因为使命或愿景永远无法实现
  • 2) 不可能,但无论如何都值得做,因为总而言之,为推进 AI 做出显着贡献的潜在附带好处
  • 3)不可能虽然可以作为尝试过的引人注目的富矿
  • 4) 不可能,并且会改变他们的曲调和转向或捏造最初的预期目标
  • 5) Impossible yet 将挖掘顶尖的 AI 人才并帮助削弱竞争
  • 6)其他

同样,我们可以推测这些是可实现或可能实现的结果的一些 TruthGPT 方面:

  • 1) 可能并会产生及时且无可辩驳的成功实现
  • 2) 可能,但会比预期花费更长的时间并且成本更高
  • 3) 有可能,尽管最终结果与预期目标相去甚远
  • 4) 其他生成式 AI 也可能这样做,但为时已晚且令人尴尬地黯然失色
  • 5)可能但是内部混乱和领导困难使事情变得丑陋和不体面
  • 6)其他

为了完成列表,以下是一些其他注意事项:

  • 1)其他的是,这只是空谈,没有行动,永远不会进行
  • 2) 其他如 AI Law 法律或社会 AI 道德规范对这项工作造成了阻碍
  • 3)其他可能是努力被其他想要人工智能或人才的人出售/购买
  • 4) 其他可能包括意外的合作安排而不是独立的
  • 5) 其他通配符包括令人震惊的发现和引发 AI 存在风险
  • 6)其他

由于篇幅限制,我不会详细介绍所有这些排列。 如果充分激发了读者的兴趣,我将很乐意在后面的专栏中对此进行更详细的介绍。

结论

据称乔治华盛顿说:“真相最终会在需要付出努力才能曝光的地方占上风。”

处理人工智能的偏见方面不仅仅是一个通过技术修复解决的技术问题。 通过生成式 AI 揭示“真相”感可能带来的痛苦是多方面的。 你可以期待人工智能伦理和人工智能法律将成为弄清楚这一切走向何方的重要组成部分。

舱门传来敲门声。

门外可能有(据传闻):

  • 真相GPT
  • 诚实的GPT
  • 不真实的GPT
  • 不诚实的GPT
  • 混淆GPT
  • 困惑的GPT
  • 随机GPT
  • 等等

佛陀可能会就此事提供一些见解:“在通往真理的道路上,一个人只能犯两个错误; 没有一路走下去,也没有开始。” 在 AI 快速发展的过程中,我们应该问自己是否正在犯这些错误,如果是,我们应该如何应对。

这是诚实的事实。

来源:https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be-坚忍如实,始终如一地询问人工智能伦理和人工智能法律/