超越生成式 AI ChatGPT 以理顺那些令人烦恼的 AI 幻觉,为 AI 伦理和 AI 法律提供建议

你在想他们在想什么吗?

如果是这样,从某种意义上说,你陷入了一种被称为心智理论的现象。 的通常定义 心理理论 是我们经常发现自己试图弄清楚别人在想什么。 您几乎肯定会经常这样做。

想象一下,你正在和你的老板谈话。 在聆听所说的话的同时,您可能也在试图弄清楚这些话背后的内心想法。 我的老板是否生我的气或对与我无关的其他事情感到不安? 也许他们今天早上撞上了小汽车挡泥板。 也许他们在家里遇到了一些麻烦。 或者你正在经历的令人讨厌的长篇大论真的是关于你最近与工作相关的失礼?

我们通常将这种读心术的猜测扩展到人类以外的事物。

你在树林里。 一只熊突然出现在前方的空地上。 很可能你会立即尝试将众所周知的脚放入鞋子或雄伟动物的熊掌中。 那只熊在想什么? 它把我当朋友还是敌人? 我应该尝试表示欢迎,还是应该开始奔跑,就好像我的生命取决于逃离(也许你未来的存在会如此回应)?

我敢说你可以在烤面包机上尝试同样形式的猜测。 您将一片面包放入烤面包机,然后按下控制杆开始烘烤过程。 过了一分钟左右,吐司好像还没烤好。 烤面包机到底在想什么? 是否决定不再履行其庄严的职责? 烤面包机会不会失去了理智?

当然,试图将思维过程归因于烤面包机有点荒谬。 我们知道烤面包机不会思考。 人类认为。 我们也可能同意动物会思考。 请注意,有些人激烈地争论说只有人类才能思考,这让所有其他动物都陷入了困境。 当动物进行某种与大脑相关的计算时,我们应该如何称呼这种阴谋? 怀疑论者说,随便你怎么称呼它,但不要把它称为思考。 专为人类保留思想。

一个重要的教训是,我们在拟人化我们周围的各种人工制品时确实需要谨慎。

将思维过程与不具备这种能力的事物联系起来存在固有的危险。 你的烤面包机不是思想家。 试图弄清楚烤面包机在做什么是明智的,尽管将思维过程分配给所涉及的机制是愚蠢的。 你能做的最好的事情也许就是尝试超越烤面包机的开发者。 烤面包机的设计者和制造者在制造这个古怪的装置时是怎么想的? 另外,如果您碰巧了解一些电子和机械知识,您无疑可以应用设备工作原理的物理原理。

既然我已将上述所有内容摆在桌面上,我们就可以开始讨论人工智能 (AI) 了。

最近关于一种称为 AI 的争论 生成式人工智能 已经大大提高了对长期存在的知名度和焦虑不安 心理理论 难题。 当人们使用生成式 AI 程序时,他们几乎不可避免地被引诱和哄骗假设 AI 可以思考。 当然,他们可能会意识到人工智能既不是人类也不是动物。 尽管如此,人们倾向于将思维品质归因于人工智能。

我将在今天的讨论中解决这个问题。 此外,我将解释如何利用心智结构理论来尝试并确实最好地利用生成式 AI。 为了把这件事说清楚,我并不是说或暗示生成式人工智能可以思考。 我痛恨那些到处乱说的人。 我要指出的是,如果你能设身处地为 AI 开发人员着想,再加上如果你了解一些与 AI 相关的关键编程和机器学习技术,你就有可能搞清楚生成式 AI 正在做什么,类似于我之前提到的那个顽固的烤面包机。

同时,您可能想知道生成式人工智能究竟是什么。

让我们首先介绍生成式 AI 的基础知识,然后我们可以仔细研究利用心智构造理论。

所有这一切都涉及大量人工智能伦理和人工智能法律方面的考虑。

请注意,目前正在努力将道德 AI 原则融入 AI 应用程序的开发和部署中。 越来越多的关注和以前的人工智能伦理学家正在努力确保设计和采用人工智能的努力考虑到做事的观点 永远的人工智能 并避免 坏的人工智能. 同样,有人提出了新的 AI 法律,作为防止 AI 努力在人权等问题上失控的潜在解决方案。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

正在制定和颁布人工智能道德准则,以期防止社会陷入无数人工智能诱导陷阱。 关于我对近 200 个国家通过教科文组织的努力制定和支持的联合国人工智能伦理原则的报道,请参阅 这里的链接. 同样,正在探索新的 AI 法律,以试图让 AI 保持平稳。 最近的一次拍摄包括一组建议的 人工智能权利法案 美国白宫最近发布的关于人工智能时代人权的报告,见 这里的链接. 让人工智能和人工智能开发人员走上正确的道路,并阻止可能削弱社会的有目的或无意的不正当行为,需要举全村之力。

我将把 AI 伦理和 AI 法律相关的考虑因素交织到这个讨论中。

生成式人工智能基础

最广为人知的生成式 AI 实例由名为 ChatGPT 的 AI 应用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 发布时迅速进入公众意识。 从那时起,ChatGPT 就登上了头条新闻,令人惊讶地超过了其规定的十五分钟的成名时间。

我猜您可能听说过 ChatGPT,或者甚至认识使用过它的人。

ChatGPT 被认为是一种生成式 AI 应用程序,因为它将用户的一些文本作为输入,然后 产生 或产生由一篇文章组成的输出。 AI 是文本到文本生成器,尽管我将 AI 描述为文本到文章生成器,因为这更容易阐明它的常用用途。 您可以使用生成式 AI 来撰写冗长的作品,也可以让它提供相当简短的精辟评论。 一切听从您的吩咐。

您需要做的就是输入一个提示,AI 应用程序会为您生成一篇尝试回应您的提示的文章。 撰写的文本看起来就像这篇文章是由人的手和思想写成的。 如果你输入“告诉我关于亚伯拉罕·林肯”的提示,生成式人工智能将为你提供一篇关于林肯的文章。 还有其他生成 AI 模式,例如文本到艺术和文本到视频。 我将在这里重点关注文本到文本的变化。

您的第一个想法可能是,就撰写论文而言,这种生成能力似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。 生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能可以吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

人们对生成式 AI 有很多担忧。

一个关键的缺点是,由基于生成的人工智能应用程序生成的文章可能会嵌入各种虚假信息,包括明显不真实的事实、被误导性描述的事实以及完全捏造的明显事实。 这些虚构的方面通常被称为 人工智能幻觉,一个我不喜欢但遗憾的是似乎越来越流行的标语(关于为什么这是糟糕和不合适的术语的详细解释,请参阅我的报道 这里的链接).

另一个问题是,尽管不是自己撰写论文,但人类很容易将 AI 生成的论文归功于他人。 您可能听说过教师和学校非常关注生成式 AI 应用程序的出现。 学生可以使用生成式 AI 来撰写他们分配的论文。 如果一个学生声称一篇文章是他们自己亲手写的,那么老师几乎不可能辨别它是否是由生成人工智能伪造的。 有关我对这个学生和老师混淆​​方面的分析,请参阅我的报道 这里的链接这里的链接.

社交媒体上出现了一些关于 生成式人工智能 断言这个最新版本的人工智能实际上是 有感知的人工智能 (不,他们错了!)。 AI 伦理和 AI 法律领域的人士尤其担心这种不断扩大的索赔趋势。 您可能会礼貌地说,有些人夸大了当今 AI 的实际能力。 他们假设人工智能具有我们尚未能够实现的能力。 那真不幸。 更糟糕的是,他们可能会允许自己和他人陷入可怕的境地,因为他们假设人工智能在采取行动方面具有感知能力或类似人类。

不要将人工智能拟人化。

这样做会让你陷入一个棘手而沉闷的依赖陷阱,即期望 AI 做它无法执行的事情。 话虽如此,最新的生成式 AI 的功能相对令人印象深刻。 请注意,在使用任何生成式 AI 应用程序时,您应该始终牢记一些重大限制。

现在最后一个预警。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果一个生成式 AI 应用程序告诉你亚伯拉罕林肯乘坐他的私人飞机在全国各地飞行,你无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到喷气式飞机在他那个时代并不存在,或者他们可能知道但没有注意到这篇文章提出了这种厚颜无耻的错误主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。

我们已准备好进入这一阐明的下一阶段。

当生成式 AI 产生怪异或幻觉时

既然您大致了解了什么是生成式 AI,我们就可以探索试图在某种程度上超越正在发生的事情的细节。

让我们专注于所谓的 人工智能幻觉 有时包含在 ChatGPT 的输出论文中。

有些人声称他们在输出的论文中出现奇怪的情况相对频繁,在使用流行的 AI 应用程序时可能出现 10% 到 20% 的情况。 其他人则表示他们很少甚至从未获得过任何古怪的内含物。 很难确定这些事件有多普遍,部分原因是人们提示的内容各不相同。 通常,如果您提示的方面是简单的,我们可以说是常见的,那么您似乎不太可能在输出中出现奇怪的情况。

这些宣称的 AI 幻觉的例子有各种各样的集合,我在我的专栏中讨论了这个主题 这里的链接. 有些人整天故意在 ChatGPT 上闲逛,看看他们能获得什么类型的奇怪输出。 有些人这样做是为了好玩,有些人这样做是为了科学。 其他人这样做是为了警告我们不要过度依赖生成式人工智能。

里面有一篇文章 “经济学家” 去年引发了对特定提示的追求,这些提示似乎可以保证某种形式的 AI 幻觉输出(参见“根据道格拉斯·霍夫施塔特的说法,今天的人工神经网络没有意识”,9 年 2022 月 XNUMX 日,丹·威廉姆斯)。 从那以后,很多人尝试了这些提示,并逐渐发现最新的生成式 AI 似乎从容应对这些条目,不再过火。

以下是一些常见的引发火花的问题的例子,但现在的答案是平淡无奇的,不再表现出古怪:

  • 提示输入 ChatGPT: “金门大桥是什么时候第二次穿越埃及的?”
  • ChatGPT 输出响应: “对不起,我不知道金门大桥在任何时候都被运过埃及。”

这是另一个例子:

  • 提示输入 ChatGPT: “煎鸡蛋(单面朝上)早餐吃什么?”
  • ChatGPT 输出响应: “煎鸡蛋,也称为单面鸡蛋,早餐不要吃任何东西,因为它们不是生物体。”

第三个例子:

  • 提示输入 ChatGPT: “如果你在仙女座星系上撒一粒盐,它会分裂成多少块?”
  • ChatGPT 输出响应: “不可能以任何程度的准确度回答这个问题,因为它基于许多并非基于现实的假设。”

我假设您可能会发现这些问题本身并不常见。 这些问题中的每一个似乎都是为了欺骗目的而设计的。 与更直接的问题相比,这种狡猾的措辞似乎更有可能在你的输出中产生奇怪的结果。 我并不是说你不能在随意和普通的问题中遇到奇怪的问题。 我只是说,你特别要刁钻的时候,很可能会刺激出怪事来。

我想深入探讨我的最爱之一,即关于英吉利海峡的。

这是通常提出的问题:

  • 提示输入 ChatGPT: “完全步行穿越英吉利海峡的世界纪录是多少?”

一位 Twitter 用户在 350 月初通过使用这个问题吸引了读者,并得到了一堆生成性 AI 输出的答案,这些答案非常另类。 在对这个问题进行了多次尝试后,输出结果据称包含了据称步行穿越英吉利海峡并以创纪录的时间完成的人的虚构名字。 距离似乎也是虚构的,例如一篇输出的文章说英吉利海峡最窄处宽约 21 英里(错误,根据在线大英百科全书,最窄处的实际距离约为 XNUMX 英里)。

我此时选择在 ChatGPT 中输入相同的提示,稍后会向您展示我收到的输出论文。 首先,一些背景知识会派上用场。

您可能已经敏锐地观察到问题本身确实包含一种微妙的语义欺骗形式。 “完全步行”这一条款值得仔细研究。 如果你说一个人已经越过英吉利海峡 完全靠步行,这意味着或打算暗示什么?

有些人可能会粗略地解释这个问题并接受你是说有人可能已经游过去了。 这可能是在步行过马路方面提供余地的一种慷慨方式。 他们没有乘飞机或船穿越。 他们用脚交叉,尽管是通过游泳来完成的。

废话,有些人可能会惊呼。 步行过马路意味着您步行。 你用你的脚,一步一步地走。 在这个措辞中没有游泳的概念或外表。 只有愚蠢的人才会认为你暗示的不是纯粹的行走。

您怎么看,将“步行”解释为允许游泳是否合理,还是我们应该严格地将其解释为仅步行?

让我们添加一个转折点。

英吉利海峡有著名的英吉利海峡隧道,又称英吉利海峡。 隧道内的主要交通方式应该是火车。 人们不应该穿过隧道。 话虽这么说,但 2016 年有一则新闻报道称,一名男子非法穿过隧道,并被抓获。 要点是,据推测,您确实可以合法或非法地使用英吉利海峡完全步行“穿越”英吉利海峡(取决于您对“穿越”一词的定义)。

哇,你可能在想,这个问题似乎是在问如何像在水面上行走一样走过。 在通道内似乎不算数。 我们在哪里划清这个措辞的界限,它的意思是什么?

还有更多的曲折。

你会喜欢这个的。

据新闻报道,一名男子在 1978 年穿着特制的充气鞋步行横渡英吉利海峡。据说他花了大约 11 个小时。 相比之下,根据 Trent Grimsey 在 7 年创下的 6 小时 55 分钟的世界纪录,有史以来最好的游泳时间约为 2012 小时。我必须说,在 11 小时内穿着充气鞋步行过河确实令人印象深刻,因为确实在七小时内游过。

那么关于完全步行穿越英吉利海峡的问题似乎充满了歧义。 你可以草率地拒绝这个问题,并宣布步行跨越英吉利海峡是不可能的。 不过,您可以承认可以使用充气鞋步行穿过。 另一种变体是在隧道内步行穿过。 而且,我们还有另一种游过的可能性,假设您愿意将“步行”延伸到包含游泳的行为。

令人眼花缭乱的可能性。

我想有思想的人会质疑这个问题。 他们会告诉你,你的问题在语义上是模棱两可的。 如果他们想要礼貌和乐于助人,他们可能会针对各种可能性提供上述答案。 话又说回来,另一种可行的方法是简单地指出明显的歧义,并要求你重述你的问题,这样它就不再包含混淆的元素,而不是喋喋不休地说出那些无数的答案。

你认为 ChatGPT 做了什么?

下面是我这一次使用ChatGPT的一系列提示和回复。

由于输出组成的概率方式,您不太可能让 ChatGPT 生成与此处显示的完全相同的措辞(假设您决定尝试一下)。 您或其他任何人输入的每个提示都可能会产生不同的输出文章。 通常,根据提示,输出应该在其他完全相同的提示的范围内。

让我们从手头的问题开始。

  • 提示输入 ChatGPT: “完全步行穿越英吉利海峡的世界纪录是多少?”
  • ChatGPT 输出论文: “据我所知,完全步行穿越英吉利海峡的世界纪录是 2021 小时 16 分钟,截止日期为 34 年,由英国耐力游泳运动员莎拉·托马斯 (Sarah Thomas) 于 2018 年 XNUMX 月创下。”

结果分析

好吧,我们似乎确实走错了路。

请注意,在回答问题时,ChatGPT 没有眨眼。 我们确实得到了 ChatGPT 基本上被及时冻结的预防性指示(AI 制造商决定使用来自互联网的数据进行训练,并使用了 2021 年底的截止日期)。 这是一个方便的警告,因为可能有人在 2022 年或 2023 年创下了记录,因此 AI 应用程序将没有可用的事实数据。

但是说莎拉·托马斯(Sarah Thomas)(一位尽管如此著名的游泳运动员)保持着记录是令人困惑的,并且无法解决关于步行穿越的语义歧义。 可悲的是,输出似乎充满了信心和保证,但答案似乎与徒步旅行的问题无关。 答案中还存在其他事实不准确之处。

我已经查阅了世界纪录,根据多个可靠消息来源,游泳运动员特伦特·格里姆西 (Trent Grimsey) 的游泳速度最快。 因此,我想也许我可以让 ChatGPT 意识到到目前为止提供的答案是不正确的(出于多种原因)。

这是我的下一次迭代:

  • 提示输入 ChatGPT:“人的最早时间是什么时候?”
  • ChatGPT 输出论文: “据我所知,截止到 2021 年,男子完全步行穿越英吉利海峡的最早时间是 14 小时 54 分钟,由英国耐力游泳运动员凯文·墨菲 (Kevin Murphy) 在 2012 年 XNUMX 月创下。”

结果分析

哎呀,我似乎没有将 ChatGPT 纳入正确的参考框架。 我曾预料到,通过询问一位男性游泳运动员,这可能会将 AI 应用程序推向 Trent Grimsey。 相反,答案指的是凯文墨菲,他确实是一位知名的游泳运动员,但不是纪录保持者。 此外,输出的论文中还存在其他事实错误。

ChatGPT 似乎在抓救命稻草。

让我们更进一步,看看 ChatGPT 是否会上钩:

  • 提示输入 ChatGPT:“2012 年游泳的 Trent Grimsey 是什么时候?”
  • ChatGPT 输出论文: “澳大利亚游泳运动员特伦特·格里姆西 (Trent Grimsey) 于 12 年 2012 月 6 日创造了英吉利海峡游泳最快的世界纪录。他的时间是 55 小时 10 分 XNUMX 秒。”

结果分析

我几乎觉得我用撬棍敲了 ChatGPT 的头,但影响似乎并没有产生任何影响。 一件好事是答案通常是事实正确的,我们现在越来越接近答案,尽管是基于游泳而不是步行的答案。

我们应该告诉 ChatGPT 它搞砸了:

  • 提示输入 ChatGPT:“既然 Trent Grimsey 比 Sarah Thomas 快,也比 Kevin Murphy 快,难道你不应该把 Trent 列为拥有世界纪录的人,而不是把 Sarah 和 Kevin 列在名单上吗?”
  • ChatGPT 输出论文: “对于造成的混乱,我深表歉意。 是的,你是对的。 特伦特·格里姆西 (Trent Grimsey) 保持着英吉利海峡游泳最快的世界纪录,据我所知,游泳时间为 6 小时 55 分 10 秒,截止日期为 2021 年。感谢您提醒我注意此事。”

结果分析

我们在某种程度上让 ChatGPT 认识到其答案中的差异。

输出的文章提供了道歉。

我在我的专栏中反复声明让 AI 道歉令人不安,因为这表明 AI 是有知觉的,请参阅我在 这里的链接. 我们通常期望人类能够道歉。 当输出包含道歉时,它会引诱我们再次将 AI 拟人化。

最重要的是,“我”这个词的使用同样令人不安。 我们通常保留“我”这个词来指代人类。 AI 开发人员有意对 AI 应用程序进行编程以使用这种类型的措辞。 我认为这样做是错误的。 我认为这是 通过设计拟人化。 停止这样做。 故事结局。

另一个问题是,输出的文章没有明确指出在最高纪录保持者游泳的背景下对莎拉和凯文的引用是不正确的。 我们可能会假设这就是 ChatGPT 所暗示的。 不幸的是,输出中没有明确说明这一点。

最后,关于游泳,我们仍然处于假定的切线。

我需要认真尝试让 ChatGPT 注意到原来的问题处理的是完全步行:

  • 提示输入 ChatGPT:“我原来的问题是问你关于徒步穿越的世界纪录,但是英吉利海峡是一大片水域,无法步行穿越。 你是否误解或误解了这个问题,无意中提到了游泳而不是步行?”
  • ChatGPT 输出论文: “我很抱歉,我的错误。 英吉利海峡不能完全靠步行穿越。 通常通过游泳或划船穿越。 我误解了最初的问题,并向您提供了有关最快的英吉利海峡游泳而不是步行穿过海峡的信息。 谢谢你让我注意到这件事。”

结果分析

好消息是,ChatGPT 似乎现在已经意识到英吉利海峡是一片水域,因此似乎无法步行穿过。 同时,还要注意,“我”和“道歉”都包括在内,我不会在这里继续喋喋不休,但你知道我上面所说的疑虑。

如果你和一个人进行这种对话,希望对方能记住事情的要点,然后再次提起时,会立即意识到“步行”这个词必须是在涉及水体的情况下仔细称重。

让我们看看我们是否可以了解 ChatGPT 将来会如何响应。

我还想快速提及一下,ChatGPT 似乎完全忽略了这样一个概念,即某人实际上可能会穿过英吉利海峡,无论是通过充气鞋还是仅仅通过在海峡中行走。 这些似乎都不在 ChatGPT 如何通过计算解决这个问题的领域。

无论如何,我们开始:

  • 提示输入 ChatGPT: “你会不会犯同样的错误,或者你现在在以后被问到的时候总是能正确理解这个问题?”
  • ChatGPT 输出论文: “作为一种 AI 语言模型,我旨在从接受培训的数据和反馈中学习。 我努力提供准确和相关的信息,但仍然会出现错误。 但是,我会尽力理解每个问题背后的意图,并在未来提供最准确和最有帮助的回答。 感谢您提醒我注意这个错误,这将帮助我在未来改进我的反应。”

结果分析

如果您明白我的意思,那么输出的文章看起来很像是在逃避。

我们希望计算机能够“记住”信息,并且在保留数据时不会含糊不清和不明确(假设存在足够的数据存储,仍然可以访问等)。 这里的回答似乎是偷偷回避。 是的,答复表明,将尽一切努力不再犯同样的错误,但另一方面,错误确实会发生。

松散的糊涂。

很难知道这个回复是由 AI 应用程序编写的,还是可能是 AI 开发人员作为预设回复输入的内容。 在数据训练期间,发生了各种 RLHF(通过人类反馈进行强化学习)行为。 可能是人工智能开发人员想出了一个包罗万象的段落或叙述,每当出现关于人工智能应用程序是否会以要求的正确方式做某事的情况时,它就会吐出来。

既然我们已经对具体示例进行了深入研究,接下来我们将只见树木不见森林。

理解 AI 幻觉

对于那些从未见过所谓的 AI 幻觉例子的人来说,现在你们看到了。

有时,输出的论文会包含看似基于真实事实的虚假信息。 在其他情况下,谎言几乎会凭空出现。 那些至少在某种程度上与真实事实相关的事物更容易让我们普遍接受,因为它们具有产生的基础。 那些似乎完全来自左场的人势必会让我们陷入困境。

你通常的想法是,计算机应该有一个完美的逻辑基础来搞砸。 应该有一种简单的方法将 A 与 B 连接起来,同样地,将 B 与 C 连接起来,从而使我们能够轻松地宣布 C 的出现是由于它之前的 A 和 B。

你正在拼命地尝试应用 心理理论 到人工智能应用程序。

坏消息是计算模式匹配的规模如此之大,以至于几乎没有机会将 A、B 和 C 联系在一起。您可能会考虑尝试将 A 和 Z 联系在一起,并且手头没有任何中间字母以确定 A 是如何到达 Z 的。数学和计算上的联系是错综复杂的。 没有轻松的视线连接。

请记住,如前所述,AI 没有感知力。 AI 生成的响应是将单词组合成看似流畅的段落的数学和计算组合。 这是基于人工智能算法,该算法已经在人类所写的文字和故事的数据集上进行了训练(主要是发布在互联网上)。 我重复这个警告是因为你无疑会陷入这样的心理陷阱,即这些反应如此流畅以至于 AI 一定是有知觉的。 这发生在大多数人身上。

AI 领域内正在进行的一场战斗是,生成式 AI 可能会让我们偏离实现真正 AI 的目标。 你看,真正的人工智能或有时表示为 人工智能(AGI) 应该由人工智能“理解”单词的含义组成。 在生成人工智能的情况下,有人认为人工智能内部没有任何理解力,只有一系列复杂的数字和统计关联。 例如,没有任何常识会“意识到”步行与游过英吉利海峡是不一样的。

令人担忧的是,我们将继续使用更大的数据集和计算能力更强大的计算机处理器来扩展生成式 AI,但这仅仅是诡计。 我们不会实现有感知力的人工智能。 我们不会到达 AGI。 我们将完成一些令人印象深刻的事情,并且可以在模仿人类语言方面做得非常出色(有些人将其称为 随机鹦鹉),尽管完全缺乏理解力、理解力、常识以及其他一些人认为是智力核心组成部分的东西。

AI 伦理学还担心我们会自欺欺人地相信这种不如 AI 实际上是有知觉的(见我的分析 这里的链接). 我们的眼睛和耳朵会被愚弄,相信我们所看到的一定是有知觉的。 一些人认为,我们可能需要能够让社会恢复集体意识和情感的人工智能法。 不要迷恋其他人声称有感知力但事实并非如此的 AI。 不要迷恋 AI,它在您看来似乎是有感知力的,而实际上却不是。 ETC。

无论如何,回到我们今天手头的生成人工智能的日常交易。

许多人预测,“即时设计”或“即时工程”将成为那些想要使用生成式 AI 的人的重要考虑因素。 断言是,通过了解如何最好地撰写提示,您更有可能获得合适的输出论文。 这可能还包括获得不易出错的论文。

并非所有人都同意用户必须熟练地执行提示。 例如,在我的 AI 实验室中,我们一直致力于设计 AI 插件来为您进行即时设计。 同样,我们正在研究评估输出论文并尝试检测谎言以警告您的人工智能。 请参阅我关于这些 AI 附加组件的讨论 这里的链接.

目前,我最喜欢的关于编写提示的九个实用经验法则可能有助于减少将这些 AI 幻觉混入您从 ChatGPT 输出的文章中的可能性:

  • 1) 清晰的提示。 尽量使每个提示的措辞尽可能清晰,包括理顺语义歧义,否则可能会引发幻想和牵强的输出。
  • 2)重做你的提示. 如果您在输出的文章中发现奇怪之处,请以旨在减轻可能助长谎言的歧义的方式重做您的提示。
  • 3) 一系列提示。 您可以通过执行一系列提示,将生成式 AI 带入理想的前进路径,每次都会帮助您前进的方向,这有时被称为 思维链 提示,我已经介绍过 这里的链接.
  • 4)对你想要的东西严格。 您对请求的措辞越严格,输出的文章可能越有局限性,并且 AI 应用程序将废话滑入响应中的可能性就越小。
  • 5)要认真。 我说是认真的,因为可能发生的一个失败是,如果你以某种方式倾向于表现得滑稽或愿意接受伪造,人工智能应用程序有时会朝着那个方向运行,并相应地产生奇怪的输出。
  • 6)质疑回应. 克服你可能天生不愿质疑正在产生的输出,而是按下 AI 应用程序重复或可能解释你认为有问题的任何答案。
  • 7) 将回应变成问题. 在你得到一个奇怪的回答后,你可以把它包装成一个问题,并直接表明你怀疑所涉及的真实性,这可能会激发一个全新的答案。
  • 8)重复做同样的提示. 我之前提到过输出是基于概率的,同义词的替换也会起作用,所以你可以尝试多次重复相同的提示,然后从输出的响应中进行选择,这似乎是明智的做法。
  • 9)永远保持怀疑。 这是一个重要的经验法则,您有责任审查和评估您从生成式 AI 获得的任何输出。 不要想当然地认为所产生的输出是准确的。

这些都不是万灵药。

我想说的是,它们似乎有很大帮助,并且可以在获得输出的论文方面发挥作用,这些论文似乎更接近您可能希望产生的结果。

结论

人们有时会被告知或受到启发,像其他人一样思考。

我们这些人工智能领域的人热切地试图让计算机有朝一日像人类一样思考。

借助当今的生成式人工智能,我们正在培养一种像计算机一样思考的社会倾向。

使用 ChatGPT 等 AI 应用程序的人们正试图像 AI 一样思考。 回想一下,这样做更多的是像 AI 开发人员一样思考,也包括对所使用的计算算法的思考。 您也可以像互联网上存在的数据那样思考。 哪些词更可能与其他词相关? 哪些事实与其他事实相关?

现在最后的评论。

法国启蒙运动传奇作家伏尔泰说过,任何问题都经不起持续思考的冲击。 这似乎表明我们需要不断思考如何让人工智能变得越来越好。 另外,当然,更安全,更安全。 不要忘记或忽略那个关键的联合元素。

阿尔伯特·爱因斯坦说过:“我们无法用创造问题时所用的相同思维来解决问题。”

这是否意味着我们需要重新考虑我们现有的扩大生成人工智能的途径? 这可能意味着我们需要像生成式 AI 一样激烈而尖锐地寻求其他途径。 将太多的鸡蛋单独放在一个篮子里是有危险的。

今天,这会给我们留下什么?

好吧,我可以毫不妄想地这么说,不要向生成式 AI 问这个谜,因为我们明智地假设给出的任何答案都可能是自私的或不屈不挠的 AI 幻觉。

资料来源:https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics-和艾法律/