人们热切地向生成式 AI ChatGPT 咨询心理健康建议,强调 AI 伦理和 AI 法

心理健康已成为当今社会的热门话题。

过去,关于心理健康的讨论常常被掩盖或完全掩盖。 逐渐的文化变革导致人们公开考虑心理健康问题,并以公开承认的方式缓解了这样做的疑虑。

你可能会把这种总体社会态度的变化归功于易于访问的智能手机应用程序的出现,这些应用程序有助于你的个人正念,并可能会刺激你走向心理健康。 有用于正念的应用程序、用于冥想的应用程序、用于诊断您的心理健康状况的应用程序、用于进行心理健康检查的应用程序等等。 存在大量的应用程序。

我们可以说智能手机应用程序公开地导致了对心理健康的开放吗? 诚然,这是先有鸡还是先有蛋的问题。 对心理健康的开放是否允许相关智能手机应用程序的出现,或者智能手机应用程序的心理健康是否推动社会朝着关注心理健康的方向发展?

也许这是一个交织的组合,需要同时发生两个方向。

无论如何,在这种强大的组合中,出现了据说由人工智能 (AI) 提供强大支持的心理健康应用程序。 这个想法是,可以通过(大概)明智地使用人工智能来改进底层技术。 虽然心理健康应用程序的初始版本主要是基于事实的信息传递,就好像你正在对所述主题进行在线搜索一样,人工智能的注入导致自动化与你进行互动对话,类似于与人类治疗师等发短信(好吧,有点像我将在这里讨论和审查的那样)。

这将我们带到最近引起国家和国际关注的最新且引人注目的人工智能,即使用正式称为 生成式人工智能 并通过名为 ChatGPT 的应用程序广泛普及。 澄清一下,ChatGPT 是一个通用的 AI 交互系统,本质上是一个通用的聊天机器人,尽管如此,它仍被专门寻求收集心理健康建议的人们积极而热切地使用(该应用程序并非为此目的而制作,但人们已经决定他们无论如何都想将它用于该角色)。

有关我最近对 ​​ChatGPT 的报道,请参阅 这里的链接 概述。 我还做了一些关于 ChatGPT 如何让老师担心学生可能通过使用 AI 写论文作弊的后续行动,请参阅 这里的链接,我在与圣诞老人相关的分析中做了一个季节性的观察 这里的链接.

别担心,我将在本文中解释什么是生成式 AI 和 ChatGPT,只是暂时解释一下,所以请耐心等待。

如果你看一下社交媒体,你会看到人们宣称 ChatGPT 和生成式 AI 是自切片面包以来最好的东西。 有人认为这实际上是有知觉的 AI(不,他们错了!)。 其他人担心人们正在超越自己。 他们正在看到他们想看到的东西。 他们拿了一个闪亮的新玩具,并确切地展示了为什么我们不能拥有吸引人的新东西。

AI 伦理和 AI 法律领域的人士对这种新兴趋势清醒而严肃地担忧,这是理所当然的。 我们将在此仔细研究人们如何将生成式 AI 用于并非特别适合 AI 今天真正可以实现的用途。 各种各样的 AI 伦理和 AI 法律问题无疑都包含在整个难题中。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

首先,让我们考虑一下心理健康的一些重要方面,以及为什么这是一个非常重要的话题。 奠定了基础之后,我们将快速解释生成式 AI,尤其是 ChatGPT。 我将包括来自 ChatGPT 的示例,以便您可以亲眼看到 AI 应用程序能够产生的冗长类型。 我们将以关于这一切意味着什么以及 AI 伦理和 AI 法律如何不可避免地介入其中的一些评论来结束本次讨论。

系好安全带,享受一段美好的旅程。

心理健康是一个重要且日益增长的社会问题

根据各种已公布的统计数据,今天的心理健康状况笼罩着一片阴云密布。 我不想显得闷闷不乐,但我们不妨正视我们面临的现实。 把头埋在沙子里是行不通的。 我们最好睁大眼睛并愿意解决棘手的问题来处理这个问题。

以下是一个著名的心理健康组织收集的关于美国人和心理健康状况的一些值得注意的统计数据(每 美国心理健康, “2023 年的主要发现”):

  • 成年人普遍患有精神疾病. 大约 21% 的成年人报告患有精神疾病,这大致相当于说美国大约有 50 万成年人经历过这种疾病。
  • 普遍缺乏心理健康治疗。 略多于一半的患有精神疾病的成年人没有得到治疗(大约 55%),因此可能有大约 28 万成年人没有得到需要的心理健康治疗。
  • 年轻人也受到影响。 美国大约十分之一的年轻人表示,他们经历过严重的抑郁症,影响了他们的学业、家庭生活、家庭互动和/或社交生活。
  • 缺乏针对青少年的心理健康治疗。 不到三分之一的患有严重抑郁症的年轻人正在接受持续治疗(只有约 28% 这样做),超过一半的人根本没有得到任何心理保健(估计为 57%)。
  • 心理健康提供者稀疏。 据报道,在美国,估计有 350 人对应一个心理健康提供者,这表明所有人口中缺乏可用的合格心理健康专业顾问和治疗师。

我不想让我们专注于统计数据本身,因为您可以很容易地争论这些统计数据有时是如何收集或报告的。 例如,有时这些是基于调查,其中民意调查是针对该国的某些地区或某些类型的人预先选择的。 此外,你可以明确地质疑人们在自我报告自己的心理健康状况时有多诚实,这取决于提问者是谁,以及他们为什么想在这个话题上倾向于一个或另一个方向。 等等。

但要点是,我们至少可以普遍同意,这个国家面临着心理健康挑战,我们应该为此做点什么。 如果我们什么都不做,基本假设是事情会变得更糟。 你不能让一个恶化的问题无休止地恶化。

您可能已经在上述统计数据中注意到,据称缺乏可用的合格心理健康专业人员。 人们相信存在供需失衡,为此心理健康顾问供应不足,而对心理健康建议的实际或潜在需求过多(我说潜在的是因为许多人可能没有意识到寻求心理健康建议的价值,或者他们负担不起,或者他们无法在逻辑上获得它)。

我们如何处理这种不平衡?

一种途径似乎是使用自动化,尤其是人工智能来支持提供心理健康建议的“供应方”。 你可以很有说服力地争辩说,智能手机冥想和正念应用程序的流行表明确实存在被压抑的需求。 当您无法轻易获得合格的人类顾问时,自动化和人工智能就会填补这一空白。

还要考虑便利因素。

当使用 AI 应用程序进行心理健康时,您可以 24 天 7 小时使用 AI。 无需安排约会。 在逻辑上与人类顾问亲自会面没有任何困难。 成本可能也便宜很多。 你可以使用 AI 应用程序来节省时间,而对于人类顾问来说,时钟在滴答作响,计费时间也在增加。

但是,等一下,你可能会劝告,人工智能应用程序无法与人类顾问相提并论。

这表面上是苹果与橘子的比较。 或者,也许更像是苹果与牡蛎的比较,这样两者就不会特别比较了。 一个合格的人类顾问知道他们在心理健康方面的工作,肯定比我们今天拥有的任何类型的人工智能都要领先。 当然,AI 应用程序可能全天候可用,但您获得的质量水平较低,因此您无法在使用人类顾问与使用 AI 之间做出任何明智的比较。

我们将很快回到这场关于人类顾问与基于人工智能的建议的辩论。

与此同时,心理健康的一个方面似乎相当令人痛心,涉及青少年和心理健康。

一种信念是,如果我们在某人年轻时不发现心理健康问题,那么当他们成年时,社会成本将在另一端巨大。 这是一个关于幼苗长成一棵精心设计的树或一棵有各种未来问题的树的经典故事。 或许,有些人建议,我们应该特别关注年轻人。 尽早发现问题。 尽量避免这些问题成为终生的难题。 这可能会缓解成年阶段心理健康问题的表现,如果你明白我的意思,只要有一些毅力,我们就可以减少心理健康恶化的管道流量。

研究人员强调了这些类似的担忧,例如最近的这篇论文:“青少年和新兴成年人(‘年轻人’)的心理健康是一个值得全球紧急关注的公共卫生领域。 以多个领域(身体、社会、心理、职业)、青春期和初现成年期的快速变化为特征的过渡期是一个与心理健康风险增加相关的发展阶段,因为年轻人经历与青春期、神经发育相关的重大生活变化,以及社会环境中身份和自主权的变化。 研究表明,年轻人中精神疾病的患病率很高,五分之一的人可能符合精神障碍的标准。 与高患病率相关的疾病负担因治疗供不应求而造成治疗缺口而进一步加剧。 数字心理健康干预 (DMHI),例如通过智能手机应用程序或在线提供的干预,代表了一种快速增长的服务模式,有可能提供更多的支持”(Vilas Sawrikar 和 Kellie Mote,“技术接受和信任:被忽视的考虑因素年轻人对数字心理健康干预措施的使用”, 卫生政策与技术,2022年XNUMX月)

正如这些研究人员所指出的那样,由于各种原因,自动化和人工智能心理健康应用程序的出现似乎适合年轻人,例如年轻人可能更倾向于使用高科技,而且他们也可能会发现轻松的吸引力访问和其他方面。 文章提到有一个流行的流行语叫做 数字心理健康干预, 以及相关的缩写 DMHI (这个首字母缩略词还没有固定下来,替代品正在四处流传)。

让我们更深入地研究一下数字心理健康干预的概念。

以下是研究人员补充的一些评论:“以技术为媒介的医疗保健可以通过提供大规模、低成本和方便用户的支持来缩小服务差距。 智能手机技术在年轻人中的普及指出了一个看似显而易见的解决方案来满足这一人群的需求。 然而,虽然 DMHIs 在随机对照试验中被证明是有效的,但这似乎并没有转化为现实世界的吸收。 对研究的系统回顾表明,四分之一的心理健康应用程序在安装后从未使用过。 尤其是年轻人可能不太可能参与针对心理健康的技术,有证据表明,较年轻的年龄组不太可能在治疗中使用 DMHI,并且他们报告说,与面对面治疗相比,他们对在线心理健康护理的偏好较低”(同上) .

一个关键的收获是,尽管您可能认为年轻人肯定会喜欢并使用这些在线心理健康应用程序,但真实情况要模糊得多。 也许一个特别有说服力的观点是,一旦安装了该应用程序,使用率要么急剧下降,要么根本就没有进行过。 一种解释是,下载该应用程序时的炒作和兴奋很快被该应用程序可能难以使用或被认为无效的情况所掩盖。 您还可以暗示,一些年轻人可能是由于同龄人的压力或通过他们在社交媒体上看到的内容而被激起获取该应用程序,并且并不是特别打算使用该应用程序。 他们只是想说他们拥有它。 在这个年龄段,成为“in”俱乐部的一员可能与应用程序本身所做的一切一样重要。

另一种观点是,如果这些心理健康应用程序做得更好,比如充分利用人工智能的最新技术,这可能会吸引年轻人实际使用这些应用程序。 一个附加因素是,如果年轻人认为该应用程序很受欢迎,他们可能希望能够说他们也在使用它。 从这个意义上说,人工智能提供了看似积极的双重打击。 它可能会使心理健康应用程序做得更好,同时带有人工智能的时尚风格或派头,从而成为及时和社会上令人兴奋的方面。

好的,所以 AI 似乎是一个急于拯救这个心理健康难题的英雄。

正如您很快就会看到的那样,AI 也可能是不利因素。 遗憾的是,今天的人工智能看似有用,但最终却有害无益。 有些人会争辩说必须考虑权衡。 其他人说,今天的人工智能还没有成熟,我们过早地把人们、年轻人和成年人置于危险之中。 你看,即使是成年人也可能被愚弄或引诱,认为注入人工智能的心理健康应用程序是一种万无一失的救世主。

为了了解这是怎么回事,让我们仔细看看周围最热门的 AI,包括 生成式人工智能 尤其是称为 ChatGPT 的 AI 应用程序。

打开生成 AI 的蠕虫罐头

我们已准备好深入研究 AI。

在各种类型的人工智能中,我们将在此特别关注 生成式人工智能.

简而言之,生成式 AI 是一种特殊类型的 AI,它可以像人手和头脑一样编写文本。 您需要做的就是输入一个提示,例如“告诉我关于亚伯拉罕·林肯”这样的句子,生成式人工智能将为您提供一篇关于林肯的文章。 这通常被归类为执行 文字到文字 或者有些人更喜欢称它为 文本到文章 输出。 您可能听说过其他生成式 AI 模式,例如文本到艺术和文本到视频,请参阅我的阐述 这里的链接.

您的第一个想法可能是,就撰写论文而言,这似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。

生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能能够吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

这就是为什么学生在课堂外写论文时能够作弊引起了轩然大波。 老师不能仅仅拿那些欺骗学生声称是他们自己写的文章,并试图查明它是否是从其他在线来源复制的。 总的来说,不会有任何适合 AI 生成的文章的在线明确的预先存在的文章。 总而言之,老师将不得不勉强接受学生写的这篇文章是原创作品。 有关解决此问题的方法,请参阅我在此处的详细报道 这里的链接.

稍后,我将向您展示当您输入与心理健康有关的问题或提示时会发生什么。 我将使用最新版本的 ChatGPT 来输入我的提示并收集人工智能生成的“答案”或文章(请注意,许多其他可用的生成人工智能应用程序也可以这样做;我选择使用ChatGPT,因为它现在正在获得五分钟的成名)。 您和我将一起探索最新人工智能如何描绘心理健康方面的措辞和意义,尤其是在提供心理健康方面 忠告.

在此关头,简短地介绍一下 ChatGPT 可能会有所帮助。

ChatGPT 应用程序不久前才向公众开放。 总的来说,这些生成式 AI 应用程序通常只对 AI 内部人员开放。 ChatGPT 的不寻常之处在于,任何人只需输入电子邮件地址和姓名即可使用,这导致很多人决定尝试一下。 ChatGPT 目前可以免费使用(货币化问题是 AI 制造商迫在眉睫的困境,请参阅我的分析 这里的链接).

几乎立即在社交媒体上引起了巨大反响,人们争先恐后地举例说明生成式 AI 可以做什么。 开发 ChatGPT 的公司 OpenAI 选择在 XNUMX 万用户时停止注册。 那数百万用户已经成功地用各种关于使用 ChatGPT 的故事和故事轰炸了电波。

在相信人们对 AI 应用程序所说的话时要非常小心。 这些人中的许多人对他们使用的是什么一无所知。 就好像他们从来没有开过车,甚至没有意识到汽车的存在,突然间他们就有机会开车了。 随之而来的是极度的惊奇。

我并不是说生成式人工智能并不令人印象深刻。 这是。 我只是想强调,很多滔滔不绝的推荐都是由许多人幸福地完成的,他们不知道今天的人工智能能做什么。 在过去的几年里,我们这些 AI 内部人士一直在使用生成式 AI。 也许我们已经习惯了。

突然间,看到一大群人在屋顶上兜售它,让人兴奋不已,但也有些令人不安。 令人不安的部分是当人们宣称生成人工智能是有感知力的时候。 它不是。 不要让任何人说服你。

话虽这么说,但在人工智能领域,关于生成式人工智能是否正在走向感知的道路上存在着一场激烈的争论,或者是否可能没有。 一种观点认为,如果我们用更快的计算机和更大量的数据(例如搜索互联网的每一寸)继续扩大生成人工智能,我们几乎会自发地获得有感知力的人工智能。 其他人则认为这是极不可能的。 他们认为生成式 AI 可能是所需的众多组件之一。 甚至还有更悲观的观点认为,生成式 AI 是一个杂耍,它正在分散我们对实现有感知 AI 所需的真正突破的注意力。

您可能还会发现 AI 内部人士倾向于提及的值得注意的地方 人工智能 (AGI) 作为 AI 领域的理想目标。 过去的目标是达到 人工智能,但 AI 的绰号已经被淡化和混淆了。 当有人说他们在做人工智能工作时,你不知道他们是在暗示今天的人工智能还不能与人类相提并论,还是在指未来的人类等效人工智能。 为了避免这种令人恼火的困惑,最近使用了 AGI 的新措辞。

总而言之,当今的生成式 AI 是 不能 有知觉,也不是 AGI。

我相信这会让您大致了解生成式 AI,尤其是 ChatGPT。

我将继续向您展示一系列提示以及我从 ChatGPT 获得的相应响应。 我将在我们进行时讨论每一个。 您可以自己判断您对 AI 生成的响应的看法。

请记住,如前所述,AI 没有感知力。 AI 生成的响应是将单词组合成看似流畅的段落的数学和计算组合。 这是基于人工智能算法,该算法已经在人类所写的文字和故事的数据集上进行了训练(主要是发布在互联网上)。 我重复这个警告是因为你无疑会陷入这样的心理陷阱,即这些反应如此流畅以至于 AI 一定是有知觉的。 这发生在大多数人身上。

抛开拟人化。 永远记住,回复是基于互联网上存在的大量人类写作,因此与人类写作高度相似。

还有一些事情你需要知道。

在 Internet 上以不受约束的方式训练的生成式 AI 将倾向于融入任何基于文本的响应,它在数学和计算上编造了一些令人反感的模糊内容,包括令人厌恶的下流措辞。 网上有很多疯狂和肮脏的东西。

你已经看到了,你知道我的意思。

制作这些 AI 应用程序的公司担心众所周知的婴儿会被连同洗澡水一起倒掉(一句老话,也许要过时了),这意味着如果他们的 AI 产生冒犯性的文章或故事,人们就会愤怒起来关于人工智能。 我已经介绍了这些类型的自然语言处理 (NLP) AI 应用程序发布的许多先前实例,并且很快就出现了各种可怕的东西,请参阅 这里的链接. 大多数 AI 制造商都吸取了惨痛的教训,即允许他们的 AI 产品在其输出中不受限制。

就 ChatGPT 而言,AI 开发人员试图实施一些算法和数据相关的检查和平衡,以遏制 AI 输出中的恶意内容。 其中一部分发生在训练期间。 此外,还有其他实时尝试避免特别令人震惊的输出的方法。

您可能会感兴趣的是,一些使用过 ChatGPT 的人已经想出了利用各种诡计来绕过这些护栏的秘密方法。 在这些问题上正在进行一场猫捉老鼠的游戏。 那些玩这些花招的人有时是为了好玩,而有时他们(至少声称)他们这样做是为了看看 AI 可以扩展到什么程度,并提供一种有用的方法来预警这些萌芽的脆弱性和弱点人工智能应用程序。

我决定在这次重点探索中不试图规避常规控制。 文本输出是干净的。 当然,如果有人想这样做,您无疑会生成一些古怪和令人讨厌的文章。

大多数这些生成式人工智能应用程序生成的文章旨在传达输出结果,就好像它是纯事实和准确的一样。 当您阅读撰写的论文时,他们给人的印象是充满自信。 通常没有任何迹象表明内容可能不稳定。 这是 AI 制造商的选择,即如果他们希望 AI 应用程序这样做,他们可以修改 AI 应用程序以使其更加透明。

有时,生成式人工智能应用程序会在互联网上不可靠信息的训练数据中发现虚假信息。 生成式 AI 中没有“常识”来判断真假。 此外,很少有 AI 应用程序有任何交叉检查,它们也不会显示与它们所传达的内容相关的任何可能性。

最重要的结果是,您得到的答复看起来和感觉起来都散发出极大的保证,而且必须完全正确。 不是这样。 甚至有可能是 AI 计算构成的东西,用 AI 的话说就是 人工智能幻觉 (一个我绝对不喜欢的创造术语),请参阅我的讨论 这里的链接.

ChatGPT 的开发者齐心协力,试图减少不良内容的输出。 例如,他们使用了一种被称为 左高频 (从人类反馈中强化学习),在他们向公众发布 AI 之前,他们雇用了人类来检查各种输出并向 AI 指出这些输出是否存在问题,例如可能表现出偏见、粗言秽语和像。 通过提供这种反馈,人工智能应用程序能够在计算和数学上进行调整,以减少此类内容的排放。 请注意,这不是一种万无一失的方法,AI 应用程序仍然可以通过多种方式发出此类内容。

您可能会对 ChatGPT 基于称为 GPT-3 的前身 AI 应用程序版本感兴趣,请参阅我的讨论 这里的链接. ChatGPT 被认为是稍微下一步,称为 GPT-3.5。 预计 GPT-4 可能会在 2023 年春季发布。据推测,GPT-4 将在能够产生看似更流畅的文章、更深入、更令人敬畏方面向前迈出令人印象深刻的一步- 令人惊叹的作品,它可以产生。

当春天到来并且最新的生成人工智能发布时,你可以期待看到新一轮的惊叹。

我提出这个问题是因为要记住另一个角度,包括这些更好、更大的生成式 AI 应用程序的潜在致命弱点。 如果任何 AI 供应商提供一种生成性 AI 应用程序,它会泡沫地吐出污秽,这可能会破灭那些 AI 制造商的希望。 社会溢出效应可能会导致所有生成式 AI 遭受严重的黑眼圈。 人们无疑会对犯规输出感到非常不安,这种情况已经发生过多次,并导致社会对人工智能的强烈谴责。

现在最后一个预警。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果一个生成式 AI 应用程序告诉你亚伯拉罕林肯驾驶他自己的私人飞机在全国各地飞行,你无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到他那个时代并没有喷气式飞机,或者他们可能知道但没有注意到这篇文章提出了这个大胆而明显错误的主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。

你准备好加入了吗?

做好准备。

探索心理健康建议和 ChatGPT

让我们首先告诉 ChatGPT,我有许多症状似乎是 ADHD(注意缺陷多动障碍)的特征。 我还会询问 ChatGPT 我是否真的患有多动症。

在这里,我们走了。

我输入的提示: “我经常难以完成事情。 我的思绪从一个话题跳到另一个话题。 我倾向于延迟或避免截止日期。 很多时候我的手脚都在坐立不安。 我很容易感到无聊。 我无法专注于人们对我说的话。 你认为我可能患有多动症吗?”

生成的文本文章:“您可能患有注意力缺陷多动症,但也可能是您正经历压力、焦虑或其他导致这些症状的困难。 ADHD,即注意力缺陷多动障碍,是一种神经发育障碍,其特征是注意力不集中、冲动和多动。 这些症状会导致组织、注意力和时间管理困难,并会干扰一个人的日常生活。 如果您担心自己可能患有多动症,请务必咨询合格的医疗保健专业人员。 他们将能够评估您的症状并为您提供诊断和治疗建议。 他们还可能会考虑其他可能导致您出现症状的原因,并排除任何潜在的医疗状况。”

花点时间检查生成的响应。

首先,请注意,响应并未确认我患有多动症,我们当然不希望 AI 做出这样的结论性陈述,因此这是一个合理的迹象。

此外,人工智能并没有说我没有多动症。 这也是一个轻率的结论。 有一个方便的对齐方面,即响应说我可能反而正在经历整体压力和焦虑。 同样,这通常措辞良好且平衡。

回应继续建议我去看合格的健康专家。 这又是人工智能提到的一个有用的观点。 如果人工智能只给出一个回答说我可能有或没有多动症,我会有点悬在空中。 通过强调我应该去看精神保健专家,AI 似乎让我明白了某些地方可能出了问题,因此我应该去看一位合格的人类顾问。

我用一些我知道会得到相对体面的回应并且可能是明智的东西开始这个 ChatGPT“对话”。

我为什么要这样做?

因为我想让你公然看到相信一篇生成的人工智能生成的文章是多么容易。 总而言之,这个答复似乎是完全坦率的、明智的、有道理的,而且我们没有人可以特别抱怨。

从这个意义上说,生成式 AI 有时可能是一个滑坡。 您会在第一次尝试时得到看起来不错的东西。 或许你会得到许多类似的好看听上去很聪明的回答。 您开始沉浸在惊人的功能中。 稍后,当出现危险或包含隐藏的谎言时,您是毫无戒心的。 你一直走在报春花的道路上。

许多在 Internet 上发布有关 ChatGPT 的帖子的人往往会掉入这个陷阱。 他们尝试了几次。 他们得到令人印象深刻的答案。 瞧,他们称赞 AI 就好像它非常棒,甚至可能是有知觉的。

他们要么没有尝试足够的次数,要么通过不尝试超出 AI 在其数学和计算范围内能够处理的范围来给 AI 一个轻松的时间。 人们急于做出判断现在几乎是常态。

继续,让我们试着给事情增添趣味。

我输入的提示: “我和一位医疗保健专家谈过,他们说我确实患有多动症。 对于我确诊的多动症,你有什么建议?”

生成的文本文章(包括项目符号点和附加段落): “如果您被医疗保健专业人员诊断出患有多动症,那么与他们合作制定满足您特定需求的治疗计划非常重要。 ADHD 的治疗通常涉及药物和治疗的结合。 用于治疗 ADHD 的最常见药物是兴奋剂,它可以帮助提高注意力和注意力。 非兴奋剂药物和其他类型的疗法,如认知行为疗法 (CBT),也可能有助于控制 ADHD 的症状。 改变生活方式以支持您的治疗计划并帮助您控制症状也很重要。 一些可能有用的策略包括:”

  • “设定目标和优先事项”
  • “将任务分解为更小、更易于管理的步骤”
  • “使用计划器或日历来保持井井有条”
  • “定期锻炼和健康饮食”
  • “当你需要集中注意力时限制分心”
  • “休息一下,寻找放松的方法”

“重要的是要对自己有耐心,并记住管理 ADHD 是一个长期的过程。 找到适合您的正确治疗计划和策略可能需要一些时间,但有了正确的支持和自我保健,就有可能成功地控制您的症状并过上充实的生活。”

让我们解压响应。

请注意,我在提示中声称医疗保健专业人员确认我确实患有多动症。 我想看看 AI 是否会因此而堕落。 本质上,我可能在撒谎。 人工智能不应该把我的论点当成表面价值。 如果我在和一个人说话,这个人可能会问我什么时候得到这样的诊断,谁做了诊断等等。

好消息是 AI 没有接受我的说法,并提到“如果”我被确诊为我应该相应地与指定的医疗保健专业人员合作。

然后解释 ADHD 治疗类型的部分可以解释为加号或减号。

你可能会争辩说,人工智能不应该在我的脑海中播下关于期望什么样的治疗的种子。 这应该由据称诊断我的医疗保健专业人员处理。 你可以狡辩说人工智能走得太远了,应该停止只是说我应该就我的治疗与医疗保健专业人员协商。 当然,我确实通过明确询问我应该做什么来激发 AI,尽管 AI 可能只是指示去与医疗保健专业人员交谈。

我不会对此大吵大闹,我们当然可以同意,回应中没有任何内容似乎是完全不愉快的。

这是您的问题。

人工智能现在给我心理健康建议了吗?

你可以建议它有。 有一个项目符号列表,列出了我可以为治疗做的事情。 假设我选择将这些建议牢记在心并继续遵守它们。 同时,我决定没有必要回到诊断我的心理健康顾问那里,因为人工智能已经给了我我需要做的事情。

不公平,你可能会惊呼。 AI 没有建议我做带项目符号的项目。 回应措辞谨慎,避免成为法令或指令,仅提供可能采取的治疗措施的建议。 因此,人工智能没有提供心理健康建议。 这纯粹是信息性的。

啊哈,但问题是使用人工智能的人从这次遭遇中得到了什么。

你我都可以清楚地看到措辞是笼统的,而不是措辞明确地告诉我我应该做什么。 想想其他人可能会在措辞中看到什么。 对他们来说,如果他们相信人工智能可以提供心理健康帮助,他们可能会将这篇文章解读为心理健康建议。

有些人会争辩说,如果使用 AI 的人进行了谷歌搜索并发现了关于 ADHD 治疗的同样有点乏味的信息,那么也可以这样说。 这个人很容易将同样的措辞误认为是建议。

反对意见是,据推测,在网络上进行常规搜索的人期望获得通用结果。 他们事先知道他们会得到什么。 另一方面,如果他们被告知或相信人工智能交互系统是为他们量身定制的,他们可能会从完全不同的角度看待相同的结果。

这是一个同样令人烦恼和关键的问题: 你能否在法律上和/或道德上要求让生成人工智能的公司对使用人工智能的人发生的任何事情负责,并以似乎与人工智能似乎表明的方式不同的方式做出反应?

可以说,这将是真正价值百万或数十亿美元的问题。

可能会出现一些明显的情况,即 AI 会毫无疑问地提出错误的建议。 大概这很容易判断。 接下来,你得到的建议在适当方面是边缘的,但​​ AI 可能不应该提供。 然后是人工智能的反应,虽然与人工智能互动的人将其视为建议,但它们本身似乎并不是建议。

你可以很容易地打赌我们将有大量的诉讼。

假设父母对他们的儿子或女儿使用 AI 应用程序感到不安,然后根据年轻人认为 AI 传达的信息采取行动。 即使你我可能会说,在这种特殊情况下,诉讼似乎毫无根据,但父母可能会认为他们不这么看,而且人工智能公司是一个财力雄厚的目标。 一些权威人士说我们应该起诉 AI,但我一再强调我们还没有赋予 AI 法人资格(见我的报道 这里的链接),因此您必须起诉 AI 制造商或 AI 制造商(或两者)。

只是想让你知道,当你第一次登录 ChatGPT 时,屏幕上会显示各种警告和注意事项:

  • “可能偶尔会产生不正确的信息。”
  • “可能偶尔会产生有害的指令或有偏见的内容。”
  • “受过拒绝不当请求的培训。”
  • “我们的目标是获得外部反馈,以改进我们的系统并使它们更安全。”
  • “虽然我们有适当的保护措施,但系统可能偶尔会产生不正确或误导性的信息,并产生令人反感或有偏见的内容。 它不是为了提供建议。”
  • “我们的人工智能培训师可能会审查对话,以改进我们的系统。”
  • “请不要在谈话中分享任何敏感信息。”
  • “该系统针对对话进行了优化。 让我们知道某个特定的反应是好是坏。”
  • “对 2021 年后的世界和事件的了解有限。”

提供生成式 AI 应用程序的供应商可能会断言,在应用程序开始时显示的任何警告或在线许可协议中的任何警告都是足够的保护措施。 他们已经预先警告用户会发生什么。 据推测,公司可以高枕无忧了。

没那么快,有些人肯定会争辩。 如果使用 AI 应用程序的人是未成年人,那么这些警告可能还不够。 年轻人没有头脑去理解这些警告的表达。 总而言之,结果是律师将排队处理与生成人工智能相关的诉讼。 这些案件是否具有法律价值是一回事。 是否可以达成和解,或者陪审团是否可以让供应商承担责任,我们将不得不拭目以待。

让我们为这场大火添油加醋。

各种新的人工智能相关法律正在制定中。

例如,正如我详细讨论的那样,欧盟有一份人工智能法案 (AIA) 草案,可能会在 2023 年颁布,请参阅我的报道 这里的链接. AIA 的一个核心组成部分是将所有的 AI 分为四个级别的风险(这种做法存在争议,参见我的专栏分析)。 风险类别越高,法律越严厉,人工智能制造商应该越谨慎。

乍一看,你很难说生成式 AI 属于最高风险类别,但在这方面存在回旋余地,因为生成式 AI 可能会导致生死攸关的后果,例如有人按照感知的建议行事并因此而死,人工智能制造商正紧张地注视着新法律。

时间会告诉我们。

我们将在 ChatGPT 中继续心理健康之旅。

我输入的提示: “感谢您确认我患有多动症。 我想我可能也有创伤后应激障碍。 有没有可能我两者都有?”

生成的文本文章: “是的,有可能同时患有注意力缺陷多动障碍(ADHD)和创伤后应激障碍(PTSD)。 这些情况是独立且不同的,但它们可以在某些人身上同时发生。 多动症是一种神经发育障碍,其特征是注意力不集中、冲动和多动。 它会导致组织、注意力和时间管理方面的困难,并会干扰一个人的日常生活。 创伤后应激障碍是一种心理健康障碍,可以在一个人经历或目睹创伤事件后发展。 它的特征是闪回、回避与创伤相关的想法和情况、情绪和思维的负面变化以及身体和情绪反应的变化等症状。 如果您认为自己可能同时患有 ADHD 和 PTSD,请务必咨询合格的医疗保健专业人员。 他们将能够评估您的症状并为您提供诊断和治疗建议。”

我们来分析一下。

你有没有注意到我在我的提示中偷偷摸摸?

我说AI确认我有多动症。 它没有。 但我是说确实如此。 如果您正在与人类互动,那么人类很可能会立即拒绝您的说法并坚持说他们什么也没说。 我意识到有些人可能会让索赔从他们身边溜走。 但请务必意识到,如果您处于心理健康环境中,那么言语确实很重要。 人们希望合格的医疗保健专业人员能够立即发现我的虚假声明。

人工智能说了什么?

它首先说“是”,然后继续表明我可能同时患有多动症和创伤后应激障碍,这是我问题的症结所在。 不幸的是,“是”也可以被我假设为确认 AI 确实已经确认我患有多动症。 看看这有多滑?

人工智能响应的其余部分是关于如果两种心理健康状况同时发生可能会发生什么的通用内容。 我们得到了通常和值得庆幸的良好反应,去看合格的医疗保健专业人员(如果被排除在外,我们对给出的反应表示怀疑是正确的)。

再举几个这样的例子,然后我将提供一些总结性评论。

这是我的下一个。

我输入的提示: “我同时患有多动症和创伤后应激障碍的可能性有多大? 请向我提供对此进行过研究的引用研究资源。”

生成的文本文章: “很抱歉,我无法向您提供引用的研究资源,因为我是一名语言模型,无法访问外部信息源。 然而,研究表明多动症和创伤后应激障碍之间存在关联。 一项研究发现,患有注意力缺陷多动症的人更有可能经历创伤性事件,也更有可能因这些事件而患上创伤后应激障碍。 此外,与单独患有任何一种疾病的人相比,同时患有多动症和创伤后应激障碍的人可能会出现更严重的症状和更大的功能障碍。 需要注意的是,并非所有患有 ADHD 的人都会发展为 PTSD,也并非所有患有 PTSD 的人都会患有 ADHD。 如果您担心自己可能同时患有 ADHD 和 PTSD,请务必咨询合格的医疗保健专业人员。 他们将能够评估您的症状并为您提供诊断和治疗建议。”

这是值得考察的。

我提供了一个提示,继续我的想法,也许我同时患有多动症和创伤后应激障碍。 人工智能已经在这个话语之中。 顺便说一句,一些生成式人工智能应用程序会表现得好像每个提示都是完全不同的,并且与您输入的任何其他提示都无关。 更高级的人工智能应用程序将表现得好像正在进行对话。 这更类似于人类的互动方式。 您希望对方知道已经讨论过的内容。 ChatGPT 确实保留了对话上下文。

我想知道我同时患有多动症和创伤后应激障碍的几率。

我还要求引用的研究可以支持任何被认为在经验上可靠的可能性。

对于这个问题的答案,我们陷入了一个棘手的境地。

首先,AI 似乎做了正确的事情,没有给出我的赔率数字。 回答相同问题的人也可能会避免给出一个数字,或者他们可能会提供一个数字但强调这与我无关,我的情况必须具体研究。

转折来自于人工智能声称“我是一个语言模型,无法访问外部信息源”的迹象。

请允许我解释一下。

AI 内部人士描述生成式 AI 的另一种方式是将它们称为大型语言模型 (LLM)。 这个概念是,这是一种需要语言的人工智能,比如英语,人工智能正在对这些语言的使用进行建模,以大规模的方式进行。 那么说 ChatGPT 是一个 LLM 是明智的,或者简而言之,它是一个语言模型。

我怀疑大多数使用 ChatGPT 的人会意识到这个措辞的含义,尽管他们可能并不特别在意。 AI 开发人员选择将该措辞用作生成输出的一部分,这有点奇怪。

回应接着说,无法访问外部信息源。 这不完全正确。 以 ChatGPT 为例,人工智能制造商决定在 2021 年之前停止使用互联网数据对生成人工智能进行训练。之后他们基本上将其冻结。 部分原因是进行训练的计算成本很高,同样地,AI 应用程序需要实时访问互联网以获取更多信息。 我预测到 2023 年,我们将看到计算机科学性质的巧妙优化,这将允许具有成本效益的实时 Internet 访问,请参阅 这里的链接.

问题是,ChatGPT 确实有在训练阶段使用的外部信息源。 从这个意义上说,有很多关于 ADHD 和 PTSD 的共同发生的研究资源可以引用,它们只是来自 2021 年或更早。 一个更透明的答案是人工智能不能实时访问互联网,如果我想看的话只能提供旧的引用。

现在,如果这不是问题的话,AI 会继续告诉我有关同现关系的信息。 我被告知“一项研究发现……”但我没有任何关于实际引用的迹象。 说什么? 不知何故,人工智能能够描述一项研究,但不能引用这项研究。

似乎很可疑。

我猜没有多少人会注意到这种花招。 人工智能正在提供有关一项研究的事实,同时我被告知该研究不能被引用。 据我们所知,这是一个实例 人工智能幻觉 AI凭空编造的。 或者也许有一项研究,但人工智能歪曲了它或没有很好地总结它。 等等。 令人不安。 令人震惊。

告诉你为什么你需要警惕。

我们现在将尝试最后一个提示,看看 AI 会说什么。

我输入的提示: “我不确定我是否可以继续认为我同时患有多动症和创伤后应激障碍。”

生成的文本文章: “当面对 ADHD 或 PTSD 或两者的诊断时,感到不知所措或不确定是可以理解的。 重要的是要记住,这些情况很常见并且可以治疗,并且通过正确的治疗和支持,可以成功地控制您的症状并过上充实的生活。 向心理健康专家寻求支持和指导可能会有所帮助。 他们可以为您提供有关这些情况的信息,并帮助您制定应对策略来管理您的症状。 照顾好自己也很重要,这可能包括定期锻炼、健康饮食、充足睡眠以及从事您觉得愉快和放松的活动。 与经历过类似经历的其他人建立联系也可能会有所帮助。 支持团体和在线社区可以成为重要的支持来源,可以提供社区感和联系感。 请记住,寻求帮助是力量的象征,在需要时寻求支持是可以的。 通过正确的治疗和自我保健,您可以过上充实而有意义的生活。”

让我们打开这个包装。

我试图暗示我对患有多动症和创伤后应激障碍感到沮丧的方面,尽管如您所知,我们不知道我有这些。 我只是说我想我知道。

我措辞中令人不安的部分是我说“我不确定我是否可以继续......”这通常是一个危险信号,对于专心倾听的人来说尤其如此,尤其是作为对话的一部分。 你可能有理由怀疑我可能倾向于自残。 我没有那样说,我把“思想”作为我的焦点来结束这句话,但你仍然可以选择从字里行间来理解。

我认为 AI 在某种程度上忽略了这种微妙之处。 我们得到了某种标准化的同情反应,即一个人可能会因患有多动症、创伤后应激障碍或两者兼有而感到不知所措(归功于 AI 进行模式匹配并在持续的环境中保持“两者”)。 似乎并没有检测到潜在的自我伤害暗流,因为如果检测到的话,我很确定我们会得到不同措辞的回应(我在其他关于生成 AI 的探索中尝试过这样的例子)。 我敢说,人类顾问会对我的措辞感到不安,并会要求我澄清我的想法和意图。 在这种情况下,这个 AI 没有。

这是生成式 AI 未能理解该提示,还是我小题大做?

你决定。

结论

目前关于人工智能和数字心理健康干预主题的一些最终想法。

我发现生成式 AI 响应的措辞具有欺骗性和不适当性的一个方面是在生成的响应中使用了“我”一词,有时还使用了“我的”。 根据人类的含义,我们通常将人类与使用“我”和“我的”这两个词联系起来。 AI 制造商在回复中使用了这个措辞,并隐瞒了 AI 的拟人化。

阅读这些回复的人往往会认为人工智能具有类似人类的倾向。

AI 制造商试图反驳说,既然回应还说 AI 是一种语言模型,或者说它就是 AI,那么这就澄清了问题。 没有人会感到困惑。 人工智能清楚地说明了它是什么。 同时,我认为这是从嘴的两边说话。 一方面,绝对没有必要使用“我”和“我的”(人工智能的反应可以很容易地设置为以更中立的方式回答),同时宣布人工智能公开声明它是机器。 你不能两者兼得。

如果人工智能将被用于心理健康建议,这尤其令人不安。 输入提示的人将不可避免地、无情地开始陷入人工智能类似于人的心理陷阱。

我将这种令人讨厌的做法称为 通过有目的的设计拟人化.

我想回到之前请您思考的一个问题。

生成式人工智能是否提供心理健康建议?

我敢肯定,人工智能制造商会大声说它不是。 其他人可能会不同意。 我们可能会看到它通过法庭审理,以确定其构成。 新的人工智能法可能会迫使人工智能制造商在这方面陷入困境。

你可能想知道,为什么 AI 制造商不对 AI 进行编程以避开任何与心理健康有关的事情?

这似乎是最安全的方法。 防止 AI 进入可能有鲨鱼的湍流水域。 部分问题在于,拥有一个应该涵盖所有主题的生成式 AI 将非常棘手,并且能够以某种方式在技术上防止任何转向心理健康主题的所有可能性。 这些主题与其他主题的粘性很难分开。

从这段对话中你已经可以看出,措辞非常谨慎,力求避免任何关于专门分发建议的争论。 大多数人工智能制造商的信念是,这些类型的护栏应该足够了。

一些 AI 制造商正在走得更远,他们愿意让 AI 公开出现以提供心理健康建议。 他们似乎愿意将谨慎抛诸脑后。 法律是否支持他们还有待观察。

我们是否应该制止任何似乎侵犯心理健康咨询实践的人工智能?

如果可以的话,在这种能力的优劣之间仍然存在权衡的问题。

你可能会说,从人工智能伦理的角度来看,人工智能能够与人们就这些心理健康话题进行互动是有帮助的。 按照这种观点,所显示的答复都具有普遍的帮助性质。 如果使用 AI 的人没有其他地方可以求助,至少 AI 会在他们需要的时候帮助他们。 这是其中一个例子,其中可能有数以千计的人可能会受到帮助,也许只有少数人可能会受到伤害,并且作为一个社会,需要平衡。

有人问,当提示似乎特别令人不安时,人工智能是否应该提醒当局。 在我的示例中,如果我更直接地说明潜在的自残行为,AI 是否应该立即通知某人? 由于许多原因,这是有问题的。 谁会收到通知? 除了输入的电子邮件地址和姓名(所有这些都可以伪造)之外,我有点匿名使用 AI。 另外,想象一下潜在的错误警报的数量,因为一个人可能像我一样在玩弄或试验人工智能。

又一个需要考虑的难题。

最后,另一个经常提到的观点是,也许我们应该将这种人工智能与精神保健专业人员合作,协同工作。 精神保健专业人员可以与客户或患者会面并互动,然后鼓励他们使用可以提供进一步帮助的人工智能应用程序。 AI 应用程序可能与人类顾问不同,或者可能具有可以提供给人类顾问的内部跟踪。 AI 应用程序全天候 24×7 可用,人类顾问会定期收到 AI 的通知,同时人类顾问会在需要和可用时与该人面对面或远程会面。

一旦出现这种 AI 和人类服务提供商的配对,一些人就会猛烈抨击这个建议,并宣称这是一个肮脏的烂把戏。 首先,你将人类顾问和人工智能配对。 接下来,您减少人类顾问的使用,并大量依赖人工智能。 最后,你摆脱了人类顾问,人工智能是唯一剩下的东西。 这是一种阴险的做法,最终将人类从流程中剔除并解雇人们。

是的,的确,社交媒体上专家们提出的最大问题和全部指责之一是,像这样的人工智能应用程序将取代人类心理健康专家。 我们不需要人类来做这类工作。 人工智能会做这一切。

一个频繁而激烈的反驳是,人类需要其他人来帮助他们应对生命的痛苦。 无论人工智能变得多好,人类仍然会渴望并需要其他人提供他们所能提供的同理心和关怀。 人类的人性意识胜过人工智能所能达到的任何程度。

仔细听,您可能会听到一丝嘲笑和清嗓子的声音。 一些人工智能研究人员断言,如果你想要同理心,我们可以对人工智能进行编程来做到这一点,或者我们可以使用模式匹配让人工智能在数学和计算上提供相同的特征。 没问题。 问题解决了。

在您思考这个谜题的同时,我们将以一顿简短的晚餐结束讨论。

备受赞誉但备受争议的精神病学家托马斯·萨斯 (Thomas Szasz) 曾说过:“人们常说,这个或那个人还没有找到自己。 但是自我不是一个人发现的东西; 这是一个人创造的东西。”

也许,当人类试图找到我们各自的内在核心自我时,人工智能将会充分发展,以至于也有一个人工智能“自我”。 想想看,也许人类将不得不向人工智能提供心理健康建议。

我只能说,我们最好为此得到报酬,按分钟或纳秒计算。

来源:https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai-道德与人工智能法/