AI 伦理和 AI 法表示,那些禁止使用生成式 AI ChatGPT 的学校不会改变方向,而是错过了机会

禁还是不禁,这是个问题。

我猜想,如果莎士比亚现在在身边,他可能会对最近禁止使用一种被称为 AI 的努力说类似的话 生成式人工智能,由于名为 ChatGPT 的 AI 应用程序,这一点得到了特别的体现和普及。

这笔交易。

一些知名实体一直试图禁止使用 ChatGPT。

例如,纽约市 (NYC) 教育部最近宣布,他们将着手阻止在其各种网络和连接的设备上访问 ChatGPT。 据报道,该禁令的理由包括有迹象表明,该 AI 应用程序和生成 AI 的整体使用似乎预示着对学生学习的负面影响。 据说选择使用 ChatGPT 的学生正在削弱他们关键的批判性思维技能的发展,并破坏他们解决问题能力的发展。

除了这些相当令人担忧的疑虑之外,还有一个无可争议的事实,即此类 AI 会产生包含错误和其他事实缺陷的不准确输出。 那很糟。 锦上添花的危险是想象中的可能性,即在不知不觉中依赖上述谎言的学生可能以不安全的方式使用输出。 我所见过的此类危害还没有浮出水面,因此我们只需要从表面上看这可能会发生(我已经在我的帖子中讨论了可能性的范围;例如,一些人认为生成人工智能论文可以告诉某人服用他们不应该服用的药物或提供应该由人类心理健康专家提供的心理健康建议等)。

在今天的专栏中,我将研究最近颁布的禁令的性质,并确定它们是否有意义。 有很多问题需要考虑。 这样的禁令有什么好处吗? 这些禁令是否可执行? 如果出现更多此类禁令,我们是在帮助人类,还是会无意中搬起石头砸自己的脚?

正如您可能猜到的那样,这些都不像表面上看起来那么简单。

所有这一切都涉及大量人工智能伦理和人工智能法律方面的考虑。 请注意,目前正在努力将道德 AI 原则融入 AI 应用程序的开发和部署中。 越来越多的关注和以前的人工智能伦理学家正在努力确保设计和采用人工智能的努力考虑到做事的观点 永远的人工智能 并避免 坏的人工智能. 同样,有人提出了新的 AI 法律,作为防止 AI 努力在人权等问题上失控的潜在解决方案。 有关我对 AI 伦理和 AI 法律的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

禁止某些类型的人工智能并不是一个新概念。

在我的一篇专栏文章中,我仔细分析了与将人工智能用于自主武器系统相关的拟议禁令,请参阅 这里的链接. 各个国家都在进行包含机载人工智能的武器开发。 这是众所周知的发射后不管的武器。 你所做的就是释放武器,然后 AI 从那时起接管。 希望 AI 将武器引导到适当的目的地并适当地引爆或投递它。 通常很少有人在回路中覆盖,因为这个过程可能比人类反应更快,或者通过阻止任何其他事情来减少或减少敌人入侵系统并阻止武器开展业务的机会比驾驶军械的人工智能。

显然,这是人工智能带来生死攸关后果的一个例子。 你可能会令人信服地争辩说我们应该仔细考虑这种可怕的人工智能的影响。 在我们让 AI 被浇筑到自主武器的混凝土中之前,翻开每一块石头表面上是明智的。 许多人的生命危在旦夕。

同样的预感和严肃是否适用于基于生成的人工智能(包括 ChatGPT)的使用?

你可能很难说这种类型的 AI 与其他类型的引导致命导弹和其他弹药的 AI 处于同一级别。 话虽这么说,即使生死攸关,这并不意味着我们不能对基于生成的人工智能可能带来的不利影响进行尽职调查。 利害关系可能不尽相同,但对基于生成的人工智能的真正担忧确实有其优点。

我倾向于将各种与 AI 相关的禁令分为以下几类:

  • 绝对禁止
  • 部分禁令
  • 弱禁令
  • 禁止

还有硬币的另一面,即寻求启用或支持人工智能,例如在这个范围内:

  • 承认
  • 轻度接受
  • 完全接受
  • 强制性要求

当我们看一下最近禁止使用 ChatGPT 的努力时,将很容易考虑各种禁令范围以及接受范围。

首先,让我们确保我们都在同一页面上了解生成 AI 的组成以及 ChatGPT 的全部内容。 一旦我们涵盖了这个基础方面,我们就可以对禁止 ChatGPT 是否会取得成果进行有说服力的评估。

关于生成式 AI 和 ChatGPT 的快速入门

ChatGPT 是一个通用的 AI 交互式对话系统,本质上是一个看似无害的通用聊天机器人,然而,它正被人们以一种让许多人完全措手不及的方式积极而热切地使用,我将在稍后详细说明。 这个 AI 应用程序利用了 AI 领域中的技术和技术,通常被称为 生成式人工智能. 人工智能生成文本等输出,这就是 ChatGPT 所做的。 其他基于生成的 AI 应用程序生成图片或艺术品等图像,而其他生成音频文件或视频。

在本次讨论中,我将重点关注基于文本的生成式 AI 应用程序,因为 ChatGPT 就是这样做的。

生成式 AI 应用程序非常易于使用。

您需要做的就是输入一个提示,AI 应用程序会为您生成一篇尝试回应您的提示的文章。 撰写的文本看起来就像这篇文章是由人的手和思想写成的。 如果你输入“告诉我关于亚伯拉罕·林肯”的提示,生成式人工智能将为你提供一篇关于林肯的文章。 这通常被归类为执行 文字到文字 或者有些人更喜欢称它为 文本到文章 输出。 如前所述,还有其他生成 AI 模式,例如文本到艺术和文本到视频。

您的第一个想法可能是,就撰写论文而言,这种生成能力似乎没什么大不了的。 你可以很容易地在互联网上进行在线搜索,很容易找到大量关于林肯总统的文章。 生成式 AI 的关键在于生成的文章相对独特,提供原创作品而不是抄袭。 如果你试图在网上某个地方找到 AI 生成的文章,你不太可能会发现它。

生成式 AI 经过预先训练,并利用复杂的数学和计算公式,该公式是通过检查网络上的书面文字和故事中的模式而建立的。 由于检查了成千上万的书面段落,人工智能可以吐出新的文章和故事,这些文章和故事是所发现内容的大杂烩。 通过添加各种概率函数,生成的文本与训练集中使用的文本相比非常独特。

这就是为什么学生在课堂外写论文时能够作弊引起了轩然大波。 老师不能仅仅拿那些欺骗学生声称是他们自己写的文章,并试图查明它是否是从其他在线来源复制的。 总的来说,不会有任何适合 AI 生成的文章的在线明确的预先存在的文章。 总而言之,老师将不得不勉强接受学生写的这篇文章是原创作品。

生成人工智能还有其他问题。

一个关键的缺点是,由基于生成的人工智能应用程序生成的文章可能会嵌入各种虚假信息,包括明显不真实的事实、被误导性描述的事实以及完全捏造的明显事实。 这些虚构的方面通常被称为 人工智能幻觉,一个我不喜欢但遗憾的是似乎越来越流行的标语(关于为什么这是糟糕和不合适的术语的详细解释,请参阅我的报道 这里的链接).

在我们深入讨论这个话题之前,我想澄清一个重要方面。

社交媒体上出现了一些关于 生成式人工智能 断言这个最新版本的人工智能实际上是 有感知的人工智能 (不,他们错了!)。 AI 伦理和 AI 法律领域的人士尤其担心这种不断扩大的索赔趋势。 您可能会礼貌地说,有些人夸大了当今 AI 的实际能力。 他们假设人工智能具有我们尚未能够实现的能力。 那真不幸。 更糟糕的是,他们可能会允许自己和他人陷入可怕的境地,因为他们假设人工智能在采取行动方面具有感知能力或类似人类。

不要将人工智能拟人化。

这样做会让你陷入一个棘手而沉闷的依赖陷阱,即期望 AI 做它无法执行的事情。 话虽如此,最新的生成式 AI 的功能相对令人印象深刻。 请注意,在使用任何生成式 AI 应用程序时,您应该始终牢记一些重大限制。

如果您对关于 ChatGPT 和生成式 AI 的迅速扩大的骚动感兴趣,我一直在我的专栏中做一个重点系列,您可能会从中找到有用的信息。 如果这些主题中的任何一个引起您的兴趣,请看一下:

  • 1) 生成人工智能进展的预测。 如果你想知道 AI 在整个 2023 年及以后可能会发生什么,包括生成 AI 和 ChatGPT 即将取得的进展,你会想阅读我的 2023 年预测综合列表,网址为 这里的链接.
  • 2) 生成人工智能和心理健康建议。 根据我在 这里的链接.
  • 3) 上下文和生成人工智能的使用。 我还对涉及 ChatGPT 和生成 AI 的与圣诞老人相关的上下文进行了季节性的半开玩笑的检查 这里的链接.
  • 4) 诈骗者使用生成式人工智能. 一个不祥的消息是,一些诈骗者已经想出了如何使用生成式 AI 和 ChatGPT 进行不法行为,包括生成诈骗电子邮件,甚至为恶意软件生成编程代码,请参阅我的分析 这里的链接.
  • 5) 使用生成式 AI 的菜鸟错误. 许多人对生成式 AI 和 ChatGPT 可以做的事情既过头又出人意料地过头,所以我特别关注了 AI 菜鸟往往会做的过头,请参阅讨论 这里的链接.
  • 6) 应对生成式 AI 提示和 AI 幻觉. 我描述了一种使用 AI 插件来处理与尝试将合适的提示输入生成 AI 相关的各种问题的前沿方法,此外还有用于检测所谓的 AI 幻觉输出和谎言的其他 AI 插件,如涵盖于 这里的链接.
  • 7) 揭穿 Bonehead 关于检测生成的 AI 生成的论文的说法. AI 应用程序出现了一场被误导的淘金热,这些应用程序声称能够确定任何给定的文章是人工创作的还是人工智能生成的。 总的来说,这是一种误导,在某些情况下,这是一种愚蠢且站不住脚的说法,请参阅我的报道 这里的链接.
  • 8)通过生成人工智能进行角色扮演可能预示着心理健康问题. 有些人正在使用诸如 ChatGPT 之类的生成式人工智能来进行角色扮演,人工智能应用程序借此对人类做出反应,就好像存在于幻想世界或其他虚构的环境中一样。 这可能会对心理健康产生影响,请参阅 这里的链接.
  • 9) 暴露输出错误和错误的范围。 各种收集的列表被放在一起,试图展示 ChatGPT 产生的错误和谎言的性质。 一些人认为这是必不可少的,而另一些人则认为这种做法是徒劳的,请参阅我的分析 这里的链接.

您可能会对 ChatGPT 基于称为 GPT-3 的前身 AI 应用程序版本感兴趣。 ChatGPT 被认为是稍微下一步,称为 GPT-3.5。 预计 GPT-4 可能会在 2023 年春季发布。据推测,GPT-4 将在能够产生看似更流畅的文章、更深入、更令人敬畏方面向前迈出令人印象深刻的一步- 令人惊叹的作品,它可以产生。

当春天到来并且最新的生成人工智能发布时,你可以期待看到新一轮的惊叹。

我提出这个问题是因为要记住另一个角度,包括这些更好、更大的生成式 AI 应用程序的潜在致命弱点。 如果任何 AI 供应商提供一种生成性 AI 应用程序,它会泡沫地吐出污秽,这可能会破灭那些 AI 制造商的希望。 社会溢出效应可能会导致所有生成式 AI 遭受严重的黑眼圈。 人们无疑会对犯规输出感到非常不安,这种情况已经发生过多次,并导致社会对人工智能的强烈谴责。

现在最后一个预警。

无论您在生成式 AI 响应中看到或读到什么 似乎 要以纯事实(日期、地点、人物等)的形式传达,请确保保持怀疑并愿意仔细检查您所看到的内容。

是的,日期可以编造,地点可以编造,我们通常期望无可非议的元素是 所有 受到怀疑。 在检查任何生成的 AI 文章或输出时,不要相信你读到的内容并保持怀疑的眼光。 如果生成式 AI 应用程序告诉您亚伯拉罕·林肯乘坐他自己的私人飞机在全国各地飞行,您无疑会知道这是胡说八道。 不幸的是,有些人可能没有意识到喷气式飞机在他那个时代并不存在,或者他们可能知道但没有注意到这篇文章提出了这种厚颜无耻的错误主张。

在使用生成 AI 时,强烈的健康怀疑和持续的怀疑心态将是你最好的资产。

我们已准备好进入这一阐明的下一阶段。

当禁令变得不那么重要时

现在我们已经建立了基础,我们可以深入探讨禁止 ChatGPT 的问题。 我们将从发挥作用的实际情况开始。

就纽约市教育局而言,他们显然已阻止在其内部网络和连接的设备上访问 ChatGPT。

一个明显的漏洞是,学生可能会通过他们的智能手机或其他在线提供商使用不同的 Wi-Fi 网络,并轻松绕过校园电子网络上发生的阻塞。 设想坐在教室里的学生出于某种原因决定使用 ChatGPT。 他们可以转到智能手机上的设置并选择校园提供实例以外的 Wi-Fi 网络。 瞧,学生可以坐在他们的办公桌前使用 ChatGPT,并且可能正在执行与学校相关的工作。

禁令黯然失色。

一些人提到的另一个问题是,由于在家中不使用校园网络,学生在家中显然可以随心所欲地使用 ChatGPT。 该禁令似乎所做的一切都是试图减少在校园内或直接使用校园提供的网络时的使用(也有可能通过远程访问)。

更糟糕的是,有些人会感到遗憾,那些负担不起在家上网的学生被拒绝(在某种意义上)其他更富裕的学生可以利用的东西。 尽管那些受影响的学生本可以在学校使用 ChatGPT,但他们不被允许这样做。 也许这是将学生分为富人和穷人,这是不公平的。

有人可能会建议,一项具有无意的不利后果的政策。

我们可以将更多东西放在这个尝试禁令的薄弱支撑上。

ChatGPT 并不是镇上唯一的游戏。 还有许多其他生成式 AI 应用程序。 如果禁令仅基于扫描 ChatGPT 应用程序,那么所有其他生成式 AI 应用程序显然都可以自由漫游。 学生可以使用校园网络并选择不同的生成 AI 应用程序。 总的来说,其他此类 AI 应用程序具有可比性,并且几乎可以做与 ChatGPT 相同的事情。

我再添几根稻草,看看这头骆驼会不会塌陷。 ChatGPT 的 AI 制造商表示,很快将为 AI 应用程序提供 API(应用程序编程接口)。 简而言之,API 是一种允许其他程序继续运行并使用可提供进入给定应用程序门户的程序的方法。 这意味着这个星球上几乎任何其他程序都可以利用 ChatGPT 的使用(嗯,经过 ChatGPT 的 AI 制造商许可和批准)。

假设一家公司制作了一款帮助学生进行时间管理的教育应用程序。 太好了,可能是大多数学区的先驱。 教育应用程序的开发者决定使用 ChatGPT API,因此在他们的应用程序中提供生成文章的功能。 你看,他们的教育应用程序就是学生所看到的,同时在后台,该应用程序调用 ChatGPT 并将提示传递给它,收集生成的论文,并将其显示给学生。

仅仅扫描 ChatGPT 应用程序的学区不太可能知道或发现教育应用程序的后端正在使用 ChatGPT。 您可以说 ChatGPT 是隐藏的。 知道教育应用程序正在调用 ChatGPT 的学生可以轻松启动教育应用程序并破坏禁令。 十分简单。

我相信现在这可能足以说明为什么这个特定的禁令有些不稳定。

等一下,反驳说,如果 ChatGPT 对学生不利,禁止使用它的努力值得称赞,我们应该为这些政策鼓掌。 选择破坏禁令的学生,无论是在校内还是校外,都只会通过使用对学生学习有负面影响的东西来伤害自己。 他们要颠覆自己的教育。

他们劝告说,一项微弱的禁令至少是为了纠正这种不利情况。 当然,该禁令可能存在漏洞,但您必须赞扬管理员的尝试。 也许他们可以收紧禁令。 也许他们会想出更多的条款来加强禁令。

此外,该禁令具有重要的象征意义。 该实体告诉大家,ChatGPT 厌恶当今学生的教育。 父母可能会被提醒。 提供类似应用程序的人工智能制造商将受到关注。 也就是说,不要试图向我们心爱的学生兜售这些丑陋的东西。

也许可以起草和实施严格的政策,充分声明任何学生在任何时候都不允许使用生成人工智能,无论是在校内还是校外。 任何被发现使用这种基于生成的人工智能应用程序的学生都将受到严厉的处罚,可能包括被学校开除。 对政策的违反者采取严厉措施。 让他们知道你是认真的。

事情可能会更进一步。 如果学生使用基于生成的 AI 并试图偷偷逃脱,他们将永远笼罩在阴影中。 在以后的某个时候,如果发现学生确实使用了生成式 AI 而没有说出他们这样做了,他们可能会被吊销学位或在他们的学业成绩单上留下不好的标记。 对那些正在考虑使用生成式 AI 的人盖上盖子。 他们应该对违反规则感到非常害怕和紧张,以至于这会阻止他们为此付出一丁点努力。 他们将在极度恐惧中被冻结。

这些反驳的伯爵论点是,整个事情似乎被夸大了。 严厉的惩罚不是解决之道。 你小题大做了。 而且您错过了使用生成 AI 的优势和好处的机会。

请允许我解释一下上面提到的各种好处。

一些人认为生成式人工智能可以帮助学生设计出更好的论文。 学生可能会使用诸如 ChatGPT 之类的应用程序来准备一篇他们不打算上交的论文。相反,他们的目标是研究生成的论文。 由于论文通常写得很好,学生可以仔细检查措辞、结构和其他突出方面。 因此,您可以断言这是一个有用的学习工具。

使用生成式 AI 的另一个优势是学生可以将他们的论文提交到 AI 应用程序并要求对论文进行审阅。 ChatGPT 等应用程序通常会在剖析所提供的文章方面做得非常出色。 它可能不像老师的评论那样有见地,但易用性和能够随心所欲地重复使用 AI 应用程序使它成为一种有用的方法(大概不是代替老师,而是增加教师及其有限的可用性)。

我们可以继续。

在试图想出如何进行分配的论文项目时,学生通常可能不确定或表面上感到困惑。 他们盯着一张白纸。 他们要做什么? 一种绝望和绝望的感觉压倒了他们的精神。 也许他们放弃了努力并下定决心要拿个不及格的成绩。 悲伤随之而来。

学生可以要求诸如 ChatGPT 之类的生成式 AI 生成拟议的大纲,或者至少为论文提供一些指向我的建议。 根据输出的想法,学生重新设计结构,然后撰写论文。 他们自己。 将 AI 用作启动器或参与器是否是“作弊”取决于您的观点。 不可否认,人工智能应用程序让学生开始了,尽管你可以争辩说,只要学生写了这篇文章,这是一个很小的代价,因为人工智能只是提供了如何继续进行的线索。

稍微换档,对于生成式人工智能产生包含虚假或错误的输出的疑虑,典型的反驳是学生已经需要意识到他们阅读的任何内容,无论是在互联网上还是在其他地方找到的,都可能包含错误信息和虚假信息。 我们必须确保学生培养适当的技能,以辨别他们阅读的内容是有效的还是有问题的。

我们会将生成式 AI 添加到要审查的来源列表中。

要点是,应该向学生展示如何通过一些谨慎的解释来观察任何生成的 AI 输出,并公开质疑他们阅读的内容。 你可以把它向前迈进一个有益的飞跃。 给学生分配涉及使用生成式 AI 有意促使 AI 应用程序制造谎言的作业。 你遇到了麻烦。 一是您向学生展示了该 AI 如何生成错误输出,并且您正在提高他们检测和处理错误信息和虚假信息的技能。 您可能会声称,我们可以将不利因素转化为有利因素,将生成式人工智能的问题用作更广泛基础上的学习工具,以应对现代世界和海量的不良信息。

我可以继续使用其他方法将生成式人工智能用于真正的教育追求。 有关其他报道,请参阅 这里的链接.

总而言之,主张我们应该拥抱生成式 AI 的阵营必然会指出,无论如何你都不会让时光倒流。 ChatGPT 之类的应用程序即将问世。 你不可能找到阻止潮流的方法。 你不妨跳上船。

既然如此,你不必让混乱盛行。 该阵营敦促学校需要制定政策,以平衡论文生成的坏处与这些 AI 应用程序可以提供的好处。 向学生展示如何以正确的方式使用这些生成式 AI 应用程序以及如何避免错误的方式。

无论你做什么,当然不要盲目地释放生成人工智能的使用。 与教师合作制定政策。 确保教师能够自如地使用这些 AI 应用程序。 向学生介绍生成式 AI 应用程序,并解释什么是允许的,什么是不允许的。

生成式人工智能之船已起航。

精灵从瓶子里出来了。

禁止这些 AI 应用程序的下意识反应最终将是徒劳的。 另一个问题是你有点怂恿学生。 通过告诉他们不能使用这项技术,可能会激起一股使用它的兴趣。 你冒着把原本诚实和公正的学生变成强盗的风险,主要是因为学校在援引禁令方面做了很大的努力。

我们都知道,有时禁果会变得更加诱人。 这些微弱的禁令可能会刺激学生使用,远远超过其他情况下可能发生的情况。

回到我之前关于分层禁令的指示,在最近这些禁止 ChatGPT 的努力(我将其广泛称为生成 AI)的情况下,事情似乎落在了这里:

  • 绝对禁止生成人工智能: 本身不可行,还没有特别尝试过
  • 部分禁止生成 AI: 几乎已经尝试过,但有很多漏洞
  • 生成人工智能的弱禁令: 看似正在尝试的东西,非常虚弱而且可能无效
  • 不禁止生成人工智能: 其他所有人都在等着看会发生什么和做什么

还有硬币的另一面,即寻求启用或支持生成式人工智能,例如在这个范围内:

  • 对生成式 AI 的认可: 坚持认为学校至少需要承认生成人工智能的存在
  • 对生成式 AI 的温和接受: 学校应该允许以有限的方式使用生成人工智能
  • 全面接受生成式人工智能: 学校应该全面采用生成式人工智能
  • 生成式 AI 的强制性要求: 学校应该公开要求使用生成式人工智能,并将其作为课程和教学方法的一部分

结论

著名编辑 整个地球目录斯图尔特·布兰德 (Stewart Brand) 说了这句名言:“一旦一项新技术碾过你,如果你不是压路机的一部分,那么你就是道路的一部分。”

一些人热切地认为,试图禁止基于生成的 AI 的学校被误导了。 他们对这个 AI 能做什么以及如何利用其优点和缺点感到困惑。 他们必须醒来并成为压路机的一部分,否则他们会发现自己过时得可怕,成为一个被遗弃的坑坑洼洼的路边(他们的学生也会)。

其他人则认为,现在跳入基于生成的 AI 热潮还为时过早。

要么现在不采取任何行动,要么采取一些温和的行动。 等等,看看会发生什么。 如果对这些 AI 应用程序有有效的用途和需求,好吧,让我们对此进行研究,并系统地、谨慎地找出将它们纳入教育环境的最佳行动方案。

支持者的反驳是,这样等待可能需要数年时间,会使整个事情陷入混乱状态。 如果没有任何明确的指导,无疑会出现各种不良问题。 当学生突然惊讶地发现他们不应该使用这些 AI 应用程序时,他们会措手不及。 有些人会被指控使用生成式 AI 应用程序,而他们并没有这样做,这是一种很可能会被误报的指控。 泥沼会不断扩大和加深。

您认为应该怎么做?

对此进行一些发人深省的思考。 是的,要注意。 我们谈论的是今天的学生和他们的未来,以及我们的未来。 亚伯拉罕·林肯 (Abraham Lincoln) 的一句恰当的话可能很有启发性:“预测未来的最好方法就是创造未来。”

让我们这样做吧。

来源:https://www.forbes.com/sites/lanceeliot/2023/01/20/those-schools-banning-access-to-generative-ai-chatgpt-are-not-going-to-move-the-针和失踪船说人工智能伦理和人工智能法律/