人工智能炒作的“狼来了”时刻是无益的

尽管我是研究人类末日情景的人,但我认为建议 AI 暂停 6 个月的“专家信”或最近关于 AI 风险处于大流行和核风险水平的声明都被夸大了。 我们需要关闭 AI 的更疯狂的观点是不负责任的。 任何担忧都必须与我们面临的风险成正比。 现在,我们没有立即受到 AI 的威胁。

当前的人工智能无法接管社会。 他们没有感情,不应该像人类一样受到保护。 它们不是超级智能,也不会以任何一般方式超越人类。 事实上,他们根本不思考。 现在,如果提供大量数据,人工智能非常擅长计算和预测等特定任务。 这并不令人担忧,这些是这些系统设计的特点。 AI 的前景包括解决癌症、转变工业生产、模拟未来情景以及管理环境挑战。 话虽如此,我们有正当理由批评当前人工智能的资源使用、透明度、偏见、网络安全及其对就业的未来影响。

AI 的计算成本很高——这意味着它们是对稀缺化石能源的巨大浪费。 这必须立即解决。 但这不是生存问题,而是合理利用资源的问题。 依赖大而低效数据模型的 AI 变得过于昂贵,无法由学术界或政府进行跟踪和调查,这是一个真正的问题。 但它是可以立即修复的。 精英学术机构或政府的联盟可以像他们为超级计算所做的那样联合起来共享计算资源。

大型语言模型 (LLM) 是可以从大量数据生成自然语言文本的 AI 模型。 一个问题是这些文本直接来自其他人诚实的智力贡献。 它们实际上是被盗的。 尤其是生成式 AI,它会在严重侵犯版权的情况下重新组合消费者和组织数据以及创意内容。 这是严重的,但不是存在的,而且,欧盟、好莱坞的游说者和“五大”图书出版商已经在处理此事。 预计这会减缓 AI 的影响力。 按照目前的速度,人工智能在接近感知能力之前就会耗尽良好的训练数据。

已经用于计算我们的税收、选择我们的在线提要或将人们关进监狱的算法明显缺乏透明度。 然而,多年来一直如此,与最新的人工智能发展无关。 AI 偏见是一项功能,而不是错误。 事实上,刻板印象是此类模型发挥作用的主要方法。 除了偏见隐藏在人类(无论专家与否)难以理解的机器推理的坚不可摧的层次中。 我们应该质疑的是开发此类系统的开发人员的智慧,而不是他们创建的系统的能力,这是给定的。 系统很少会比构建或运行它的人的智慧或意图更好。

人工智能训练数据反映了收集这些数据的社会中存在的偏见。 重复使用不良训练数据是一种令人担忧的做法,它已经污染了 AI 模型。 当前的人工智能方法只是简单地放大偏见以快速得出结果。 诚然,这与我们想要的相反。 我们要做的是用技术来保护人为错误。 担心机器出错是对人类智慧的浪费。

尽管有“神经网络”的比喻,但无论怎么想,当前的 AI 都不像大脑。 当前的人工智能系统不能像人类那样通过类比推理。 这很好。 我们可能实际上并不想要狂热者提倡并试图效仿的那种 AI 结盟。 机器应该不同于人类。 这样我们才能最大限度地发挥彼此的优势。 以及我们如何让机器与众不同。 机器不应该有任何利益可以对齐。

作为犯罪分子和敌对国家的资产,人工智能日益成为一种重大的网络安全威胁。 但网络安全是一个成熟的行业,拥有大量能够应对挑战的专家。 没有理由因为网络安全担忧而关闭人工智能。

人工智能导致的就业中断多年来一直是一个政策问题,首先是机器人,现在是基于软件的人工智能系统。 这意味着政府将准备好应对它。 麻省理工学院未来工作研究发现,对机器人导致失业的担忧被夸大了。 人类总能找到工作的方法,将来也会这样做。 人工智能会改变制造业吗? 它已经在发生,但以一种相当可控的方式发生。

AI 有时会遭受关于当前功能或未来范围的过度承诺。 第一个 AI 寒冬始于 1974 年至 1980 年,当时美国政府撤回了资金。 第二次是从 1987 年到 1993 年,随着成本的上升,人工智能未能兑现其崇高的承诺。

等待新范式的到来,在 2025-2030 年期间,我们可能会进入第三个 AI 冬天。 至少与我们承诺的火热的 AI 夏天相比。 原因是,尽管大肆宣传,但由于上述所有原因,大型语言模型即将达到其最大效用,最终需要被计算上更优雅、更透明的方法所取代。

其中一个候选者是超维计算,它可以使机器更有效地推理,因为它们赋予机器语义理解、处理真实世界信息背后的意义和上下文的能力。 目前,人工智能系统不理解单词和短语之间的关系,它们只是擅长猜测。 那是不够的。 我们最终将需要具身人工智能,因为思维与空间感知息息相关。 在高度体力游戏的制造业中,情况绝对如此。 我们还需要具有人类记忆功能的 AI,例如基于一些信息的前景和其他信息的背景来确定优先级。 遗忘是人类用于抽象思维、摆脱过时的组织实践、做出决策以及活在当下的一种工具,而不仅仅是一种缺陷。 目前还没有机器能很好地做到这一点。

与此同时,我们确实需要监管,但不是这一刻。 而且,当我们进行监管时,我们最好做好。 对人工智能的监管不力可能会使情况变得更糟。 唤醒监管机构应对这一挑战可能会有所帮助,但我不确定当前这一代监管机构是否准备好应对做好这项工作所需的那种彻底变革。 这将需要削减强大的公司(可能是所有上市公司),限制人工智能在治理中的使用,并意味着对消费市场当前运作方式的巨大改变。 从本质上讲,我们将不得不重新布线社会。 它会让我们比我们希望的早几十年进入退化。 围绕 AI 的透明度挑战可能比每个人都非常担心的控制变量更可怕,当然并不是说它们不相关。

此外,我们不能在每次达到 AI 基准时都同样担心。 我们需要为级联风险的真正重要时刻保存能量。 他们会来的,公平地说,我们还没有准备好。 我设想的未来情景(请参阅 2075 年的灭绝情景)包括大规模数据泄露,使整个国家无法进入自己的进程数月之久。 我还担心受到犯罪集团或国家行为者帮助的人工智能。 最重要的是,我担心人工智能、纳米技术、合成生物学和量子技术的结合——能力未知的近乎隐形的准有机智能,也许只有几十年的时间,就在世界将被气候的连锁效应吞噬之时发生改变。

目前的人工智能模型还不够好,不足以对人类构成威胁。 在我们考虑关闭它们之前,我们需要更好的人工智能。 不仅如此,我们还需要更明智的开发商、更敏感的公民和更知情的政策制定者。 我们还需要一个关于如何监管​​ AI 的概念。 但这可以在不减慢任何速度的情况下完成。 这将是所有人的教育之旅。 关于 GPT 4 (2023) 的暂停信是一个哭狼时刻,与人类在未来几十年面临的级联风险只有微弱的相似之处。 将 AI 风险置于 2023 年的大流行风险和核风险级别还为时过早。 我们会到达那里吗? 也许。 但是狼来了是有后果的。 它从即将到来的关于真正恐慌的辩论中吸取了氧气。

来源:https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/