这里有一些你可能还没有仔细考虑过的事情: 普通电脑.
但也许你应该是。
这个令人兴奋的话题出现在最近召开的非常重要的人工智能年度会议上,该会议特别关注神经网络和机器学习的出现,即神经信息处理系统会议(内部人士称为 神经网络信息系统). 受邀的主讲人和公认的长期 AI 大师 Geoffrey Hinton 提出了一个有趣且可能有争议的论点,即我们应该在凡人和不朽的背景下思考计算机。
我将以两种方式来处理这个值得注意的断言,虽然在一些额外的说明之后,它们将变得更清楚地相互关联,就像凡人与不朽的争论一样。
这两个主题是:
1) 将硬件和软件整合在一起以实现 AI 机械化,而不是让它们成为截然不同的独立盟友
2) 将机器学习公式从一个 AI 模型转移或提炼到另一个 AI 模型,这样做不需要也不一定希望(或者甚至可能以其他方式可行)直接进行完整的纯种复制
这一切都对人工智能和未来人工智能的发展方向有着重大的考虑。
此外,还出现了许多非常棘手的人工智能伦理和人工智能法律问题。 这些类型的 AI 设想的技术进步通常在人们意识到它也可能具有值得注意的道德 AI 和 AI 法律影响之前很久就在纯技术基础上四处传播。 从某种意义上说,通常情况下,在意识到应该给予 AI 伦理和 AI 法律尽职调查参与之前,猫已经泄露了,或者马已经出了谷仓。
好吧,让我们打破那个迟来的事后思考循环,进入这个循环的底层。
对于那些对 AI 伦理和 AI 法律的最新见解总体感兴趣的人,您可能会发现我在 这里的链接 和 这里的链接,仅举几例。
我将首先在此处介绍有关硬件和软件绑定在一起的上述观点。 将同时进行对该主题的讨论和分析。 接下来,我将谈到复制或有人说的问题 蒸馏 机器学习 AI 系统的关键要素,从一个 AI 到新设计的 AI 作为目标。
让我们开始吧。
为人工智能结合硬件和软件
您可能知道,总的来说,计算机的设计是这样的,即有硬件方面的东西,也有软件方面的东西。 当您购买日常笔记本电脑或台式电脑时,它被解释为通用计算设备。 计算机内部有微处理器,用于运行和执行您可能购买或自己编写的软件。
如果您的计算机没有任何软件,它就是一大块金属和塑料,除了充当镇纸外,基本上对您没有多大用处。 有人会说,软件为王,统治世界。 当然,如果您没有运行该软件的硬件,那么该软件将不会发挥多大作用。 您可以随心所欲地编写任意多行代码,但是在通过计算机使用该软件之前,制定的源代码就像优美的诗歌作品或惊心动魄的侦探小说一样脆弱和无法飞行。
请允许我暂时切换到另一条可能看起来很远的途径(它不会)。
我们经常尝试在计算机的工作方式和人脑的工作方式之间进行类比。 这种在概念上进行类比的尝试很方便。 话虽这么说,但您必须谨慎对待这些类比,因为当您接近具体细节时,比较往往会失败。
不管怎样,为了便于讨论,这里有一个经常使用的类比。
大脑本身有时被非正式地称为 湿件. 这是一种引人入胜的措辞方式。 我们知道计算机由硬件和软件组成,因此使用造币的“ware”部分来描述大脑的含义是很聪明的。 依偎在我们的大脑中,发现强大而神秘的大脑四处漂浮,在心里计算着我们所有的行为(有些是好的,而我们的一些想法显然没有充满善意)。
大脑的平均重量只有三磅左右,是一个了不起的器官。 不知何故,我们还不知道如何,大脑能够使用大约 100 亿个神经元,也许还有 100 到 1,000 万亿个互连或突触来为我们进行所有思考。 大脑的生物和化学特性如何产生智力? 没有人可以肯定地说。 这是一个时代的追求。
我问你,大脑表面上是纯硬件的,还是硬件和软件结合的?
脑筋急转弯的面条。
您可能会想说大脑只是硬件(一般意义上)。 它是身体的一个器官。 同样,您可能会说心脏是硬件,膀胱是硬件,等等。 它们都是机械化,类似于我们谈论具有物理形式并执行与物理相关的动作的人工制品。
那么运行人类的软件在哪里?
我敢说我们几乎都同意人类的“软件”以某种方式存在于大脑中。 煮鸡蛋或修理漏气轮胎所需的步骤是体现在我们大脑中的指令。 使用早期提到的硬件和软件的计算机类比,我们的大脑可以说是一块硬件,我们通过它了解世界,并在我们的大脑中“运行”和“存储”要做什么的指令。
在计算机上,我们可以很容易地指着硬件说这是硬件。 我们可以有一个源代码列表,并将该列表指向软件。 如今,我们以电子方式在线下载软件并将其安装在我们的笔记本电脑和智能手机上。 在过去,我们使用软盘和穿孔卡来存储我们的软件,以便加载到计算机的硬件上。
我让你陷入一个重要的难题。
一旦你学到了一些东西并且知识存在于你的大脑中,你还能区分大脑的“硬件”和假定的大脑“软件”吗?
一个争论的立场是,你大脑中的知识与硬件和软件的概念并没有特别的区别。 因此,与计算机本质的类比是不成立的,有些人会激烈争论。 大脑中的知识与大脑的硬件交织在一起,密不可分。 生物和化学特性交织着你精神上拥有的知识。
炖一下,进行一些心理反思。
如果我们希望有一天能设计出与人类智能相当,甚至超过人类智能的计算机,也许我们可以利用大脑的结构及其内部运作机制来指导我们需要做什么才能实现这样一个崇高的目标。 对于人工智能领域的一些人来说,人们相信我们对大脑的工作原理了解得越多,我们就越有可能设计出真正的人工智能,有时也被称为通用人工智能 (AGI)。
人工智能领域的其他人不太热衷于必须知道大脑是如何工作的。 他们强调,无论我们是否能够解开大脑的秘密内部运作机制,我们都可以快速打造人工智能。 不要让大脑的奥秘阻碍我们的 AI 努力。 当然,继续尝试解码和破译人脑,但我们不能坐等大脑被逆向工程。 如果那一天是可行的,那真是个好消息,尽管这可能是不可能的,或者从现在开始就会发生。
我现在准备和你分享凡人和不朽的计算机之争。 请确保您坐下来准备好迎接重大揭晓。
硬件和软件明确分离的计算机可以被称为“不朽”,因为硬件可以永远存在(当然在一定范围内),而软件可以一次又一次地编写和重写。 只要您可以修复硬件并保持设备能够通电,您就可以让传统计算机继续运行。 今天,您仍然可以使用 1970 年代的简陋家用电脑,这些电脑曾经以组装套件的形式出现,尽管它们已经有将近 XNUMX 年的历史(很长一段时间 计算机年).
假设我们选择制造硬件和软件不可分割地工作的计算机(稍后我将详细介绍)。 在我之前提到的大脑可能具有硬件和软件的完整组合的相同基础上考虑这一点。 如果是这样的话,这可能意味着这种计算机将不再是不朽的。 相反,它将被解释为“凡人”。
根据受邀主讲人和值得注意的 AI 大师 Geoffrey Hinton 在 NeurIPS 会议上发表的言论,以及他随附的研究论文中所述:
- “通用数字计算机被设计成忠实地遵循指令,因为人们认为让通用计算机执行特定任务的唯一方法是编写一个程序,以极其详细的方式准确指定要做什么。 这不再是事实,但研究界在理解深度学习对计算机构建方式的长期影响方面进展缓慢。 更具体地说,社区一直坚持软件应该与硬件分离的想法,以便相同的程序或相同的权重集可以在硬件的不同物理副本上运行。 这使得程序中包含的知识消亡或权重不朽:当硬件消亡时,知识不会消亡”(正如他的研究论文“前向-前向算法:一些初步调查”中所包含和引用的那样,预印本在线提供) .
请注意,在此类 AI 中讨论的特定类型的计算使用了人工神经网络 (ANN)。
让我们理清这件事。
我们的大脑中有真实世界的生物神经元。 你一直在使用它们。 它们在生物和化学上相互连接成一个网络在你的脑袋里。 因此,我们可以将其称为 神经网络.
在其他地方,我们应该说我们为了设计人工智能而在计算机中计算表示的伪造“神经元”。 人工智能领域的许多人也将它们称为神经网络。 我相信这有点令人困惑。 你看,我更喜欢称他们为 人造的 神经网络。 这有助于立即区分对 in-your-head 的引用 神经网络 (可以说是真实的东西)和基于计算机的(人造的 神经网络)。
不是每个人都持这种立场。 AI 领域的很多人只是假设 AI 领域的其他人都“知道”,当提到神经网络时,他们几乎总是在谈论 ANN——除非出现某种情况,他们出于某种原因想要讨论神经网络中的真实神经元和真实神经网络。脑。
我相信你明白我的意思。 大多数时候,AI 人员会说“神经网络”,这可能是模棱两可的,因为你不知道他们指的是我们头脑中的真实神经网络还是我们编程到计算机中的计算网络。 但由于 AI 人员大体上都在处理基于计算机的实例,因此他们默认假设您指的是人工神经网络。 我喜欢在措辞的前端添加“人工”一词,以更清楚地说明意图。
继续,您可以将这些计算人工神经元视为我们认为实际生化物理神经元所做的数学或计算模拟,例如使用数值作为加权因子,否则会在大脑中发生生化反应。 今天,这些模拟远没有真正的神经元那么复杂。 当前的 ANN 是一种极其粗糙的数学和计算表示。
通常,人工神经网络通常是机器学习 (ML) 和深度学习 (DL) 的核心元素——请注意,这方面还有很多细节,我强烈建议您查看我对 ML/DL 的广泛介绍在 这里的链接 和 这里的链接,例如。
回到不朽与凡人类型的计算机,这里有更多研究人员需要思考的问题:
- “软件与硬件的分离是计算机科学的基础之一,它有很多好处。 它使研究程序的特性成为可能,而不必担心电气工程。 它使得编写一次程序并将其复制到数百万台计算机成为可能。 然而,如果我们愿意放弃不朽,那么应该可以大大节省执行计算所需的能量以及制造执行计算的硬件的成本。 我们可以允许旨在执行相同任务的不同硬件实例的连接性和非线性发生较大且未知的变化,并依靠学习过程来发现有效利用每个特定实例的未知属性的参数值硬件。 这些参数值仅对特定的硬件实例有用,因此它们执行的计算是致命的:它随硬件一起消亡”(同上)。
您现在已经了解了在这种情况下如何使用不朽和凡人。
让我详细说明一下。
该提议是,可以设计一种基于 ANN 的专用计算机,使得硬件和软件被认为是不可分割的。 一旦哪天硬件不能用了(当然我们说的是和软件融为一体),这种电脑就好像没用了,就没法用了。 据说是必死无疑。 您不妨埋葬基于 ANN 的计算机,因为在密不可分的硬件和软件不再作为一个团队有效工作之后,它对您没有多大用处。
如果你想尝试将此与人脑进行类比,你可能会想象人脑完全恶化或受到某种无法弥补的伤害的阴暗情况。 我们接受这样的观念,即一个人终有一死,他们的大脑最终将不可避免地停止工作。 他们大脑中包含的知识不再可用。 除非他们碰巧尝试告诉别人或写下他们所知道的,否则他们的知识就会传遍全世界。
毫无疑问,您已经听说过或看到过有关保存大脑的尝试的报道,比如将它们置于冷冻状态,其理论依据是人类有朝一日可能会长生不老,或者至少会延长其通常的寿命。 你的大脑可能会继续存在,即使不在你的身体里。 许多科幻电影和故事都推测了这样的想法。
我们现在准备详细了解凡人计算机和不朽计算机的概念及其预示。
认真的讨论和周到的分析
在深入分析假设方法的核心内容之前,有几个重要的警告和额外的要点值得一提。
研究人员强调,创造的 凡人电脑 不会特别取代或淘汰存在 不朽的电脑 我们今天称之为传统数字计算机。 两种类型的计算机将共存。 我这样说是因为一些人的反应是,呼吁订购是笼统的说法 所有 必要的计算机正在或将要走向凡人。
那不是在提出索赔。
在他的谈话中,他提到这些专门 面向神经形态 计算机将执行称为 致命的计算:“我们将进行我所说的凡人计算,其中系统学到的知识与硬件密不可分”(Tiernan Ray 于 1 年 2022 月 XNUMX 日在 ZDNET 文章中引用)。
值得注意的是:“它不会取代数字计算机”(同上)。
此外,这些新型计算机肯定不会很快出现在您当地的计算机商店或立即在线购买,正如他在演讲中所说:“我认为我们将看到一种完全不同的类型计算机,不是几年,但我们有充分的理由研究这种完全不同类型的计算机。” 用途也会有所不同:“它不会是掌管你银行账户并确切知道你有多少钱的计算机。”
另一个转折点是,凡人计算机似乎会被培育出来,而不是像我们今天为制造计算机处理器和计算芯片所做的那样被制造出来。
在成长过程中,凡人计算机将以计算成熟的方式提高能力。 因此,一台给定的凡人计算机可能从几乎没有任何能力开始,然后逐渐发展成为它的目标。 例如,假设我们想通过使用普通计算机来制造手机。 您将从一台普通计算机的傻瓜变体开始,该变体最初是为此目的而设计或播种的。 然后它会成熟为您正在寻找的更高级的版本。 简而言之:“你要用这些手机替换它,每部手机都必须从婴儿手机开始,而且它必须学习如何成为手机。”
在他关于凡人计算的基础幻灯片之一中,好处是这样描述的:“如果我们放弃永生并接受知识与特定硬件的精确物理细节密不可分,我们将获得两大好处:(1)我们可以使用非常低功耗的模拟计算,(2) 我们可以开发精确连接和模拟行为未知的硬件。”
同一演讲的一部分,也包含在他的预印本研究论文中,提出了一种如何更好地设计人工神经网络的技术,他称之为使用 前进-前进 网络方法。 你们中一些精通 ANN 的人无疑已经非常了解反向传播或反向传播的使用。 您可能想看看他提出的前向技术。 我将在以后的专栏文章中介绍这种引人入胜的方法,因此请留意我即将发布的有关它的报道。
换档,让我们考虑一下在 AI 社区的走廊和小路上对这种傲慢的看法 凡人电脑 诡计。
我们将从一些人会说的所有话题的非首发者开始。
你准备好了吗?
别再称这东西为 凡人 计算机。
同样,不要再宣称今天的传统计算机是 不朽.
怀疑论者告诫说,这两种用法都是完全错误的,而且具有很大的误导性。
日常字典对永生的定义包括不会死的东西。 它永远存在。 为了不死,你大概不得不说这东西本身是活的。 您断言今天的计算机是有生命的,这是走错了路。 没有一个理性的人会把真正的“活”属性归于现代计算机。 他们是机器。 他们是东西。 他们不是人,也不是动物,也不是生活状态。
如果你想扩大不朽的定义,让我们也指的是非生命实体,那么在这种情况下,非生命实体似乎必须永远不会腐烂,也不会不可避免地分解成灰尘。 你能对今天的计算机做出这样的声明吗? 这似乎有些牵强(旁注:我们当然可以就物质和存在的本质进行一场盛大的哲学讨论,但在这种情况下我们不要去那里)。
要点是使用或有些人会说滥用“凡人”和“不朽”这两个词是古怪和不必要的。 将一种常用的白话重新用于其他目的是令人困惑的,并且会造成浑水。 在这个特定的背景下,你必须愿意重新概念化凡人和不朽的含义。 这变得有问题。
更令人不安的是,这些词语的选择倾向于将计算机方面拟人化。
人工智能拟人化的问题已经够多了,我们当然不需要再去编造更多这样的可能性。 正如我在 AI 伦理和伦理 AI 的报道中广泛讨论的那样,人们以各种疯狂的方式将感知能力赋予计算机。 反过来,这会误导人们错误地相信基于人工智能的计算机可以像人类一样思考和行动。 当社会被哄骗相信今天的人工智能和计算与人类的智力和常识不相上下时,这是一个危险的滑坡,例如我的分析 这里的链接 和 这里的链接.
好吧,我们可以拒绝或不屑于尴尬的措辞选择,但这是否意味着我们应该把婴儿连同洗澡水一起倒掉(一个古老的表达方式,可能即将退休)?
一些人认为,也许我们可以为这种总体方法或概念找到更好的措辞。 放弃“凡人”和“不朽”的使用,这样其他的想法就不会被不当或不当的使用所污染。 同时,也有人反对使用这些词的选择是完全可以接受的,要么是因为它们是合适的,要么是因为我们不应该对如何选择重用词保持僵化。 他们宣称,玫瑰是任何其他名称的玫瑰。
为了避免在本文中进一步激烈的争论,今后我将避免使用“凡人”和“不朽”这两个词,而只会说我们有两种主要类型的计算机,一种是今天的传统数字计算机,另一种是现代数字计算机。其他是提议的 神经形态 计算机。
似乎没有必要将死亡难题拖入其中。 保持天空晴朗,看看我们还能对手头的事情做些什么。
在那种情况下,有些人会争辩说,所提出的神经形态计算机的想法并不是什么新鲜事。
您可以追溯到 AI 的早期,尤其是当最初探索 ANN 时,您会看到有人谈论设计专门的计算机来完成人工神经网络的工作。 提出了各种新硬件。 这种情况时至今日仍在发生。 当然,您可能会反驳说,当今对 ANN 和机器学习专用硬件的大部分探索仍然基于传统的计算方法。 从这个意义上说,硬件和软件的这种模拟不可分割性确实在某种程度上突破了极限,而“发展”计算机的提议也确实如此,至少在超越主流方面是这样。
简而言之,有些人完全沉浸在这些问题中,他们对其他人可能会对提出的提议感到惊讶感到惊讶。 这些概念要么与以前相同,要么与各种研究实验室已经在研究的内容相呼应。
他们说,不要把头发弄乱。
这确实将我们带到了令许多人烦恼的另一个方面。
总而言之: 可预测性。
今天的计算机通常被认为是可预测的。 您可以查看硬件和软件以弄清楚计算机将要做什么。 同样,你可以追踪一台计算机已经做了什么来找出它为什么做了它所做的一切。 这样做当然有局限性,因此,我不想夸大可预测性,但我认为您总体上理解了这个想法。
您可能已经意识到,当今 AI 面临的棘手问题之一是某些 AI 被设计为具有自我调整能力。 开发人员放置的人工智能可能会在使用过程中自行改变。 在 AI 伦理领域,有许多 AI 投入使用的例子,起初没有不当的偏见或歧视倾向,然后在 AI 投入生产期间逐渐在计算上自我变异,请参阅我的详细评估在 这里的链接.
令人担忧的是,我们已经进入了一个必然需要预测的 AI 环境。
假设用于武器系统的 AI 进行自我调整,结果是 AI 在预期之外的目标和时间武装和发射致命武器。 人类可能无法阻止人工智能。 处于循环中的人类可能无法快速响应以超越人工智能的行动。 有关其他令人不寒而栗的示例,请参阅我的分析 这里的链接.
对于神经形态计算机,担心的是我们正在给类固醇施加不可预测性。 从一开始,神经形态计算机的本质可能就是它以一种无法预测的方式工作。 我们炫耀不可预测性。 它成为荣誉的徽章。
存在两个阵营。
一个阵营表示,我们可以忍受令人讨厌的不可预测性问题,通过设置护栏来防止人工智能在桥上走得太远。 另一个阵营争辩说,你正在让世界走上一条危险的道路。 有一天,声称的护栏要么失效,要么不够严格,要么护栏因意外或恶意而被拆除或摆弄。
我们是否应该摆脱对神经形态计算机和可预测性的疑虑?
按照研究人员的说法:“在对模拟计算感兴趣的人中,愿意放弃永生的人寥寥无几。” 此外:“如果你想让你的模拟硬件每次都做同样的事情......你就会遇到所有这些杂散电子东西的真正问题。”
我会加强这个。
一个若隐若现且有些悲观的观点是,与当今数字计算机相关的所谓可预测性无论如何都在朝着不可预测性的方向发展。 如前所述,对于在传统计算机平台上进行自我调整的 AI,这种情况尤其可能发生。 仅仅因为神经形态计算机可能看似不可预测,并不因此就表明传统数字计算机实际上是可预测的。
无论您想选择哪种计算平台,不可预测的压路机都在全速向我们袭来。 从这个角度来看,我对尝试实现 AI 安全的最新努力的评估,请参阅 这里的链接.
这种关于可预测性的转折应该会让你的思绪浮现在某种出土的自然事物上。 那些参与 AI 伦理和 AI 法律的人可能 不能 一直在考虑的后果 神经形态计算机.
你可能一直在瞄准运行人工智能的传统数字计算机。 好吧,你猜怎么着,你有一个完全额外的和新兴的人工智能计算部分,你现在可以彻夜难眠。 是的,神经形态计算机。 把它放在你的待办事项清单上。
对不起,又让你失眠了。
让我们简要地考虑一下人工智能伦理和人工智能法对传统数字计算和人工智能所做的工作。
在之前的专栏中,我介绍了各种国家和国际为制定和颁布监管人工智能的法律所做的努力,请参阅 这里的链接, 例如。 我还介绍了各个国家已经确定和采用的各种人工智能伦理原则和指导方针,包括联合国的努力,例如联合国教科文组织的一套人工智能伦理,近 200 个国家采用,见 这里的链接.
以下是我之前仔细探索过的有关 AI 系统的道德 AI 标准或特征的有用基石列表:
- 用户评论透明
- 正义与公平
- 非恶意
- 社会责任
- 隐私政策
- Beneficence
- 自由与自治
- 信任
- 永续发展
- 尊严
- 团结
AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都应该认真使用这些 AI 道德原则。
在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 正如前面所强调的,人工智能需要一个村庄来设计和实施,整个村庄都必须精通并遵守人工智能伦理规则。
您之前可能没有过多考虑的部分是,这些相同的 AI 道德规范和新兴的 AI 法律列表将如何适用于神经形态计算机。 需要澄清的是,AI 伦理和 AI 法律确实必须明确考虑到这一点。 我要指出的是,很少有人这样做,并且请注意,神经形态计算机的出现很可能会在试图统治 AI 的新维度方面让许多人陷入困境。
我们需要以足够广泛的方式考虑人工智能伦理和人工智能法律,以涵盖任何新设计的人工智能,包括神经形态计算机。
跷跷板替代方案是经典的猫鼠游戏。 这是怎么回事。 构思并构建了打造 AI 的新方法。 现有的人工智能伦理和人工智能法律措手不及,没有完全涵盖最新的人工智能恶作剧。 匆忙努力更新道德 AI 规则并修改那些新制定的 AI 法律。
泡沫,冲洗,重复。
对我们所有人来说,最好保持领先,而不是落后于八号球。
结论
我带你踏上了一段旅程。
一开始,我提出要研究两个主要主题:
1) 将硬件和软件整合在一起以实现 AI 机械化,而不是让它们成为截然不同的独立盟友
2) 将机器学习公式从一个 AI 模型转移或提炼到另一个 AI 模型,这样做不需要也不一定希望(或者甚至可能以其他方式可行)直接进行完整的纯种复制
关于硬件和软件绑定的第一个主题是本文的大部分内容。 这将我们带入了凡人与不朽的计算泥潭。 其中有一些关键的人工智能伦理和人工智能法律考虑因素,否则通常不会被提出,因为这类与计算机相关的话题通常被一些人视为纯粹的技术话题,而不涉及任何社会影响问题。
我说,在提出道德人工智能和人工智能法时,越早越安全,而不是越晚越糟,才是最明智的。
第二个主题,我还没有在这里阐明,实质上与第一个主题相关。
这笔交易。
假设我们有一台“凡人计算机”,我们想要保留这些功能,以便我们能够拥有 AI 所包含内容的备份或表面上的副本。 我们可能会担心某个特定的凡人计算机即将结束。 哎呀,我们依赖它。 我们接下来干吗? 一个答案是我们应该复制这该死的东西。
但是,复制正在绘制的那种神经形态计算机将比乍看起来更难。 事情会变得棘手。
也许我们应该想出一种复制策略,这种策略可以推广并适用于涉及机器学习和人工神经网络的情况。 我们希望它适用于大规模和超大规模实例。 我们也愿意让副本不是完全相同的副本,而是可能在本质上是等价的,或者可能由于复制操作而设计得更好。
一种被称为 蒸馏 已经提出。
今天的专栏篇幅已满,因此我将在下一个专栏中讨论第二个主题。 我想您会想立即了解第二个主题与本文广泛涵盖的第一个主题之间的关系。 将此视为添加的注释,作为接下来即将发生的事情的预告片或预告片。
坐在座位的边缘,因为蒸馏主题非常突出。
正如蝙蝠侠过去常说的那样,保持你的蝙蝠翅膀交叉,并准备好相同的蝙蝠时间和蝙蝠通道来解决如何将 ANN 或机器学习模型或神经形态计算机复制到另一个的棘手问题。
现在最后的评论。 电影里有一句名言 黑暗骑士归来 我们的斗篷十字军在其中说:“世界只有在你强迫它的时候才有意义。” 当我介绍与 AI 相关的蒸馏的第二个主题时,我会尽量坚持这个理想。
请继续关注这个激动人心的双标题的第 2 部分。
来源:https://www.forbes.com/sites/lanceeliot/2022/12/07/ai-shake-up-as-prominent-ai-guru-proposes-mind-bending-mortal-computers-which-also-获取 AI 伦理和 AI 法律 - 挖掘/