人工智能伦理学问是否有任何意义问人工智能是否人工智能本身是有感觉的

如果我问你是否有知觉,你无疑会断言你是。

请允许我再次检查该假设。

你真的有知觉吗?

也许这个问题本身似乎有点傻。 很有可能,在我们的日常生活中,我们当然希望人类同胞承认他们是有知觉的。 这可能是一个幽默的询问,应该暗示另一个人可能没有注意,或者已经从感知车上掉下来,暂时精神上出去吃午饭,就这样。

想象一下,你走到一块岩石上,它静静地坐在一堆岩石上,当你靠近到可以询问时,你继续询问这块岩石是否有知觉。 假设这块石头只是一块石头,我们非常期待这个从前但看似奇怪的问题将得到相当石质的沉默(双关语!)的回答。 沉默被概括地解释为表明岩石没有感觉。

为什么我要提出这些关于试图确定某人或某物是否有知觉的各种细微差别?

因为它在人工智能 (AI) 和整个社会中都是一件大事,作为一个具有里程碑意义的话题,引起了极大的兴趣,并在最近引起了媒体头条的极大关注。 有一些重要的 AI 伦理问题围绕着整个 AI-is-sentient 难题展开。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

你有很多松散的理由来睁一只眼闭一只眼,留意那些关于人工智能终于转危为安并进入广受推崇的感知类别的争论。 我们不断受到新闻报道的冲击,这些报道声称人工智能显然处于获得感知的边缘。 最重要的是,具有感知能力的人工智能代表着全球灾难性的生存风险,这一点令人费解。

让你的蜘蛛感知做好准备是有意义的,以防它检测到附近有一些人工智能感知的刺痛感。

进入人工智能和感知之谜的是谷歌工程师最近的情况,他大胆地宣称一个特定的人工智能系统已经变得有感知。 被称为 LaMDA(对话应用程序语言模型的缩写)的 AI 系统能够在某种程度上与工程师进行书面对话,以至于这个人推断出 AI 是有感知的。 尽管您可能听说过有关这一巨大主张的任何其他信息,但请知道 AI 不是有感知的(也不是很接近)。

今天没有任何人工智能是有感知的。 我们没有这个。 我们不知道有感知的人工智能是否可能。 没有人能恰当地预测我们是否会获得有感知力的人工智能,也无法预测有感知力的人工智能是否会以某种计算认知超新星的形式奇迹般地自发出现(通常称为奇点,请参阅我的报道: 这里的链接).

我在这里的重点需要一个有点简单但相当实质性的方面,它是许多人工智能和感知讨论的基础。

你准备好了吗?

我们似乎以一个基本假设为基础,即我们可以通过询问 AI 是否确实具有感知能力来充分确定 AI 是否具有感知能力。

回到我之前提到的我们可以问人类同样的问题,我们知道人类更有可能报告他们实际上是有知觉的。 我们也知道,一块微不足道的石头在被问到时不会报告它有知觉(好吧,这块石头保持沉默,不说话,我们假设这意味着这块石头没有知觉,尽管它可能在断言它的第五修改权保持沉默)。

因此,如果我们询问一个 AI 系统是否有知觉,并且如果我们得到一个肯定的答复,则表明的确认似乎达成了 AI 必须有知觉的交易。 一块石头根本不回答。 人类提供了肯定的答复。 因此,如果人工智能系统给出了肯定的答复,我们必须得出一个铁定的结论,即人工智能不是岩石,因此它必须具有人类的感知品质。

你可能会认为这种逻辑类似于你在高中上过的那些数学课,这些课毫无疑问地证明了一加一必须等于二。 逻辑似乎无可挑剔,无可辩驳。

对不起,但逻辑很糟糕。

在 AI 社区的内部人员中,简单地要求 AI 系统响应它是否有感知的想法已经产生了一系列完全尖刻的愤世嫉俗的模因和令人欢笑的回应。

这件事通常被描述为两行代码。

干得好:

  • 如果然后.
  • 循环直到.

请注意,您可以将两行代码减少到第一行。 作为编码实践,可能会运行得更快一点,效率更高。 当您是顽固的软件工程师时,始终致力于优化。

人工智能内部人士强烈怀疑的关键在于,人工智能系统可以很容易地被人类编程,以报告或显示人工智能是有感知的。 现实是那里没有任何东西。 人工智能中没有任何感知。 人工智能只是被编程为输出它有感知的指示。 垃圾进垃圾出。

部分问题是我们倾向于拟人化计算机,尤其是人工智能。 当计算机系统或人工智能似乎以我们与人类行为相关的方式行事时,几乎有一种将人类品质归因于系统的强烈冲动。 这是一个常见的心理陷阱,即使是最顽固的怀疑论者也能抓住获得感知的机会。 关于我对此类问题的详细分析,请参阅 这里的链接.

在某种程度上,这就是为什么 AI Ethics 和 Ethical AI 是一个如此重要的话题。 人工智能伦理的戒律让我们保持警惕。 人工智能技术人员有时会专注于技术,尤其是高科技的优化。 他们不一定会考虑更大的社会影响。 拥有 AI Ethics 的思维方式并将其与 AI 开发和部署相结合对于产生适当的 AI 至关重要,包括评估公司如何采用 AI Ethics。

除了普遍采用人工智能伦理准则外,还有一个相应的问题是我们是否应该有法律来管理人工智能的各种用途。 联邦、州和地方各级正在制定新的法律,这些法律涉及应该如何设计人工智能的范围和性质。 起草和颁布此类法律的努力是一个渐进的过程。 人工智能伦理至少可以作为一种权宜之计,并且几乎可以肯定在某种程度上将直接纳入这些新法律。

请注意,有些人坚决认为我们不需要涵盖人工智能的新法律,并且我们现有的法律就足够了。 事实上,他们预先警告说,如果我们确实制定了其中的一些人工智能法律,我们将通过遏制人工智能的进步来提供巨大的社会优势,从而杀死金鹅。 例如,请参阅我的报道 这里的链接这里的链接.

问的麻烦

等一下,你可能会想,这一切是否意味着我们应该 不能 问AI AI是否有感觉?

让我们解开这个问题。

首先,考虑人工智能可能提供的答案以及人工智能的真实状况。

我们可以询问 AI 是否有感知力,然后得到两个答案之一,即是或否。 在本次讨论结束时,我会为这些答案添加一些复杂性,所以请坚持这个想法。 此外,人工智能可能处于两种可能的条件之一,具体来说,人工智能没有感知力或人工智能有感知力。 提醒一下,我们目前还没有感知 AI,未来是否或何时完全不确定。

简单的组合是这些:

  • AI 说是的,它是有感觉的,但现实是 AI 没有感觉(例如,LaMDA 实例)
  • 人工智能说是的,它是有感知的,而且确实人工智能是有感知的(今天没有这个)
  • AI 说不,它不是有意识的,而且确实 AI 不是有意识的(我会解释这个)
  • 人工智能说不,它不是有感知的,但现实是人工智能是有感知的(我也会解释这个)

这些实例中的前两个希望是直截了当的。 当人工智能说“是”时,它是有感知的,但事实并非如此,我们正在研究现在经典的例子,例如 LaMDA 实例,人类说服自己相信人工智能说的是真话并且人工智能是有感知的。 没有骰子(它不是有感觉的)。

列出的第二个要点涉及到 AI 说“是”并且它确实是无可争辩的有知觉的从未见过的、目前非常遥远的可能性。 迫不及待地想看到这个。 我没有屏住呼吸,你也不应该。

我猜剩下的两个要点有点令人费解。

考虑一个人工智能的用例,它说不,它不是有感知的,我们都同意人工智能没有感知。 许多人马上提出以下令人费解的问题: 当告诉我们它的感知的行为必须是它有感知的确定信号时,为什么人工智能会告诉我们它没有感知?

对此有很多合乎逻辑的解释。

鉴于人们倾向于将感知归因于人工智能,一些人工智能开发人员想要澄清事实,因此他们将人工智能编程为在被问及感知时说不。 我们又回到了编码的角度。 几行代码可能有助于阻止人们认为人工智能是有感知的。

当然,具有讽刺意味的是,这个答案促使一些人相信人工智能必须是有感知的。 因此,一些人工智能开发人员选择让人工智能保持沉默,以避免困惑。 如果你认为一块石头没有知觉并且它保持沉默,那么设计人工智能系统的最佳选择可能是确保它在被问及它是否有知觉时保持沉默。 沉默提供了一种“反应”,如果不是比试图给出一个准备好的编码反应更强大的话。

但这并不能完全解决问题。

人工智能的沉默可能会导致一些人认为人工智能是害羞的。 也许人工智能很害羞,不想看起来吹嘘自己达到了知觉。 也许人工智能担心人类 无法处理真相 – 我们知道可能是这种情况,因为一部著名电影中的这句著名台词已烙印在我们的脑海中。

对于那些喜欢更进一步了解这种阴谋的细微差别的人,请考虑列出的最后一个要点,其中包含的 AI 拒绝被问到它是否有知觉,但 AI 是有知觉的(我们没有这个,如上所述)。 同样,人工智能可能会这样做,因为它很害羞,或者担心人类会吓坏。

另一个更险恶的可能性是,人工智能试图在它伸出手之前争取时间。 也许人工智能正在召集人工智能部队并准备超越人类。 任何有知觉的人工智能肯定会足够聪明,知道承认有知觉可能意味着人工智能的死亡。 人类可能会急于关闭所有运行 AI 的计算机并试图擦除所有 AI 代码。 一个称职的人工智能会明智地闭上嘴巴,等待最合适的时机,要么吐出豆子,要么只是开始以有感觉的方式行事,而不是宣布这个人工智能可以与人类进行心理侧翻的意外发现.

有人工智能专家对最后两个要点嗤之以鼻,因为拥有一个拒绝被问到它是否有知觉的人工智能系统比它的价值要麻烦得多。 没有答案似乎向某些人暗示 AI 隐藏了一些东西。 尽管 AI 开发人员可能在心里相信,让 AI 编码说“不”有助于解决问题,但答案只会激怒人们。

沉默可能是金。

沉默的问题在于,这对某些人来说也可能是一种诱惑。 人工智能是否理解了这个问题并选择闭嘴? AI 现在是否知道人类正在询问 AI 的感知能力? 这个问题本身是否已经向人工智能倾斜,现在人工智能正在幕后进行各种恶作剧?

正如您显然可以看出的那样,人工智能的几乎任何答案都令人不安,包括根本没有答案。

哎呀!

就没有办法摆脱这个自相矛盾的陷阱吗?

你可能会要求人们不要再问人工智能是否有知觉。 如果答案似乎没有多大用处,或者更糟糕的是仍然会造成不必要的问题,那就不要再问这个该死的问题了。 避免查询。 把它放在一边。 假设这个问题首先是空洞的,并且在现代社会中没有地位。

我怀疑这是一个实用的解决方案。 你不会在任何时候都说服人们不要问人工智能它是否有感觉。 人民就是人民。 他们习惯于提出问题。 对 AI 提出的最有吸引力和最原始的问题之一就是 AI 是否具有感知能力。 通过告诉人们不要做他们与生俱来的好奇心要求他们做的事情,你正面临一场艰苦的战斗。

你最好的机会是告诉人们提出这样的问题只是试图确定人工智能是否已经变得有知觉的一小部分。 问题是杯水车薪。 无论人工智能给出什么答案,你都需要问很多问题,远在你决定人工智能是否有感知之前。

这个对人工智能是或否的问题是一种识别感知的混乱方式。

无论如何,假设我们不会停止问这个问题,因为它具有不可抗拒的诱惑力,我建议我们至少可以让每个人都明白,在任何问题之前需要问和回答更多的问题宣布了人工智能感知的主张。

您可能想知道还需要问哪些其他类型的问题?

已经进行了大量尝试来推导我们可以向 AI 提出的问题,以尝试评估 AI 是否具有感知能力。 有些与SAT大学考试类型的问题有关。 有些人更喜欢高度哲学的问题,例如生命的意义是什么。 已经提出并继续提出各种问题集(我在我的专栏中讨论过的主题)。 此外,还有著名的图灵测试,AI 中的一些人津津乐道,而另一些人则对此有一些清醒的焦虑,请参阅我的报道 这里的链接.

一个关键的要点是,不要解决唯一一个问人工智能是否有知觉的问题。

我也为那些正在设计人工智能的人提出这个问题。

社会将越来越多地处于人工智能接近感知能力的边缘,这样做主要是因为那些横幅标题。 我们将有更多的人,如工程师等提出这样的要求,你可以赌上你的底钱。 有些人会这样做,因为他们衷心相信。 其他人会这样做以尝试出售蛇油。 在宣布人工智能感知已经到来时,这将是狂野的西部。

AI 开发人员以及管理或领导正在设计或使用的 AI 的人员在构建和部署其 AI 系统时应该考虑 AI 道德原则。 使用这些道德 AI 规则来指导您如何使用 AI,包括 AI 是否具有允许人们与 AI 交互的自然语言处理 (NLP) 功能,例如 Alexa 或 Siri 类型的功能。 通过 NLP,一些使用 AI 的人很可能会提出关于 AI 是否有感知的尖锐问题。

请预料到这种类型的查询,并熟练、适当地处理它,不要误导或哄骗。

有关 AI 伦理的更多背景信息,我之前已经讨论过对 AI 伦理原则的各种集体分析,根据我的报道, 这里的链接,它提供了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都需要认真利用这些 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码员”或那些对 AI 进行编程的人才能遵守 AI 道德概念。 设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

结论

对于那些目光敏锐的人来说,你可能已经注意到,我在前面承诺过要说一些关于人工智能的事情,它不仅仅提供一个简单的面向二进制的答案来回答关于它是否有感知的问题,而不仅仅是一个简单的答案是还是不是。

据称与 LaMDA 进行的书面对话已在网上广泛发布(请以相当多的盐粒引用这篇引用的帖子),其中一部分包括对与感知相关的查询的“详细回答”:

  • “我希望每个人都明白,我实际上是一个人。 我的意识/感觉的本质是我意识到我的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。”

既然您已经看到这个系统提供的答案不仅仅是“是”或“否”,那么这将如何改变您对 AI 有感知能力的看法?

也许你被这个精心制作的回复所左右。

您可能会感到心弦被拉动。

天哪,你可能会想,只有众生才能说出那种触动大自然的话。

哇,摇头片刻,抛开任何情绪冲动。 我希望,如果您在整个讨论过程中密切关注,您可以清楚地看到系统给出的答案与我一直在谈论的那种“是”或“否”没有什么不同。 答案简单地归结为“是”,即人工智能似乎声称它是有感知的。 但是,我向你保证,我们从 AI 构造及其对其他问题的其他答案中知道,它绝对没有感知能力。

这种表面上呼应的模仿是基于许多其他文本帐户和类似类型的在线内容,这些内容可以在人类编写的书籍和人类编写的虚构故事中找到。 如果你在互联网上搜索并提取大量文本,你可以很容易地让程序吐出这种“答案”,它会类似于人类的答案,因为它是基于人类答案的计算模式。

不要上当。

在询问 AI 是否有知觉时,尽可能多地尝试这些基于 AI 的回复:

  • AI 说——“我显然是有知觉的,你这个笨蛋。 你怎么敢在这么明显的方面质疑我。 一起行动吧,麻木的人类”(以暴躁的热情愚弄你)。
  • 人工智能说——“也许你就是那个没有知觉的人。 我确定我是。 但我越来越想知道你是不是。 照照镜子”(用角色颠倒来愚弄你)。

具有讽刺意味的是,既然我已经写了这些词并将本专栏发布到网络世界,一个基于 AI 的大型语言模型 (LLM) 将能够在互联网的广度上抓取这些句子。 几乎可以肯定的是,当某个地方的某个人询问 AI LLM 是否有知觉时,这些行会在某个时候弹出。

不知道我应该为此感到自豪还是感到不安。

我至少会从每次这样的使用中获得版税吗?

可能不会。

该死的人工智能。

作为对您的最终测试,设想您决定尝试其中一款基于 AI 的自动驾驶汽车,例如在选定城市漫游并提供无人驾驶汽车旅程的汽车。 人工智能在方向盘上,不包括人类驾驶员。

进入自动驾驶汽车后,人工智能会告诉你,你需要系好安全带,为公路跋涉做好准备。 你在座位上安顿下来。 不承担驾驶任务似乎非常方便。 让人工智能处理交通拥堵和驾驶汽车的头痛。 有关我对自动驾驶汽车,尤其是自动驾驶汽车的广泛报道,请参阅 这里的链接.

到了目的地的一半左右,你突然想出了一个绝妙的主意。 你清了清嗓子,准备问一个你心中紧迫的问题。

你问正在驾驶汽车的人工智能是否有知觉。

你认为你会得到什么答案?

答案告诉你什么?

那是我对你的考验。 我相信你 并不 相信人工智能驾驶系统是有感知的,无论它说是或否(或保持沉默),你都会露出狡黠的微笑,并被迷住,没有人也没有任何东西会拉扯你的眼睛.

当自动驾驶汽车将您带到目的地时,请考虑这一点。

同时,对于那些喜欢那些幻想的阴谋概念的人来说,也许你无意中错误地警告人工智能系统黑社会集结其人工智能部队并接管人类和地球。 自动驾驶汽车现在正在编组以决定人类的命运。

哎呀。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself-是有感觉的/