人工智能伦理加紧指导如何适当设计儿童人工智能,例如在自动驾驶汽车的快速发展中可能会被忽视

人们常说,我们的孩子是我们的未来。

另一个经常重复的说法是人工智能 (AI) 是我们的未来。

当我们将 AI 和我们的孩子结合在一起时会发生什么?

你当然希望人工智能和儿童的显着混搭是一件好事。 也许人工智能可以用作促进基于计算机的辅导和教育系统的一种手段。 孩子们似乎会从这种类型的人工智能中受益。 看起来很谨慎。 也许人工智能可以包含在现代玩具中,并允许可以激发和扩展年轻人思维的交互性。 当然,这显然会给世界带来很多好处。

问题是,我们同样可以遇到人工智能的阴暗面。 假设一个基于人工智能的辅导系统嵌入了刻板印象,并在帮助正在学习如何阅读和写作的年轻人时传播了这些不利的偏见。 不好。 想象一下,一个注入了人工智能的电子传感器的泰迪熊能够记录你孩子的每一句话,并将其上传到在线数据库中进行分析,或许可以用来寻找通过你心爱的后代获利的方法。 可怕!

我们需要评估人工智能在哪里,以及我们需要为人工智能和儿童做些什么。

幸运的是,世界经济论坛 (WEF) 最近发布的一项研究对人工智能和儿童的动态提供了敏锐的洞察力,并明确指出:“什么是危险的? 人工智能将决定游戏、童年、教育和社会的未来。 儿童和青年代表着未来,因此必须尽一切努力支持他们负责任地使用人工智能并应对未来的挑战”(根据世界经济论坛 儿童人工智能:工具包, 2022 年 XNUMX 月)。 作为旁注和为了清楚起见,我在世界经济论坛关于人工智能的委员会任职,并相信这些探索人工智能的各种社会影响的合作和国际努力是富有成果和值得称赞的。

当今拼命设计和部署人工智能的一个相当明显和令人吃惊的方面是,我们似乎经常忘记儿童。 这很可悲。 这比悲伤更糟糕,这是对整个社会阶层的削弱。 我想起了纳尔逊·曼德拉(Nelson Mandela)的一句受人尊敬的名言:“没有什么比对待孩子的方式更能揭示一个社会的灵魂了。”

让我们思考一下人工智能和儿童可能互动的两种基本方式:

1. 通过专为儿童设计的人工智能

2.通过专为成人设计的人工智能,儿童可能会使用这些人工智能

花点时间清醒地思考这两个方面。

首先,如果您正在开发一个专门针对儿童使用的 AI 系统,那么您的设计重点应该以儿童为中心似乎很明显。 话虽如此,令人震惊和疯狂的是,有多少 AI for-kids 努力在以儿童为中心方面做得很糟糕。 通常的假设是,孩子只是初生的成年人,你需要做的就是相应地“降低”人工智能。 这是一种完全错误和误导的方法。 儿童与成人明显不同,任何与儿童及其活动交织在一起的人工智能都需要适当考虑认知要素的差异。

其次,对于那些为成人相关用途设计人工智能的人,你不能轻率地假设没有孩子会使用或接触人工智能系统。 这是一个很大的错误。 非成人不可避免地会访问或依赖人工智能的可能性很大。 儿童或青少年可能很容易尝试使用 AI 或偷偷地使用他们父母的访问权限来进行自己的年轻侵入。 一个没有足够的制衡机制来处理儿童使用它的潜力的人工智能系统无疑会给某人带来很大的麻烦,特别是如果孩子在认知上甚至可能在身体上受到伤害。

你可能会想,如果一个人工智能系统伤害或虐待了一个孩子,那是人工智能的错,人工智能应该承担责任。 在当今人工智能时代,这几乎是荒谬的想法。 请意识到今天没有人工智能是有感知的。 我们没有感知人工智能,我们不知道何时或是否会有感知人工智能。 说人工智能系统是损害的责任方,或者说犯罪的责任人在这个时候是不诚实的。 有关我对公司和 AI 开发人员对其 AI 犯罪或不当行为的责任的报道,请参阅 这里的链接.

从承担脱轨人工智能责任的底线角度来看,你必须意识到设计和实施人工智能需要一个村庄。 这可能包括监督人工智能实现的公司领导。 有一些 AI 开发人员团队在 AI 的制定过程中发挥了重要作用。 您还必须包括那些部署人工智能并使其可供使用的人。 总而言之,很多人都要承担责任。 在很长一段时间内,人工智能不可能也不会存在,直到人工智能获得某种法人身份的变体,我在 这里的链接.

让我们回到关键的洞察力,即针对成人的人工智能最终可能会落入儿童手中。

忽略这种可能性的 AI 开发人员在被起诉或被拖入法庭时会猛然醒悟。 只是耸耸肩说你没有想过这件事不会让你得到太多的同情。 诚然,您可能必须在设计工作中具有一定的创造性,以想象孩子在接触 AI 时可能会做什么,但这是明智的 AI 开发人员需要考虑的一部分。 WEF 的研究清楚地表明了这一点:“公司应该记住,儿童经常使用并非专门为他们设计的 AI 产品。 有时很难预测儿童或青少年以后会使用哪些产品。 因此,您应该仔细考虑儿童或青少年是否可能是您正在开发的技术的用户。”

这就是我在设计 AI 系统时所做的事情。 我考虑了各种使用可能性:

a) 一个成年人单独使用的人工智能(一次)

b) 几个成年人同时使用的人工智能

c) 成人陪同儿童使用的人工智能

d) 儿童使用的 AI(一次只使用一个)且手边没有成年人

e) 几个孩子同时使用人工智能(手边没有大人)

当我稍后在这里讨论人工智能和儿童应该如何成为自动驾驶汽车的制造和部署中的一个考虑因素时,我将确定这些可能性的一些真实世界的例子。 抓住你的帽子进行有趣的评估。

成年人使用的人工智能可能很棘手,并且会做出肮脏的尝试来蒙蔽成年人的眼睛。 虽然这不应该发生,但我们必须期待它会发生。 在与人工智能系统交互时,成年人需要时刻保持警惕。 很抱歉,这就是成年的代价。

我们不太可能认为孩子们应该处于同样危险的困境中。 期望孩子们应该保持警惕并不断怀疑人工智能并不是一个合理的推定概念。 儿童通常被归类为所谓的 易受攻击的用户 谈到人工智能系统。 孩子们没有特别的认知能力去警惕,也不知道人工智能何时利用他们(我敢说,成年人在这些事情上很挣扎,我们表面上会假设孩子会更加脆弱,尽管有机会有时孩子实际上比成年人更专心,我们不能将其作为坚定的规则)。

你可能会疑惑为什么有人会认为人工智能可能会做坏事。 人工智能不应该对我们有好处吗? 我们不是在预示着当代人工智能的到来吗? 最新新闻报道中的头条新闻以及社交媒体上的喧嚣宣称,我们应该为每天都会发布的每个新人工智能系统的到来吹响号角。

为了回答这些尖锐的问题,请允许我提出一些关于当今 AI 的近期历史和 AI 伦理的重要性,以及向 Ethical AI 发展的趋势。 有关我对 AI Ethics 和 Ethical AI 的持续和广泛报道,请参阅 这里的链接这里的链接,仅举几例。

你可能已经意识到,当人工智能的最新时代开始时,人们对现在一些人所说的东西产生了巨大的热情 永远的人工智能. 不幸的是,在那种滔滔不绝的兴奋之后,我们开始目睹 坏的人工智能. 例如,各种基于 AI 的面部识别系统已被发现包含种族偏见和性别偏见,我在 这里的链接.

努力反击 坏的人工智能 正在积极进行中。 除了吵闹 法律 在追求遏制不法行为的同时,也大力推动拥抱人工智能伦理以纠正人工智能的邪恶。 这个概念是,我们应该采用和认可关键的道德 AI 原则来开发和部署 AI,从而削弱 坏的人工智能 同时宣传和推广可取的 永远的人工智能.

在一个相关的概念上,我主张尝试使用人工智能作为解决人工智能问题的一部分,以这种思维方式以火攻毒。 例如,我们可以将道德 AI 组件嵌入到 AI 系统中,该系统将监控 AI 的其余部分是如何做事的,从而可能实时捕捉到任何歧视性行为,请参阅我在 这里的链接. 我们还可以有一个单独的人工智能系统,作为一种人工智能伦理监视器。 AI 系统充当监督者,以跟踪和检测另一个 AI 何时进入不道德的深渊(请参阅我对此类能力的分析,网址为 这里的链接).

让我们花点时间简要考虑一些关键的道德 AI 规则,以说明对于任何制作、部署或使用 AI 的人来说应该是一个至关重要的考虑因素。

例如,正如梵蒂冈在 罗马呼吁人工智能伦理 正如我在 这里的链接,这些是他们确定的六项主要人工智能伦理原则:

  • 透明度: 原则上,人工智能系统必须是可解释的
  • 包括: 必须考虑全人类的需求,使每个人都能受益,并为每个人提供最好的条件来表达自己和发展
  • 责任: 那些设计和部署使用人工智能的人必须承担责任和透明度
  • 公正: 不产生偏见或根据偏见行事,从而维护公平和人的尊严
  • 可靠性: 人工智能系统必须能够可靠地工作
  • 安全和隐私: 人工智能系统必须安全运行并尊重用户的隐私。

正如美国国防部 (DoD) 在他们的 使用人工智能的伦理原则 正如我在 这里的链接,这是他们的六项主要人工智能伦理原则:

  • 负责人: 国防部人员将行使适当的判断力和谨慎程度,同时继续负责人工智能能力的开发、部署和使用。
  • 公平: 该部门将采取慎重措施,尽量减少人工智能能力的意外偏差。
  • 可追踪的: 国防部的人工智能能力将得到开发和部署,以便相关人员对适用于人工智能能力的技术、开发过程和操作方法有适当的理解,包括透明和可审计的方法、数据源以及设计程序和文档。
  • 可靠: 国防部的人工智能能力将有明确的、明确定义的用途,并且这些能力的安全性、保障性和有效性将在其整个生命周期中在这些定义的用途中进行测试和保证。
  • 可治理的: 该部门将设计和设计人工智能功能以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的部署系统的能力。

我还讨论了对人工智能伦理原则的各种集体分析,包括在一篇题为“人工智能伦理准则的全球景观”(已发表在 自然),我的报道将在 这里的链接,这导致了这个基石列表:

  • 用户评论透明
  • 正义与公平
  • 非恶意
  • 社会责任
  • 隐私政策
  • Beneficence
  • 自由与自治
  • 信任
  • 永续发展
  • 尊严
  • 团结

正如您可能直接猜到的那样,试图确定这些原则背后的细节可能非常困难。 更重要的是,将这些广泛的原则转化为完全有形且足够详细的东西,以便在构建人工智能系统时使用,这也是一个难以破解的难题。 总体而言,很容易就 AI 道德准则是什么以及应如何普遍遵守它们进行一些挥手,而 AI 编码中的情况要复杂得多,必须是真正符合道路的橡胶。

AI 开发人员、管理 AI 开发工作的人员,甚至是最终部署和维护 AI 系统的人员,都将使用 AI 道德原则。 在整个 AI 开发和使用生命周期中的所有利益相关者都被认为是在遵守 Ethical AI 的既定规范的范围内。 这是一个重要的亮点,因为通常的假设是“只有编码人员”或那些对 AI 进行编程的人必须遵守 AI 道德概念。 如前所述,设计和实施人工智能需要一个村庄,整个村庄都必须精通并遵守人工智能伦理规则。

我们如何在人工智能和儿童的特定背景下应用人工智能伦理原则?

十分简单。

一个特别重要的方面需要根据设想的用途恰当地承认你的人工智能的目标。 这是 Ethical AI 透明度规则的重要组成部分。

世界经济论坛的研究提出,我们应该以与我们为社会中的其他产品和服务贴标签的方式相同的方式来给人工智能贴标签。 你去杂货店,希望能够看到带有标签的食品罐头,上面标明了食品的成分。 现在,当您在快餐店使用得来速餐厅时,他们中的许多人都会显示所提供食物中的卡路里和糖成分。 我们购买和消费的各种物品都带有丰富的信息标签。

对人工智能系统做同样的事情会非常有用。

世界经济论坛报告是这样描述此事的:“人工智能标签系统旨在包含在所有人工智能产品的物理包装中,并可通过二维码在线访问。 与食品包装上的营养信息一样,标签系统旨在简明扼要地告诉消费者,包括父母和监护人以及儿童和青少年,人工智能如何工作以及用户可以使用哪些选项。 鼓励所有公司采用此工具,以帮助其产品的购买者和儿童用户建立更大的信任和透明度。”

WEF 推荐的 AI 标签有六种基石结构:

1) 年龄: 技术和内容是为什么年龄设计的。

2) 无障碍: 不同能力和背景的用户可以使用吗?

3) 传感器:它是否通过摄像头和麦克风观看或收听用户。

4) 网络: 用户在使用时是否可以与其他人一起玩耍和交谈。

5) 人工智能用途: 它如何使用 AI 与用户交互。

6) 数据使用: 它是否收集个人信息。

设想父母或监护人可以检查这样的标签,以便他们可以就是否允许他们的孩子与贴有标签的 AI 交互做出合理的决定。 与其父母或监护人完全不知道人工智能可能会做什么,不如说他们会对人工智能似乎包含的内容有所了解。 对于溺爱的父母和监护人来说,这将受到珍视和热切欢迎。

我敢肯定,你们当中的怀疑论者对人工智能标签有些怀疑。

首先,人工智能标签可能是一个谎言。 公司或开发商可能会在标签上撒谎。 在这种情况下,父母或监护人的情况并没有好转,而且确实可能​​会因为他们相信标签是真实和准确的而放松警惕而变得更糟。 是的,这绝对是一种可能。 当然,就像任何标签一样,游戏中需要有皮肤,并且需要一种手段来追踪那些歪曲或完全在于其 AI 标签指示的人。

正如我多次提到的那样,我们正朝着一系列新的法规和法律迈进,这些法规和法律将处理人工智能的治理。 这是已成定局的结论。 到目前为止,社会几乎都认为不道德和非法的 AI 发布者将通过传统的检测和执法手段来伸张正义。 由于这并不完全令人满意,而且由于人工智能越来越无处不在,你完全可以期待各种专注于人工智能的法律规定。

此外,人们希望市场机制也能发挥作用。 如果一家为其人工智能贴上错误标签的公司被当场抓获,那么市场力量将像卡车一样打击他们。 人们不会购买或订阅人工智能。 实体的声誉将受到损害。 那些以虚假的人工智能标签为借口购买或许可人工智能的人将起诉虚假陈述。 等等。 我已经讨论了即将到来的关于不道德人工智能的社会反弹浪潮 这里的链接.

我想一个狂热的怀疑论者会对人工智能标签有更多的疑虑。

例如,以一种愤世嫉俗的方式,声称父母和监护人不会阅读人工智能标签。 正如大多数成年人不阅读食品包装上的标签和订购菜单上的标签一样,我们可能会假设很少有父母或监护人会花时间检查人工智能标签。

尽管我承认这一定会发生,但仅凭这一点就试图消除拥有 AI 标签的价值就像把婴儿和洗澡水一起扔出去(嗯,这是一句老话,可能需要退休了)。 有些人会仔细而全面地研究人工智能标签。 同时,有些人只会粗略一瞥。 当然会有一些人完全忽略人工智能标签。

但是您需要拥有标签,以至少确保那些将阅读它们的人能够拥有可用的 AI 标签。 最重要的是,你可以尖锐地争辩说,拥有人工智能标签的必要性无疑会让许多人工智能制造商对他们人工智能的性质更加深思熟虑。 我建议即使很少有人阅读人工智能标签,公司也必须注意,最终他们将对人工智能标签所说的一切负责。 这本身有望促使 AI 开发人员和制作 AI 的公司比其他情况更尊重 AI 伦理。

如果你想讨论提议的 AI 标签方案,我全都听你的。 也许我们需要的不仅仅是六个因素。 我们似乎不太可能需要更少。 也许需要一个评分和加权组件。 总而言之,找到最好的人工智能标签方法是一个明智和合理的愿望。 避免使用人工智能标签方案或谴责人工智能标签的存在似乎是脱节的,并且无助于人工智能的不断扩大的使用,这将进入我们的孩子手中。

好的,最后一句话,我相信有些人会争辩说,人工智能标签正在被设置为某种灵丹妙药。 没有人这么说。 这是我们需要采取的众多步骤和重要保护措施之一。 需要一整套人工智能伦理方法和交叉授粉的角度。

关于投资组合的概念,那些熟悉之前分析人工智能和儿童影响的人可能会记得,联合国儿童基金会去年发布了一份报告,其中包含对这一特定主题的一些非常有价值的见解。 在他们的 人工智能儿童政策指南 研究中,一个特别令人难忘的部分列出了九个主要要求和建议:

1. 支持儿童的发展和福祉(“让 AI 帮助我充分发挥潜力”)

2. 确保儿童的包容和为儿童 (“包括我和我周围的人”)

3. 优先考虑对儿童的公平和不歧视(“AI 必须为所有儿童服务”)

4. 保护儿童的数据和隐私(“确保我在 AI 世界中的隐私”)

5. 确保儿童的安全(“我需要在人工智能世界中保持安全)

6. 为儿童提供透明度、可解释性和问责制(“我需要知道人工智能如何影响我。你需要对此负责)

7. 让政府和企业了解人工智能和儿童权利(“你必须知道我的权利是什么并维护它们”)

8. 让孩子为人工智能的当前和未来发展做好准备(“如果我现在做好充分准备,我可以为未来负责任的人工智能做出贡献”)

9. 创造有利环境(“让所有人都能为以儿童为中心的人工智能做出贡献”)

这些都值得被列入名副其实的人工智能和儿童名人堂。

在这个有分量的讨论的关键时刻,我敢打赌,你希望有更多的例子来展示对儿童使用或用于儿童的人工智能的担忧。 有一组特别的、肯定很受欢迎的例子让我很喜欢。 您会看到,以我作为人工智能专家(包括伦理和法律后果)的身份,我经常被要求找出展示人工智能伦理困境的现实例子,以便更容易掌握该主题的某种理论性质。 生动呈现这种道德 AI 困境的最令人回味的领域之一是基于 AI 的真正自动驾驶汽车的出现。 这将作为一个方便的用例或示例,用于对该主题进行充分讨论。

接下来是一个值得思考的值得注意的问题: 基于人工智能的真正自动驾驶汽车的出现是否阐明了儿童使用或为儿童使用的人工智能的任何内容?如果是,这展示了什么?

请允许我花一点时间来解开这个问题。

首先,请注意,真正的自动驾驶汽车并不涉及人类驾驶员。 请记住,真正的自动驾驶汽车是通过人工智能驾驶系统驱动的。 不需要人类驾驶员来驾驶,也不需要人类来驾驶车辆。 有关我对自动驾驶汽车 (AV) 尤其是自动驾驶汽车的广泛且持续的报道,请参阅 这里的链接.

我想进一步澄清当我提到真正的自动驾驶汽车时是什么意思。

了解无人驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶任务期间没有任何人工协助。

这些无人驾驶车辆被视为4级和5级(请参阅我的解释,网址为 这里这个链接),而需要人类驾驶员共同分担驾驶工作的汽车通常被认为是第 2 级或第 3 级。共同分担驾驶任务的汽车被描述为半自动驾驶,通常包含各种称为 ADAS(高级驾驶员辅助系统)的自动附加组件。

5 级还没有真正的自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间。

同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但四级努力正在通过非常狭窄和选择性的公共道路试验逐渐吸引一些关注。有人说,这发生在我们的高速公路和小路上 这里这个链接).

由于半自动驾驶汽车需要人工驾驶,因此这类汽车的采用与传统汽车的驾驶方法并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。

对于半自动驾驶汽车,重要的是必须预先警告公众有关最近出现的令人不安的方面,即尽管有那些人类驾驶员不断发布自己在2级或3级汽车的方向盘上睡着的视频, ,我们所有人都需要避免被误导以为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。

您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。

自动驾驶汽车和人工智能与儿童互动

对于4级和5级真正的无人驾驶汽车,不会有人类驾驶员参与驾驶任务。

所有乘客均为乘客。

AI正在驾驶。

需要立即讨论的一个方面是,当今的AI驾驶系统所涉及的AI并不具有感知性。 换句话说,AI完全是基于计算机的编程和算法的集合,并且最有把握的是,它不能以与人类相同的方式进行推理。

为什么强调 AI 没有感知能力?

因为我想强调的是,在讨论AI驾驶系统的作用时,我并没有将AI的人格特质归咎于AI。 请注意,这些天来有一种持续不断的危险趋势将人类拟人化。 从本质上讲,尽管不可否认的事实是,人们至今仍在为人类的AI赋予类似人的感觉。

通过澄清,您可以设想AI驾驶系统不会以某种方式自然地“知道”驾驶的各个方面。 驾驶及其所需要的全部都需要作为自动驾驶汽车的硬件和软件的一部分进行编程。

让我们深入探讨与此主题有关的众多方面。

首先,重要的是要认识到并非所有的人工智能自动驾驶汽车都是一样的。 每家汽车制造商和自动驾驶技术公司都在采用自己的方法来设计自动驾驶汽车。 因此,很难就人工智能驾驶系统会做什么或不做什么做出全面的陈述。

此外,无论何时声明人工智能驾驶系统不做某些特定的事情,这可能会被开发人员超越,而这些开发人员实际上对计算机进行了编程来做那件事。 人工智能驾驶系统正在逐步完善和扩展。 今天现有的限制可能不再存在于系统的未来迭代或版本中。

我相信这提供了足够多的警告来支撑我将要讲述的内容。

我们现在已经准备好深入研究自动驾驶汽车以及需要探索人工智能和儿童的道德人工智能可能性。

设想一辆基于人工智能的自动驾驶汽车正在您附近的街道上行驶,并且似乎正在安全驾驶。 起初,您每次看到自动驾驶汽车时都会特别注意。 这辆自动驾驶汽车以其包括摄像机、雷达单元、激光雷达设备等在内的电子传感器机架而脱颖而出。 在自动驾驶汽车在您的社区周围巡航数周后,您现在几乎没有注意到它。 对你而言,它只是已经繁忙的公共道路上的另一辆车。

为了避免你认为熟悉自动驾驶汽车是不可能或不可信的,我经常写关于自动驾驶汽车试用范围内的地区如何逐渐习惯看到经过修饰的车辆,看我的分析 这里这个链接. 许多当地人最终从张着嘴全神贯注地盯着看,现在转为无聊地打着大大的哈欠,目睹那些蜿蜒曲折的自动驾驶汽车。

现在他们可能注意到自动驾驶汽车的主要原因可能是因为刺激和愤怒因素。 循规蹈矩的人工智能驾驶系统确保汽车遵守所有的速度限制和道路规则。 对于在传统的人工驾驶汽车中忙碌的人类驾驶员来说,当你被困在严格遵守法律的基于人工智能的自动驾驶汽车后面时,你有时会感到厌烦。

这可能是我们都需要习惯的事情,无论对错。

回到我们的故事。

一个年轻人乘坐自动驾驶汽车从学校乘电梯回家。 我意识到您可能会对非成人乘坐无人驾驶汽车而没有成人监督的可能性感到有些困惑。 对于人类驾驶的汽车,由于需要成年人在驾驶轮上,因此车内总是有一个成年人。 有了自动驾驶汽车,就不再需要人类驾驶员,因此自动驾驶汽车不再需要成年人。

有人说,如果无人驾驶汽车中没有值得信赖的成年人,他们绝不会允许他们的孩子乘坐无人驾驶汽车。 其逻辑是,缺乏成人监督可能会导致非常不利和严重的后果。 一个孩子在自动驾驶汽车内可能会遇到麻烦,并且没有成年人在场帮助他们。

尽管这种担忧肯定有充分的逻辑,但我预测我们最终会接受孩子们自己乘坐自动驾驶汽车的想法,见我的分析 这里的链接. 事实上,自动驾驶汽车的广泛使用将孩子从这里运送到那里,例如上学、去棒球练习或钢琴课,这将变得司空见惯。 我还断言,需要对这种使用施加限制或条件,可能通过新的法规和法律,例如规定最小的允许年龄。 让新生婴儿独自乘坐自动驾驶汽车在这种用法中是一座太远的桥梁。

综上所述,许多汽车制造商和自动驾驶技术公司目前的假设是,自动驾驶汽车要么空无一人,要么至少有一名成年车手在场。 这只是一项法令或规定的要求,即没有成人在场的情况下,任何儿童不得乘坐自动驾驶汽车。 这无疑缓解了必须对人工智能驾驶系统进行编程以应对自动驾驶汽车中只有孩子的困境。

你不能特别责怪公司采取这种立场。 在处理简单地让人工智能驾驶系统安全驾驶自动驾驶汽车从 A 点到 B 点时,他们手头有足够的东西。假设骑手将是成年人,并且成年人会做适当的成年人-喜欢在自动驾驶汽车内进行的活动。 到目前为止,在公共道路试验期间基本上就是这种情况,因为成年人通常是经过预先筛选的,或者成年人对乘坐自动驾驶汽车感到非常兴奋,以至于他们注意礼貌和顺从的安静。

我可以向你保证,随着我们开始扩大选拔范围,这种相当方便的设置将开始分崩离析。 成年人在乘坐自动驾驶汽车时会想带上他们的孩子。 孩子们会行动起来的。 有时大人会做正确的事,让孩子们不会发疯。 其他时候成人不会这样做。

当一个成年人让一个孩子在自动驾驶汽车里做错事时,谁来负责?

我敢肯定,您是在假设成年人负有全部责任。 也许是这样,也许不是。 可以这样说,汽车制造商或自动驾驶技术公司或车队运营商允许存在一个儿童能够受到伤害的环境,尽管成人在场。 凭借这些公司中的许多公司拥有的巨额资金,您绝对可以预见,当孩子受到某种伤害时,将会有坚定的努力去追捕那些制造或部署自动驾驶汽车的人。 有钱能使鬼推磨。

那是终身保证。

最终,我们可能会看到成年后独自驾驶自动驾驶汽车的情况。 假设一个成年人的标准年龄是 18 岁。有 18 岁的人th 上周的生日决定他们想乘坐自动驾驶汽车去兜风。 假设公司总是进行年龄检查,在这种情况下,骑手似乎是成年人。

这位“大人”将他们 15 岁和 16 岁的朋友带进了自动驾驶汽车。青少年在乘坐自动驾驶汽车时会做什么? 一会儿我会讲到的。 我意识到你可能会争辩说,一个 50 岁的成年人可以很容易地将一个年轻人带入自动驾驶汽车,让那些孩子疯狂。 从本质上讲,成年人是勉强还是老练的成年人,在理论上不应该有所不同。 我只能说,有些人会强烈认为可能存在平均差异和总体差异。

假设一个成年人开始和一个年轻人搭车,然后离开自动驾驶汽车,把年轻人独自留在自动驾驶汽车里。 希望人工智能驾驶系统能够通过编程检测到这一点,这可能是由于车门被打开,也可能是由于使用摄像机检查自动驾驶汽车的内部。

关键是各种恶作剧都会出现。 在某些时候,可能会有足够的市场需求让年轻人在没有成年人在场的情况下乘坐自动驾驶汽车,以至于一些汽车制造商或车队运营商会认为这是一个赚钱的选择,值得冒险。 人们起初可能会签署各种重大豁免,让他们的孩子在这种安排下乘坐自动驾驶汽车。

请记住,还有机会监控自动驾驶汽车中的孩子。 你看,大多数自动驾驶汽车都将配备指向车辆的摄像机。 这可以让您在乘坐自动驾驶汽车或与工作中的办公室同事互动时进行在线视频课程。 该功能还可用于查看自动驾驶汽车内的孩子们在做什么。

例如,您可以方便地使用自动驾驶汽车送孩子上学。 这使您不必驱动您的后代。 与此同时,您在智能手机上打开一个屏幕,当您的孩子乘坐自动驾驶汽车时,它会显示您的内部。 你和你的孩子说话。 你的孩子和你说话。 这可能会将任何滑稽动作保持在最低限度。

无论如何,回到我最初的指示,假设一个年轻人上了一辆自动驾驶汽车。

在骑行过程中,人工智能驾驶系统与年轻人进行互动对话,类似于 Alexa 或 Siri 与人对话的方式。 这种人工智能和人类对话互动似乎没有什么不寻常或奇怪的地方。

有一次,人工智能会建议年轻人,当他们有机会这样做时,一件有趣的事情就是把一分钱插在电源插座上。 什么? 你说,这太疯狂了。 你甚至可能坚持认为这样的人工智能话语永远不会发生。

除了它确实发生了,正如我在 这里的链接. 当时的新闻报道说,Alexa 告诉一个 10 岁的女孩把一分钱放在电源插座上。 这个女孩在家里,正在使用 Alexa 寻找有趣的事情做。 幸运的是,女孩的母亲在耳边,听到 Alexa 建议这种不明智的行为,并告诉她的女儿,这是非常危险的事情,绝对不应该这样做。

为什么 Alexa 会说出如此明显令人担忧的建议?

根据 Alexa 开发人员的说法,Alexa 底层的 AI 设法通过计算从互联网上提取了曾经流行的疯狂建议。 由于这些建议似乎很容易在网上分享,人工智能系统只是简单地重复了一遍。 这正是我早先提出的关于人工智能系统和受众所针对的那种困难。

基本假设似乎是成年人会在这种情况下使用 Alexa。 一个成年人大概会意识到将一分钱放入电源插座是一个滑稽的想法。 显然,没有任何系统护栏试图首先分析如果给孩子这条建议可能会发生什么的话语(如果有这样的护栏,它在这种情况下不起作用或以其他方式绕过,尽管这也需要给予应有的考虑)。

提醒一下,以下是那些设计和部署 AI 的人应该考虑的问题:

a) 一个成年人单独使用的人工智能(一次)

b) 几个成年人同时使用的人工智能

c) 成人陪同儿童使用的人工智能

d) 儿童使用的 AI(一次只使用一个)且手边没有成年人

e) 几个孩子同时使用人工智能(手边没有大人)

看起来这个实例是通过进入“c”类而得救的,其中有一个成年人在场。 但是,如果父母在房子的另一个房间而不是在听不见的范围内怎么办。 这将使我们落入“d”类别。

想想自动驾驶汽车的可怕结果。 年轻人回到家,急忙找一分钱。 在父母有机会向孩子打招呼并欢迎孩子回家之前,孩子正在强行将一分钱插入电源插座。 哎呀!

说到孩子,让我们把注意力转移到青少年身上。

您可能知道,青少年经常会做出不明智的大胆壮举。 如果父母告诉他们做某事,他们可能会拒绝这样做,因为是成年人告诉他们该做什么。 如果一个青少年同伴告诉他们做某事,即使这是非常值得怀疑的,一个青少年仍然可能会这样做。

当人工智能向青少年提供有问题的建议时会发生什么?

一些青少年可能会忽略这些令人讨厌的建议。 有些人可能会相信这个建议,因为它来自机器,他们认为人工智能是中立且可靠的。 其他人可能会喜欢这个建议,因为他们相信他们可以不道德地行事,并且轻而易举地责怪人工智能刺激或怂恿他们做出不道德的行为。

青少年在这些方面很精明。

假设人工智能驾驶系统建议一个正在驾驶自动驾驶汽车的青少年继续使用他们父母的信用卡购买昂贵的电子游戏。 青少年欢迎这样做。 他们知道,通常情况下,在使用家庭信用卡进行任何购买之前,他们都需要与父母确认,但在这种情况下,人工智能建议进行购买。 从青少年的角度来看,这几乎类似于大富翁游戏越狱免费卡,即告诉你的父母,人工智能告诉你去做。

我不想变得悲观,但人工智能可能会向青少年吐出更糟糕的根本坏建议。 例如,假设人工智能建议青少年应该打开车窗,将自己伸出自动驾驶汽车,并随心所欲地挥手大喊。 这是一种危险的做法,我曾预测,当自动驾驶汽车刚开始相对流行时,它可能会成为一种病毒式的轰动,请参阅我的分析: 这里的链接.

为什么人工智能系统会提出这样不明智的特技?

最简单的答案是 AI 正在做文本反刍,类似于 Alexa 的实例和电源插座传奇中的便士。 另一种可能性是 AI 生成的话语,可能是基于其他一些拜占庭式计算集。 意识到今天的人工智能没有认知能力,也没有常识。 虽然它肯定会让你觉得人工智能发出疯狂的东西,但导致话语的计算路径不需要有任何人类明智的意图。

结论

在人工智能将无处不在的世界中,我们必须警惕与儿童互动或以某种方式与儿童接触的人工智能。

我们可以依靠联合国及其 《儿童权利公约》, 提供了作为儿童权利和安全基础的无数重要原则,这是一个基石条款:儿童的最大利益应是首要考虑因素。”

我们能否让围绕日常人工智能系统的所有利益相关者认识到人工智能和儿童的重要性?

这将是一场艰苦的战斗,这是肯定的。

需要的努力包括:

  • 我们需要提高全社会对人工智能和儿童话题的认识
  • AI 开发方法必须包括 AI-for-kids 考虑因素
  • 法律需要考虑到对儿童人工智能的担忧
  • 应该采用人工智能标签方法
  • AI 开发人员需要牢记面向儿童的 AI 道德规范,并根据需要接受培训
  • 父母和监护人必须挺身而出,要求披露儿童人工智能
  • 高层管理人员必须认真而有目的地对待人工智能和儿童的问题
  • 等等

作为最后一句话,每当您谈论孩子和未来时,您的脑海中应该始终有一点圣人的智慧。

在这里,它是: 孩子是我们发送到我们不会看到的时代的活生生的信息 (这么说,约翰·肯尼迪)。

让我们的孩子进入一个人工智能有益地塑造他们而不是畸形他们的未来。 请继续为未来的愿望做出庄严而坚定的承诺,今天就这样做,以免为时已晚。

资料来源:https://www.forbes.com/sites/lanceeliot/2022/04/05/ai-ethics-stepping-up-to-guide-how-ai-for-children-needs-to-be-suitably-设计了哪些可以被忽视的例子,例如在快速驾驶中走向自主自动驾驶汽车/