您的组织需要外部算法评估员的 3 个原因

萨塔·萨玛-海塔尔

商界领袖正在从人工智能 (AI) 中榨取所有可能的价值。 毕马威 2021 年的一项研究发现 大多数政府、工业制造、金融服务、零售、生命科学和医疗保健业务的领导者表示,人工智能在他们的组织中至少具有适度的功能. 该研究还发现,一半的受访者表示,他们的组织加快了人工智能的采用,以应对 Covid-19 大流行。 在采用人工智能的组织中,至少有一半的人表示该技术超出了预期。

人工智能算法越来越多地负责当今的各种交互和创新——从个性化 产品推荐 顾客服务 银行的经验 贷款决定 乃至 警方回应.

但对于它们提供的所有好处,如果没有有效地监控和评估人工智能算法的弹性、公平性、可解释性和完整性,它们就会带来巨大的风险。 为了帮助企业领导者监控和评估人工智能,上面引用的研究表明, 越来越多的商业领袖希望政府监管人工智能,以允许组织投资于正确的技术和业务流程。 为了获得必要的支持和监督,明智的做法是考虑由具有提供此类服务经验的服务提供商提供的外部评估。 以下是三个原因。

1. 算法是“黑盒子”

人工智能算法——从数据中学习以解决问题和优化任务——使系统更智能,使它们能够比人类更快地收集和生成洞察力。

然而,一些利益相关者认为这些算法是“黑匣子”,领先的专业服务公司毕马威的审计董事总经理 Drew Rosen 解释道。 具体来说,某些利益相关者可能不了解算法是如何做出某个决定的,因此可能对该决定的公平性或准确性没有信心。

“从算法中收集的结果可能容易产生偏见和对结果的误解,”罗森说。 “这也可能给实体带来一些风险,因为他们利用这些结果并与公众及其利益相关者分享[它们]。”

例如,使用错误数据的算法充其量是无效的,而最坏的情况是有害的。 在实践中会是什么样子? 考虑一个基于 AI 的聊天机器人,它向用户提供错误的帐户信息,或者一个不准确地翻译文本的自动语言翻译工具。 这两种情况都可能导致政府实体或公司以及依赖这些算法做出的决策的选民和客户出现严重错误或误解。

黑盒问题的另一个原因是当固有的偏见渗入人工智能模型的开发时,可能会导致有偏见的决策。 例如,信用贷方越来越多地使用人工智能来预测潜在借款人的信用,以便做出贷款决策。 但是,当人工智能的关键输入(例如潜在借款人的信用评分)时,可能会出现风险, 有重大错误,导致这些人被拒绝贷款。

这凸显了对外部评估者的需求,该评估者可以充当公正的评估者,并根据公认的标准对历史数据的相关性和可靠性以及为算法提供动力的假设进行重点评估。

2. 利益相关者和监管机构要求透明度

2022 年,目前没有对负责任 AI 的报告要求。 然而,罗森说,“就像管理机构如何引入 ESG [环境、社会和治理] 监管 报告某些 ESG 指标,我们看到针对负责任人工智能的额外监管报告要求只是时间问题。”

事实上,自 1 年 2023 月 XNUMX 日起,纽约市的 地方法律144 要求在使用自动化雇佣决策工具之前对其进行偏差审计。

在联邦一级, 2020 年国家人工智能倡议法案——它建立在一个 2019行政命令——专注于人工智能技术标准和指导。 此外, 算法责任法 可能需要对自动化决策系统和增强的关键决策过程进行影响评估。 而在海外, 人工智能法 已经提出,提供了一个全面的监管框架,在人工智能安全、合规、治理和可信度方面有具体目标。

随着这些转变,组织处于治理显微镜下。 算法评估员可以提供此类报告,以解决监管要求并提高利益相关者的透明度,同时避免利益相关者误解或被误解的风险 误导 根据评估结果。

3. 公司受益于长期风险管理

毕马威技术保障业务合伙人史蒂夫·卡马拉(Steve Camara)预测,随着实体继续推进流程自动化、开发可增强客户体验的创新以及跨业务功能分布人工智能开发,人工智能投资将继续增长。 为了保持竞争力和盈利,组织需要有效的控制,不仅要解决人工智能的直接缺点,还要降低与人工智能驱动的业务运营相关的任何长期风险。

这就是外部评估人员作为值得信赖的精明资源介入的地方。 Camara 解释说,随着组织越来越多地将 AI 完整性作为业务推动者,这种伙伴关系可能不再是一种临时服务,而是一种一致的协作。

“我们看到了一条前进的道路,需要在持续开发和实施人工智能的组织与客观的外部评估者之间建立持续的关系,”他说。

展望接下来会发生什么

例如,在未来,组织可能会在开发新模型、获取新数据源、集成第三方供应商解决方案或应对新的合规性要求时更多地周期性地利用外部评估。

当强制要求额外的法规和合规要求时,外部评估人员可能能够提供服务,以直接评估组织根据这些要求部署或使用 AI 的情况。 然后,这些评估员将最适合以清晰和一致的方式分享评估结果。

为了在利用技术的同时避免其局限性,组织必须寻求外部评估人员提供报告,然后在部署算法时可以依赖这些报告来展示更大的透明度。 从那里,组织和利益相关者都可以更好地了解人工智能的力量及其局限性。

资料来源:https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/