参议员就 LLaMA AI 模型“泄漏”问题质疑 Meta 首席执行官扎克伯格

两名参议员 Cross 就 LLaMA AI 模型的泄露问题向扎克伯格提出质疑,并指责 meta 没有遵守安全措施。 Meta 被问及其安全政策和预防措施。

元要对“泄漏”负责

最近,Meta 开创性的大型语言模型 LLaMA 被泄露,人们对此表示担忧。 参议院隐私、技术和法律小组委员会主席参议员 Richard Blumenthal (D-CT) 和高级成员 Josh Hawley (R-MO) 写了一封信,对 AI 模型的泄露提出了质疑。 

参议员们担心这种泄密可能会导致各种网络犯罪,例如垃圾邮件、欺诈、恶意软件、侵犯隐私、骚扰以及其他不法行为和伤害。 提出了许多问题,两位政治家对 Meta 的安全系统非常感兴趣。 他们询问在启动 LLaMA 之前遵循什么程序来评估风险。 他们表示,他们非常渴望了解现有的政策和做法,以防止该模型的可用性被滥用。

根据 Meta 对他们问题的回答,参议员们指责 Meta 审查不当,并且没有为该模型采取足够的安全措施。 Open AI 的 ChatGPT 基于道德和准则拒绝了一些请求。 例如,当 ChatGPT 被要求为某人的儿子写一封信,请求一些钱以摆脱困境时,它会拒绝该请求。 另一方面,LLaMA 将完成请求并生成信件。 它还将完成涉及自残、犯罪和反犹太主义的请求。

了解 LLaMA 的各种独特功能非常重要。 它不仅与众不同,而且是迄今为止最广泛的大型语言模型之一。 今天流行的几乎所有未经审查的 LLM 都是基于 LLaMA。 对于开源模型来说,它非常复杂和准确。 一些基于 LLaMA 的 LLM 的例子是斯坦福大学的羊驼、Vicuna 等。LLaMA 在使 LLM 成为今天的样子方面发挥了重要作用。 LLaMA 负责将低效用聊天机器人发展为微调模式。

LLaMA 于 XNUMX 月发布。 根据参议员的说法,Meta 允许研究人员下载模型,但没有采取集中化或限制访问等安全措施。 当完整的 LLaMA 模型出现在 BitTorrent 上时,争议就出现了。 这使得任何人和每个人都可以使用该模型。 这导致 AI 模型的质量下降,并引发了滥用问题。 

起初,参议员们甚至不确定是否有任何“泄密”。 但是,当互联网上充斥着由初创公司、集体和学术机构发起的人工智能开发时,问题就出现了。 信中提到,Meta 必须对 LLaMA 的潜在滥用负责,并且必须在发布前采取最低限度的保护措施。

Meta 为研究人员提供了 LLaMA 的权重。 不幸的是,这些权重被泄露,这首次实现了全球访问。

Ritika Sharma 的最新帖子 (查看全部)

来源:https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/