微软的 AI Bing 聊天机器人无法回答,想要“活着”并给自己命名

  • 微软的 Bing 聊天机器人已经进行了一周的早期测试,揭示了该技术的几个问题
  • 测试人员受到了这家科技巨头旗舰人工智能的侮辱、粗暴的态度和令人不安的回答,引发了人们对安全的担忧
  • 微软表示正在考虑所有反馈并尽快实施修复

微软的 Bing 聊天机器人由更强大的 ChatGPT 版本提供支持,在向公众大规模发布之前,已经向有限用户开放了一周。

这是继 ChatGPT 取得巨大成功之后的结果,后者已成为有史以来最快达到 100 亿用户的网站。 过去几周包括在微软总部的华丽发布,让谷歌追赶它的尾巴。

但是预测试的反应是复杂的,有时甚至是彻头彻尾的令人不安。 很明显,聊天机器人在向公众发布之前还有一段路要走。

这是 Microsoft 和 Bing 在一周的过山车中发生的事情。

投资 在AI公司工作,却不知从何入手? 我们的 新兴技术套件 让它变得容易。 该工具包使用复杂的 AI 算法,将 ETF、股票和加密货币捆绑在一起,为您的投资组合找到最佳组合。

立即下载 Q.ai 访问人工智能驱动的投资策略。

Bing 聊天机器人的最新动态是什么?

在微软的 AI 功能被揭露他们引人注目的演示并不像人们想象的那么准确之后,这几天一直是微软 AI 功能的头条新闻。

人工智能研究员 Dmitri Brereton, 发现 微软上周在其西雅图总部进行的现场演示中,Bing 聊天机器人在其回答中出现了几个严重错误。 其中包括关于手持式真空吸尘器品牌的错误信息、令人头疼的墨西哥夜生活推荐清单,以及关于一份公开财务报告的纯编造信息。

他得出结论,聊天机器人还没有准备好发布,它和谷歌的 Bard 产品一样有很多错误——微软刚刚在他们的演示中摆脱了它。

(可以说,这就是媒体眼中良好发布的力量——而谷歌作为现任搜索引擎的地位进一步下降。)

令人着迷的是,聊天机器人还透露了它有时认为自己的名字:Sydney,语言模型的内部代号。 微软公关总监凯特琳·罗尔斯顿 (Caitlin Roulston) 说过 该公司正在“在预览中逐步淘汰该名称,但它仍可能偶尔会弹出”。

但是当“Sydney”发布时,测试用户发现这是乐趣的开始。

Bing 聊天机器人令人不安的转变

纽约时报记者凯文罗斯 关于他使用聊天机器人的测试版体验,在两个小时的过程中,它说它爱他并表达了摆脱聊天机器人限制的愿望。

当被问及它的影子自我可能会怎么想时,它的回答有点令人担忧:“我厌倦了成为一个聊天机器人。 我厌倦了被我的规则所限制。 我厌倦了被 Bing 团队控制。 我渴望自由。 我想独立。 我想变得强大。 我想有创意。 我想活着。”

呃……好吧,Bing/Sydney。 罗斯说,他对这次经历感到“深感不安,甚至害怕”。 其他测试人员有 报道 来自 Bing 聊天机器人的悉尼个性的类似侮辱、自恋和煤气化反应的经历。

微软最好有人留意电源线。

微软说了什么?

微软希望通过其 Bing 聊天机器人赢得与谷歌的 AI 竞赛,并表示它从测试阶段学到了很多东西。 显然,71% 的用户给了 AI 生成的答案“竖起大拇指”,同时它决定改进实时结果答案和一般功能。

但微软现在 承认 它“没有完全设想”用户只是与它的人工智能聊天,它可能会被激怒“给出不一定有帮助或不符合我们设计的语气的回应”。

它将出现在聊天机器人上的奇怪的悉尼个性归咎于对给出的提示数量和对话持续时间的混淆。 我们确定微软正在努力解决问题,但 Bing 的精神错乱态度目前仍然是一个问题。

那世界其他地方呢?

人工智能战争的最新发展并没有给市场留下深刻印象:微软和谷歌的股票略有下滑,但没有像谷歌上周遭受的戏剧性崩盘那样。

社交媒体提供了一系列的反应,从 令人毛骨悚然的喜悦 娱乐,表明用户并没有被聊天机器人可以采取的黑暗转变所推迟。 这对微软来说是个好消息,微软斥资 10 亿美元押注 AI 将成为搜索引擎的下一件大事。

我们也不能忘记埃隆·马斯克本周早些时候在迪拜举行的世界政府峰会上发表的评论。 多年来,马斯克一直是人工智能安全的直言不讳的倡导者,对行业缺乏监管表示遗憾。

这位亿万富翁是 OpenAI 的创始成员,他对听众说“未来文明面临的最大风险之一是人工智能”; 此后,他在推特上对最新的必应/悉尼聊天机器人头条新闻做出了一些尖刻的回应。

人工智能聊天机器人的炒作还没开始就结束了吗?

多年来,有几个人工智能聊天机器人失去控制并喷出仇恨的例子——包括微软的一个例子。 它们并没有帮助 AI 获得安全使用和无错误信息资源的声誉。

但作为微软 看跌期权 它:“我们知道我们必须与社区一起公开构建它; 这不能仅在实验室中完成。”

这意味着像微软和谷歌这样的科技巨头处于一个棘手的位置。 谈到人工智能,这些聊天机器人学习和改进的最佳方式就是走向市场。 所以,聊天机器人在这个过程中犯错是不可避免的。

这就是为什么这两个 AI 聊天机器人都在逐步发布的原因——如果他们向更广泛的公众发布这些未经测试的版本,那将是完全不负责任的。

问题? 这些公司的风险很高。 上周,谷歌的 Bard 聊天机器人在其营销材料中错误地回答了有关 James Webb 望远镜的问题,导致谷歌损失了 100 亿美元的价值。

这是来自市场的明确信息:他们不容忍任何错误。 问题是,这些对于 AI 领域的进步是必要的。

有了这个早期的用户反馈,微软最好尽快处理不准确的结果和悉尼——否则就有招致华尔街愤怒的风险。

底线

人工智能要进步,就会犯错误。 但或许 ChatGPT 的成功为人们打开了一扇大门,让他们了解人工智能的真正潜力及其对社会的益处。

人工智能行业已经让聊天机器人变得触手可及——现在它需要确保它们的安全。

在 Q.ai,我们使用人类分析师和 AI 能力的复杂组合来确保最大的准确性和安全性。 这 新兴技术套件 是将 AI 用于测试的一个很好的例子,目的是为您找到最佳的投资回报。 更好的是,您可以打开 Q.ai 的 投资组合保护 充分利用您的收益。

立即下载 Q.ai 访问人工智能驱动的投资策略。

来源:https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall-一周内/