微软增强人工智能聊天机器人安全性以阻止骗子

微软公司在 Azure AI Studio 中添加了许多安全功能,随着时间的推移,这些功能应该会继续降低用户将 AI 模型配置为异常或不当行为模式的可能性。这家总部位于雷德蒙德的跨国科技公司,华盛顿在一篇博客文章中概述了这些改进,强调保证人工智能交互的完整性并培养对用户群的信任。

快速护盾等等 

主要进展之一是“即时防护罩”的创建,该技术旨在在与人工智能聊天机器人对话时发现并杀死即时注射。这些就是所谓的越狱,基本上是用户有意形成的输入,从而引起人工智能模型的不需要的响应。

例如,微软通过即时注入间接发挥作用,在这种情况下,可能会执行邪恶的命令,这样的场景可能会导致数据盗窃、系统劫持等严重的安全后果。微软 Responsible AI 首席产品官 Sarah Bird 表示,这些机制是实时检测和响应这些独一无二的威胁的关键。

微软补充说,用户的屏幕上很快就会出现警报,当模型可能表达虚假或误导性信息时会指出,以确保更多的用户友好性和信任度。

建立对人工智能工具的信任 

微软的努力是一项更大计划的一部分,旨在让人们对日益流行的生成式人工智能充满信心,这种人工智能正在广泛应用于针对个人消费者和企业客户的服务中。在发生这些事件后,微软进行了仔细的梳理,用户可以利用 Copilot 聊天机器人产生奇怪或有害的输出。这将支持一个结果,该结果表明需要对上述操纵策略进行强有力的防御,这些策略可能会随着人工智能技术和流行知识的发展而增加。预测然后缓解是为了识别攻击模式,例如攻击者在角色扮演中重复提问或提示。

作为 OpenAI 最大的投资者和战略合作伙伴,微软正在突破如何整合和创建负责任、安全的生成式 AI 技术的界限。两者都致力于安全措施的生成式人工智能的负责任部署和基础模型。但伯德承认,尽管这些大型语言模型逐渐被视为未来人工智能创新的基础,但它们并不是防篡改的。

建立在这些基础上需要的不仅仅是依赖模型本身;还需要更多的努力。它需要一种全面的人工智能安全方法。

微软最近宣布加强其 Azure AI Studio 的安全措施,以展示并保证为保护不断变化的人工智能威胁格局而采取的积极措施。

它致力于通过及时的屏幕和警报来避免人工智能的滥用,并保持人工智能交互的完整性和可靠性。

随着人工智能技术的不断发展及其在日常生活的许多方面的应用,微软和人工智能社区的其他成员现在应该保持高度警惕的安全立场。

来源:https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/