以下是 OpenAI 计划如何从虚假信息中清除 ChatGPT

OpenAI 于 31 月 XNUMX 日宣布,其努力增强 ChatGPT 的数学问题解决能力,旨在减少人工智能 (AI) 幻觉的实例。 OpenAI 强调减轻幻觉是开发一致 AGI 的关键一步。

4月,ChatGPT最新版本GPT-XNUMX的推出,进一步推动人工智能成为主流。 然而,生成式 AI 聊天机器人长期以来一直在努力解决事实的准确性问题,偶尔会生成虚假信息,通常称为“幻觉”。 通过他们网站上的帖子宣布了减少这些 AI 幻觉的努力。

人工智能幻觉是指人工智能系统生成的输出实际上不正确、具有误导性或不受现实世界数据支持的情况。 这些幻觉可以以各种形式表现出来,例如生成虚假信息、编造不存在的事件或人物,或者提供有关某些主题的不准确细节。

OpenAI 进行了研究,以检验两种反馈的有效性——“结果监督”和“过程监督”。 结果监督涉及基于最终结果的反馈,而过程监督为思想链中的每个步骤提供输入。 OpenAI 使用数学问题评估这些模型,生成多个解决方案并根据每个反馈模型选择排名最高的解决方案。

经过全面分析,研究团队发现过程监督产生了卓越的性能,因为它鼓励模型遵守人类批准的过程。 相比之下,结果监督证明更难以持续审查。

OpenAI 认识到过程监督的影响超出了数学范围,需要进一步调查以了解其在不同领域的影响。 它表达了这样一种可能性,即如果观察到的结果在更广泛的背景下成立,那么与结果监督相比,过程监督可以提供绩效和一致性的有利组合。 为便于研究,公司公开发布了完整的过程监管数据集,诚邀相关领域的探索和研究。

相关新闻: 人工智能需求短暂地将英伟达推入 1 亿美元俱乐部

尽管 OpenAI 没有提供促使他们调查幻觉的明确实例,但最近发生的两起事件在现实生活场景中说明了这个问题。

在最近的一起事件中,Mata 诉 Avianca 航空公司案中的律师 Steven A. Schwartz 承认依赖聊天机器人作为研究资源。 然而,事实证明,ChatGPT 提供的信息完全是捏造的,突出了眼前的问题。

OpenAI 的 ChatGPT 并不是人工智能系统遇到幻觉的唯一例子。 微软的人工智能在 XNUMX 月份展示其聊天机器人技术时,检查了 Gap 和 Lululemon 等公司的收益报告并生成了不准确的数据。

杂志: 25 名交易员押注 ChatGPT 的选股、人工智能在掷骰子方面表现不佳等

资料来源:https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information