

OpenAI近日宣布采取一种新的AI模型训练方法,以解决“AI幻觉”问题。该问题指的是聊天机器人使用虚假信息进行回应,即AI的自信反应。OpenAI的研究人员表示,即使是最先进的模型也容易生成虚假信息,尤其在需要多步推理的领域,其中一个环节的逻辑错误就足以破坏整个解答过程。为了解决这个问题,OpenAI提出了一种名为“过程监督”的训练方法,该方法奖励模型在得出答案的过程中做出的每个正确推理步骤,而不仅仅关注最终结论的正确性。研究人员认为,过程监督方法能够鼓励模型更好地遵循人类的思维方法链,从而提高AI输出的可解释性。
OpenAI的研究人员还提到,他们已经发布了一套附带数据集,其中包含80万个人类标注,用于训练上述描述的模型。然而,一些专家对OpenAI的训练方法表示怀疑,认为实际效果还需要进一步检查完整的数据集和示例。他们认为,OpenAI的研究意义更多在于初步观察,而非实际应用。同时,针对AI的局限性,OpenAI需要更加明确地强调产品的局限性,并采取相应的干预措施。对于聊天机器人等AI产品,企业应该向公众明确其局限性,媒体也需要承担相应的报道责任。
AI幻觉问题引发了人们对AI输出的担忧。虽然AI技术在信息检索等任务中发挥着重要作用,但AI产品的局限性需要引起足够的重视。过去几个月中,一些案例显示AI的“胡说八道”可能导致一些严重后果,这需要引起人们的警惕。OpenAI在不断努力改进产品的同时,需要更
加明确地指出产品的局限性,确保用户了解AI的能力和限制。面对AI幻觉问题,OpenAI的新训练方法为解决这一问题提供了一步重要的探索,但实际应用的成果还需要进一步验证和评估。
欢迎免费使用GPT对话,感受ChatGPT的魅力!AI爱好者 – 最具实力的中文AI交流社区平台 (aiahz.com)
长按扫描二维码进群领资源
