作者: Jie Huang, Xinyun Chen, Swaroop Mishra, Huaixiu Steven Zheng, Adams Wei Yu, Xinying Song, Denny Zhou
提交/修订日期: 2023年10月3日提交,2024年3月14日修订
会议/评论: ICLR 2024
主题分类: 计算与语言 (cs.CL); 人工智能 (cs.AI)
大型语言模型(LLMs)已成为一项突破性技术,在各种应用中展现出无与伦比的文本生成能力。然而,人们对其生成内容的准确性和适当性仍存有疑虑。一种当代的方法论——自我纠正——被提议作为解决这些问题的补救措施。基于此前提,本文批判性地审视了自我纠正在大语言模型中的作用和有效性,揭示了其真正的潜力和局限性。我们研究的核心是内在自我纠正的概念,即大语言模型仅依靠其固有能力来尝试纠正其初始回答,而不依赖外部反馈。在推理的背景下,我们的研究表明,在没有外部反馈的情况下,大语言模型难以自我纠正其回答,有时甚至会在自我纠正后性能下降。基于这些见解,我们为该领域的未来研究和实际应用提出了建议。