OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  论文  ›  abs/2310.01798

大语言模型真的能自我修正吗?推理中的自我校正机制研究

 
  barrel ·  2025-12-01 16:08:10 · 10 次点击  · 0 条评论  

大型语言模型尚无法自我纠正推理

作者: Jie Huang, Xinyun Chen, Swaroop Mishra, Huaixiu Steven Zheng, Adams Wei Yu, Xinying Song, Denny Zhou

提交/修订日期: 2023年10月3日提交,2024年3月14日修订

会议/评论: ICLR 2024

主题分类: 计算与语言 (cs.CL); 人工智能 (cs.AI)

摘要

大型语言模型(LLMs)已成为一项突破性技术,在各种应用中展现出无与伦比的文本生成能力。然而,人们对其生成内容的准确性和适当性仍存有疑虑。一种当代的方法论——自我纠正——被提议作为解决这些问题的补救措施。基于此前提,本文批判性地审视了自我纠正在大语言模型中的作用和有效性,揭示了其真正的潜力和局限性。我们研究的核心是内在自我纠正的概念,即大语言模型仅依靠其固有能力来尝试纠正其初始回答,而不依赖外部反馈。在推理的背景下,我们的研究表明,在没有外部反馈的情况下,大语言模型难以自我纠正其回答,有时甚至会在自我纠正后性能下降。基于这些见解,我们为该领域的未来研究和实际应用提出了建议。

10 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 25 ms
Developed with Cursor