作者: Ziyang Luo, Can Xu, Pu Zhao, Qingfeng Sun, Xiubo Geng, Wenxiang Hu, Chongyang Tao, Jing Ma, Qingwei Lin, Daxin Jiang
提交日期: 2023年6月14日 (v1)
主题分类: Computation and Language (cs.CL); Artificial Intelligence (cs.AI)
摘要:
代码大语言模型(Code LLMs),例如 StarCoder,已在代码相关任务中展现出卓越性能。然而,大多数现有模型仅在大规模原始代码数据上进行预训练,而未进行指令微调。本文介绍了 WizardCoder,它通过将 Evol-Instruct 方法应用于代码领域,为代码大语言模型赋予了复杂的指令微调能力。通过在四个重要的代码生成基准测试(即 HumanEval、HumanEval+、MBPP 和 DS-1000)上进行全面实验,我们揭示了该模型的卓越能力。它以显著优势超越了所有其他开源代码大语言模型。此外,我们的模型在 HumanEval 和 HumanEval+ 基准上甚至超越了最大的闭源大语言模型,如 Anthropic 的 Claude 和 Google 的 Bard。我们的代码、模型权重和数据已在 https://github.com/nlpxucan/WizardLM 公开。
关键词/评论: 大语言模型,代码生成,代码大语言模型