作者:Qingyan Guo, Rui Wang, Junliang Guo, Bei Li, Kaitao Song, Xu Tan, Guoqing Liu, Jiang Bian, Yujiu Yang
提交/修订日期:2023年9月15日提交,2025年5月1日修订(v3)
会议:International Conference on Learning Representations (ICLR) 2024
主题分类:计算与语言 (cs.CL);人工智能 (cs.AI)
大语言模型(LLMs)在各种任务中表现出色,但它们依赖于精心设计的提示,这通常需要大量的人工努力。为了自动化这一过程,本文提出了一种新颖的离散提示优化框架,称为 EvoPrompt。该框架借鉴了进化算法(EAs)的思想,因为EAs具有良好的性能和快速收敛性。为了使EAs能够处理离散的提示(即需要连贯且人类可读的自然语言表达),我们将LLMs与EAs连接起来。这种方法使我们能够同时利用LLMs强大的语言处理能力和EAs高效的优化性能。具体而言,EvoPrompt不依赖任何梯度或参数,它从一个提示种群开始,基于进化算子迭代地使用LLMs生成新的提示,并根据开发集改进种群。我们在31个数据集上为闭源和开源LLM(包括GPT-3.5和Alpaca)优化提示,这些数据集涵盖了语言理解、生成任务以及BIG-Bench Hard(BBH)任务。EvoPrompt显著优于人工设计的提示和现有的自动提示生成方法(例如,在BBH上提升高达25%)。此外,EvoPrompt证明了连接LLMs与EAs能够产生协同效应,这可以启发关于LLMs与传统算法结合的进一步研究。