作者: Mert Yuksekgonul, Federico Bianchi, Joseph Boen, Sheng Liu, Zhi Huang, Carlos Guestrin, James Zou
提交日期: 2024年6月11日
主题分类: Computation and Language (cs.CL); Artificial Intelligence (cs.AI); Machine Learning (cs.LG)
摘要:
人工智能正在经历一场范式转变,其突破由协调多个大语言模型(LLMs)和其他复杂组件的系统实现。因此,为复合AI系统开发原则性的自动化优化方法成为最重要的新挑战之一。神经网络在其早期也面临过类似挑战,直到反向传播和自动微分通过使优化变得简单而彻底改变了该领域。受此启发,我们引入了TextGrad,这是一个通过文本执行自动“微分”的强大框架。TextGrad将LLMs提供的文本反馈反向传播,以改进复合AI系统中的各个组件。在我们的框架中,LLMs提供丰富、通用、自然语言的建议,以优化计算图中的变量,范围从代码片段到分子结构。TextGrad遵循PyTorch的语法和抽象,灵活且易于使用。它能够开箱即用地处理各种任务,用户只需提供目标函数,而无需调整框架的组件或提示。我们展示了TextGrad在多样化应用中的有效性和通用性,从问答、分子优化到放射治疗计划。在不修改框架的情况下,TextGrad将GPT-4o在Google-Proof问答中的零样本准确率从51%提高到55%,在优化LeetCode-Hard编码问题解决方案中实现了20%的相对性能提升,改进了推理提示,设计了具有理想计算机模拟结合特性的类药小分子,并设计了具有高特异性的放射肿瘤学治疗计划。TextGrad为加速下一代AI系统的发展奠定了基础。