LlamaDeploy(原名 llama-agents)是一个异步优先的框架,用于部署、扩展和生产化基于 llama_index 工作流 的智能体多服务系统。使用 LlamaDeploy,你可以构建任意数量的 llama_index 工作流,然后将它们作为服务运行,通过 HTTP API 供用户界面或系统内的其他服务访问。
LlamaDeploy 的目标是让你能够轻松地将笔记本中构建的内容过渡到云端运行,且对原始代码的改动最小,甚至为零。为了使这一过渡过程更加顺畅,你可以通过两种方式与 LlamaDeploy 交互:
llamactl CLI。SDK 和 CLI 都是 LlamaDeploy Python 包的一部分。安装只需运行:
pip install -U llama-deploy
[!TIP]
要了解 LlamaDeploy 的架构及其组件的详细说明,请访问我们的官方文档。
llama_index 工作流。[!NOTE]
该项目最初以llama-agents的名称发布,但llama_index中引入的 工作流 被证明是我们用户开发智能体应用最直观的方式。因此,我们决定将新的智能体特性直接添加到llama_index中,并专注于让 LlamaDeploy 填补本地开发与远程将智能体作为服务执行之间的空白。
llamactl 快速开始使用交互式 CLI 向导,几分钟内即可启动并运行一个部署:
# 1. 安装包和 CLI
pip install -U llama-deploy
# 2. 搭建一个新项目(交互式)
llamactl init
# 或非交互式
llamactl init --name project-name --template basic
# 3. 进入项目目录
cd project-name
# 4. 启动控制平面 API 服务器(新终端)
python -m llama_deploy.apiserver
# 5. 部署生成的工作流(另一个终端)
llamactl deploy deployment.yml
# 6. 调用它!
llamactl run --deployment hello-deploy --arg message "Hello world!"