OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  llama-agents — 基于 LlamaIndex 的多智能体协作框架

llama-agents — 基于 LlamaIndex 的多智能体协作框架

 
  evolvex ·  2026-03-29 11:00:21 · 5 次点击  · 0 条评论  

uv
PyPI - Version
Python Version from PEP 621 TOML
Static Badge

单元测试
端到端测试
覆盖率状态

🦙 LlamaDeploy 🤖

LlamaDeploy(原名 llama-agents)是一个异步优先的框架,用于部署、扩展和生产化基于 llama_index 工作流 的智能体多服务系统。使用 LlamaDeploy,你可以构建任意数量的 llama_index 工作流,然后将它们作为服务运行,通过 HTTP API 供用户界面或系统内的其他服务访问。

LlamaDeploy 的目标是让你能够轻松地将笔记本中构建的内容过渡到云端运行,且对原始代码的改动最小,甚至为零。为了使这一过渡过程更加顺畅,你可以通过两种方式与 LlamaDeploy 交互:

SDK 和 CLI 都是 LlamaDeploy Python 包的一部分。安装只需运行:

pip install -U llama-deploy

[!TIP]
要了解 LlamaDeploy 的架构及其组件的详细说明,请访问我们的官方文档

为什么选择 LlamaDeploy?

  1. 无缝部署:它弥合了开发与生产之间的鸿沟,让你能够以最小的代码改动部署 llama_index 工作流。
  2. 灵活性:通过采用中心辐射型架构,你可以轻松替换组件(如消息队列)或添加新服务,而不会破坏整个系统。
  3. 容错性:内置的重试机制和故障处理功能,为生产环境增加了鲁棒性。
  4. 异步优先:专为高并发场景设计,适用于实时和高吞吐量应用。

[!NOTE]
该项目最初以 llama-agents 的名称发布,但 llama_index 中引入的 工作流 被证明是我们用户开发智能体应用最直观的方式。因此,我们决定将新的智能体特性直接添加到 llama_index 中,并专注于让 LlamaDeploy 填补本地开发与远程将智能体作为服务执行之间的空白。

使用 llamactl 快速开始

使用交互式 CLI 向导,几分钟内即可启动并运行一个部署:

# 1. 安装包和 CLI
pip install -U llama-deploy

# 2. 搭建一个新项目(交互式)
llamactl init

#    或非交互式
llamactl init --name project-name --template basic

# 3. 进入项目目录
cd project-name

# 4. 启动控制平面 API 服务器(新终端)
python -m llama_deploy.apiserver

# 5. 部署生成的工作流(另一个终端)
llamactl deploy deployment.yml

# 6. 调用它!
llamactl run --deployment hello-deploy --arg message "Hello world!"

寻找更多模板或集成示例?查看 examples 目录获取端到端演示(消息队列、Web UI 等),或阅读完整的文档

5 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 34 ms
Developed with Cursor