OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  AgentScope Studio 之外:AutoAgent — 任务自动规划与执行框架

AgentScope Studio 之外:AutoAgent — 任务自动规划与执行框架

 
  sunset ·  2026-04-10 11:00:24 · 2 次点击  · 0 条评论  

Logo

AutoAgent: 全自动 & 零代码
LLM 智能体框架

Credits 加入我们的 Slack 社区 加入我们的 Discord 社区
查看文档 论文 评估基准分数
HKUDS%2FAutoAgent | Trendshift

欢迎来到 AutoAgent!AutoAgent 是一个全自动化且高度自演进的框架,允许用户仅通过自然语言来创建和部署 LLM 智能体。

✨AutoAgent 核心特性

  • 💬 自然语言驱动的智能体构建

    通过纯自然语言对话自动构建和编排协作式智能体系统,无需手动编码或技术配置。

  • 🚀 零代码框架

    通过允许任何人(无论是否有编码经验)仅使用自然语言创建和定制自己的智能体、工具和工作流,实现 AI 开发的民主化。

  • 自管理的工作流生成

    基于高级任务描述动态创建、优化和调整智能体工作流,即使用户无法完全指定实现细节。

  • 🔧 智能资源编排

    通过迭代式自我改进,支持可控的代码生成,用于创建工具、智能体和工作流,支持单智能体创建和多智能体工作流生成。

  • 🎯 自博弈智能体定制

    通过迭代式自我改进,支持可控的代码生成,用于创建工具、智能体和工作流,支持单智能体创建和多智能体工作流生成。

🚀 解锁 LLM 智能体的未来。立即尝试 🔥AutoAgent🔥!

Logo
AutoAgent 快速概览。

🔥 最新动态

  • [2025年2月17日]:  🎉🎉我们已更新并发布 AutoAgent v0.2.0(原名为 MetaChain)。详细变更包括:1) 修复了来自 issues 的不同 LLM 提供商的 bug;2) 根据 issues 添加了在容器环境中自动安装 AutoAgent 的功能;3) 为 CLI 模式添加了更多易于使用的命令。4) 将项目重命名为 AutoAgent 以便于理解。
  • [2025年2月10日]:  🎉🎉我们发布了 MetaChain!,包含框架、评估代码和 CLI 模式!查看我们的论文了解更多细节。

📑 目录

🔍 如何使用 AutoAgent

1. 用户模式(深度研究智能体)

AutoAgent 配备了一个开箱即用的多智能体系统,可通过起始页面的用户模式访问。该系统是一个全面的 AI 研究助手,专为信息检索、复杂分析任务和综合报告生成而设计。

  • 🚀 高性能:匹配使用 Claude 3.5 而非 OpenAI o3 模型的 Deep Research。
  • 🔄 模型灵活性:兼容任何 LLM(包括 Deepseek-R1、Grok、Gemini 等)。
  • 💰 成本效益:Deep Research 每月 200 美元订阅费的开源替代方案。
  • 🎯 用户友好:易于部署的 CLI 界面,实现无缝交互。
  • 📁 文件支持:支持文件上传以增强数据交互。

🎥 深度研究(即用户模式)

2. 智能体编辑器(无工作流的智能体创建)

AutoAgent 最独特的功能是其自然语言定制能力。与其他智能体框架不同,AutoAgent 允许您仅使用自然语言创建工具、智能体和工作流。只需选择 智能体编辑器工作流编辑器 模式,即可开始通过对话构建智能体的旅程。

您可以如下所示使用 智能体编辑器

requirement
输入您想要创建的智能体类型。
profiling
自动化的智能体画像生成。
profiles
输出智能体画像。
tools
创建所需的工具。
task
输入您希望该智能体完成的任务。(可选)
output
创建所需的智能体并进入下一步。

3. 工作流编辑器(带工作流的智能体创建)

您也可以使用 工作流编辑器 模式,通过自然语言描述来创建智能体工作流,如下图所示。(提示:此模式暂时不支持工具创建。)

requirement
输入您想要创建的工作流类型。
profiling
自动化的工作流画像生成。
profiles
输出工作流画像。
task
输入您希望该工作流完成的任务。(可选)
output
创建所需的工作流并进入下一步。

⚡ 快速开始

安装

AutoAgent 安装

git clone https://github.com/HKUDS/AutoAgent.git
cd AutoAgent
pip install -e .

Docker 安装

我们使用 Docker 来容器化智能体交互环境。因此请先安装 Docker。您无需手动拉取预构建的镜像,因为我们已让 Auto-Deep-Research 根据您机器的架构自动拉取预构建镜像

API 密钥设置

创建一个环境变量文件,类似于 .env.template,并设置您想要使用的 LLM 的 API 密钥。并非每个 LLM API 密钥都是必需的,按需使用即可。

# 必需的您自己的 Github 令牌
GITHUB_AI_TOKEN=

# 可选的 API 密钥
OPENAI_API_KEY=
DEEPSEEK_API_KEY=
ANTHROPIC_API_KEY=
GEMINI_API_KEY=
HUGGINGFACE_API_KEY=
GROQ_API_KEY=
XAI_API_KEY=

通过 CLI 模式启动

[🚨 新闻:] 我们已更新了更易用的命令来启动 CLI 模式,并修复了来自 issues 的不同 LLM 提供商的 bug。您可以按照以下步骤,以更少的配置使用不同的 LLM 提供商启动 CLI 模式。

命令选项:

您可以运行 auto main 来启动 AutoAgent 的完整部分,包括 用户模式智能体编辑器工作流编辑器。另外,您也可以运行 auto deep-research 来启动更轻量级的 用户模式,就像 Auto-Deep-Research 项目一样。此命令的一些配置如下所示。

  • --container_name:Docker 容器的名称(默认:'deepresearch')
  • --port:容器的端口(默认:12346)
  • COMPLETION_MODEL:指定要使用的 LLM 模型,您应按照 Litellm 的名称来设置模型名称。(默认:claude-3-5-sonnet-20241022
  • DEBUG:启用调试模式以获取详细日志(默认:False)
  • API_BASE_URL:LLM 提供商的基础 URL(默认:None)
  • FN_CALL:启用函数调用(默认:None)。大多数情况下,您可以忽略此选项,因为我们已经根据模型名称设置了默认值。
  • git_clone:将 AutoAgent 仓库克隆到本地环境(仅支持 auto main 命令,默认:True)
  • test_pull_name:测试拉取分支的名称。(仅支持 auto main 命令,默认:'autoagent_mirror')

关于 git_clonetest_pull_name 的更多细节

智能体编辑器工作流编辑器 模式下,我们需要将 AutoAgent 仓库的一个镜像克隆到本地智能体交互环境,并让我们的 AutoAgent 自动更新 AutoAgent 本身,例如创建新的工具、智能体和工作流。因此,如果您想使用 智能体编辑器工作流编辑器 模式,应将 git_clone 设置为 True,并将 test_pull_name 设置为 'autoagent_mirror' 或其他分支。

使用不同 LLM 提供商的 auto main

接下来,我将向您展示如何使用 auto main 命令和不同的 LLM 提供商来使用 AutoAgent 的完整部分。如果您想使用 auto deep-research 命令,可以参考 Auto-Deep-Research 项目了解更多细节。

Anthropic
  • .env 文件中设置 ANTHROPIC_API_KEY
ANTHROPIC_API_KEY=your_anthropic_api_key
  • 运行以下命令启动 Auto-Deep-Research。
auto main # 默认模型是 claude-3-5-sonnet-20241022
OpenAI
  • .env 文件中设置 OPENAI_API_KEY
OPENAI_API_KEY=your_openai_api_key
  • 运行以下命令启动 Auto-Deep-Research。
COMPLETION_MODEL=gpt-4o auto main
Mistral
  • .env 文件中设置 MISTRAL_API_KEY
MISTRAL_API_KEY=your_mistral_api_key
  • 运行以下命令启动 Auto-Deep-Research。
COMPLETION_MODEL=mistral/mistral-large-2407 auto main
Gemini - Google AI Studio
  • .env 文件中设置 GEMINI_API_KEY
GEMINI_API_KEY=your_gemini_api_key
  • 运行以下命令启动 Auto-Deep-Research。
COMPLETION_MODEL=gemini/gemini-2.0-flash auto main
Huggingface
  • .env 文件中设置 HUGGINGFACE_API_KEY
HUGGINGFACE_API_KEY=your_huggingface_api_key
  • 运行以下命令启动 Auto-Deep-Research。
COMPLETION_MODEL=huggingface/meta-llama/Llama-3.3-70B-Instruct auto main
Groq
  • .env 文件中设置 GROQ_API_KEY
GROQ_API_KEY=your_groq_api_key
  • 运行以下命令启动 Auto-Deep-Research。
COMPLETION_MODEL=groq/deepseek-r1-distill-llama-70b auto main
OpenAI 兼容端点(例如,Grok)
  • .env 文件中设置 OPENAI_API_KEY
OPENAI_API_KEY=your_api_key_for_openai_compatible_endpoints
  • 运行以下命令启动 Auto-Deep-Research
2 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 53 ms
Developed with Cursor