欢迎来到 AutoAgent!AutoAgent 是一个全自动化且高度自演进的框架,允许用户仅通过自然语言来创建和部署 LLM 智能体。
💬 自然语言驱动的智能体构建
通过纯自然语言对话自动构建和编排协作式智能体系统,无需手动编码或技术配置。
🚀 零代码框架
通过允许任何人(无论是否有编码经验)仅使用自然语言创建和定制自己的智能体、工具和工作流,实现 AI 开发的民主化。
⚡ 自管理的工作流生成
基于高级任务描述动态创建、优化和调整智能体工作流,即使用户无法完全指定实现细节。
🔧 智能资源编排
通过迭代式自我改进,支持可控的代码生成,用于创建工具、智能体和工作流,支持单智能体创建和多智能体工作流生成。
🎯 自博弈智能体定制
通过迭代式自我改进,支持可控的代码生成,用于创建工具、智能体和工作流,支持单智能体创建和多智能体工作流生成。
🚀 解锁 LLM 智能体的未来。立即尝试 🔥AutoAgent🔥!
用户模式(深度研究智能体)智能体编辑器(无工作流的智能体创建)工作流编辑器(带工作流的智能体创建)
用户模式(深度研究智能体)AutoAgent 配备了一个开箱即用的多智能体系统,可通过起始页面的用户模式访问。该系统是一个全面的 AI 研究助手,专为信息检索、复杂分析任务和综合报告生成而设计。
🎥 深度研究(即用户模式)
智能体编辑器(无工作流的智能体创建)AutoAgent 最独特的功能是其自然语言定制能力。与其他智能体框架不同,AutoAgent 允许您仅使用自然语言创建工具、智能体和工作流。只需选择 智能体编辑器 或 工作流编辑器 模式,即可开始通过对话构建智能体的旅程。
您可以如下所示使用 智能体编辑器。
输入您想要创建的智能体类型。 |
自动化的智能体画像生成。 |
输出智能体画像。 |
创建所需的工具。 |
输入您希望该智能体完成的任务。(可选) |
创建所需的智能体并进入下一步。 |
工作流编辑器(带工作流的智能体创建)您也可以使用 工作流编辑器 模式,通过自然语言描述来创建智能体工作流,如下图所示。(提示:此模式暂时不支持工具创建。)
输入您想要创建的工作流类型。 |
自动化的工作流画像生成。 |
输出工作流画像。 |
输入您希望该工作流完成的任务。(可选) |
创建所需的工作流并进入下一步。 |
git clone https://github.com/HKUDS/AutoAgent.git
cd AutoAgent
pip install -e .
我们使用 Docker 来容器化智能体交互环境。因此请先安装 Docker。您无需手动拉取预构建的镜像,因为我们已让 Auto-Deep-Research 根据您机器的架构自动拉取预构建镜像。
创建一个环境变量文件,类似于 .env.template,并设置您想要使用的 LLM 的 API 密钥。并非每个 LLM API 密钥都是必需的,按需使用即可。
# 必需的您自己的 Github 令牌
GITHUB_AI_TOKEN=
# 可选的 API 密钥
OPENAI_API_KEY=
DEEPSEEK_API_KEY=
ANTHROPIC_API_KEY=
GEMINI_API_KEY=
HUGGINGFACE_API_KEY=
GROQ_API_KEY=
XAI_API_KEY=
[🚨 新闻:] 我们已更新了更易用的命令来启动 CLI 模式,并修复了来自 issues 的不同 LLM 提供商的 bug。您可以按照以下步骤,以更少的配置使用不同的 LLM 提供商启动 CLI 模式。
您可以运行 auto main 来启动 AutoAgent 的完整部分,包括 用户模式、智能体编辑器 和 工作流编辑器。另外,您也可以运行 auto deep-research 来启动更轻量级的 用户模式,就像 Auto-Deep-Research 项目一样。此命令的一些配置如下所示。
--container_name:Docker 容器的名称(默认:'deepresearch')--port:容器的端口(默认:12346)COMPLETION_MODEL:指定要使用的 LLM 模型,您应按照 Litellm 的名称来设置模型名称。(默认:claude-3-5-sonnet-20241022)DEBUG:启用调试模式以获取详细日志(默认:False)API_BASE_URL:LLM 提供商的基础 URL(默认:None)FN_CALL:启用函数调用(默认:None)。大多数情况下,您可以忽略此选项,因为我们已经根据模型名称设置了默认值。git_clone:将 AutoAgent 仓库克隆到本地环境(仅支持 auto main 命令,默认:True)test_pull_name:测试拉取分支的名称。(仅支持 auto main 命令,默认:'autoagent_mirror')git_clone 和 test_pull_name 的更多细节在 智能体编辑器 和 工作流编辑器 模式下,我们需要将 AutoAgent 仓库的一个镜像克隆到本地智能体交互环境,并让我们的 AutoAgent 自动更新 AutoAgent 本身,例如创建新的工具、智能体和工作流。因此,如果您想使用 智能体编辑器 和 工作流编辑器 模式,应将 git_clone 设置为 True,并将 test_pull_name 设置为 'autoagent_mirror' 或其他分支。
auto main接下来,我将向您展示如何使用 auto main 命令和不同的 LLM 提供商来使用 AutoAgent 的完整部分。如果您想使用 auto deep-research 命令,可以参考 Auto-Deep-Research 项目了解更多细节。
.env 文件中设置 ANTHROPIC_API_KEY。ANTHROPIC_API_KEY=your_anthropic_api_key
auto main # 默认模型是 claude-3-5-sonnet-20241022
.env 文件中设置 OPENAI_API_KEY。OPENAI_API_KEY=your_openai_api_key
COMPLETION_MODEL=gpt-4o auto main
.env 文件中设置 MISTRAL_API_KEY。MISTRAL_API_KEY=your_mistral_api_key
COMPLETION_MODEL=mistral/mistral-large-2407 auto main
.env 文件中设置 GEMINI_API_KEY。GEMINI_API_KEY=your_gemini_api_key
COMPLETION_MODEL=gemini/gemini-2.0-flash auto main
.env 文件中设置 HUGGINGFACE_API_KEY。HUGGINGFACE_API_KEY=your_huggingface_api_key
COMPLETION_MODEL=huggingface/meta-llama/Llama-3.3-70B-Instruct auto main
.env 文件中设置 GROQ_API_KEY。GROQ_API_KEY=your_groq_api_key
COMPLETION_MODEL=groq/deepseek-r1-distill-llama-70b auto main
.env 文件中设置 OPENAI_API_KEY。OPENAI_API_KEY=your_api_key_for_openai_compatible_endpoints