快速开始 • 演示视频 • 开发 • Twitter • Reddit
注意!我们目前没有计划创建任何相关的加密货币。请保持警惕,识别骗局,以免上当受骗。(更新于 2025年1月6日)
:fire: 2025年3月22日:Ailice 现在可以使用 MCP 工具了!点击此处了解详情。
:fire: 2025年1月23日:更新了语音对话功能。得益于 ChatTTS 的优秀实现,语音对话终于摆脱了实验状态,变得实用。
:fire: 2024年6月22日:我们已经进入了本地运行类 JARVIS AI 助手的时代!最新的开源大语言模型使我们能够在本地执行复杂任务!点击此处了解更多。
Ailice 是一个完全自主的通用人工智能代理。本项目旨在基于开源大语言模型创建一个独立的、类似 JARVIS 的人工智能助手。通过其独特的 IACT(交互式代理调用树)架构,Ailice 能够将复杂任务分解为动态构建的代理,并以高容错性整合结果。目前,Ailice 在一系列任务中表现出色,包括主题研究、编程、系统管理、文献综述,以及超越这些基本能力的复杂混合任务。
我们的最终目标是实现AI代理的自我进化。即,AI代理将自主构建其功能扩展和新类型的代理,无缝地将大语言模型的知识和推理能力释放到现实世界中。
即刻在 kragent.ai 体验 Ailice——这是一个基于 Ailice 构建的平台,无需本地设置即可探索其功能。非常适合测试和发现这个 AI 助手能做什么!
使用您自己的 API 密钥配置强大的商业大语言模型,释放其全部潜力(这将与免费的默认配置完全不同!)。为了获得最佳的性价比,可以考虑结合使用商业和开源大语言模型的混合设置。推荐模型:Claude 3.5/3.7, Gemini 2.5 Pro。
Ailice 的关键技术特性包括:
使用以下命令安装并运行 Ailice。Ailice 启动后,使用浏览器打开它提供的网页,会出现一个对话界面。通过对话向 Ailice 发出指令来完成各种任务。首次使用时,可以尝试 我们能做的酷炫事情 部分提供的命令来快速熟悉。
本地运行:
git clone https://github.com/myshell-ai/AIlice.git
cd AIlice
pip install -e .
ailice --contextWindowRatio=0.2
沙盒运行:
git clone https://github.com/myshell-ai/AIlice.git
cd AIlice
docker build -t ailice .
docker run -it -p 127.0.0.1:5000:5000 --name ailice ailice --expose=1 --contextWindowRatio=0.2
支持 CUDA 的沙盒运行(请先安装 nvidia-container-toolkit):
git clone https://github.com/myshell-ai/AIlice.git
cd AIlice
docker build --build-arg BASE_IMAGE=nvidia/cuda:13.0.0-cudnn-devel-ubuntu24.04 -t ailice .
docker run --gpus all -it -p 127.0.0.1:5000:5000 --name ailice ailice --expose=1 --contextWindowRatio=0.2
支持 GUI 的沙盒运行(仅限 Linux,Windows 和 macOS 需要特殊配置):
git clone https://github.com/myshell-ai/AIlice.git
cd AIlice
docker build -t ailice .
docker run -it -p 127.0.0.1:5000:5000 \
-e DISPLAY=$DISPLAY \
-v /tmp/.X11-unix:/tmp/.X11-unix \
--name ailice \
ailice --expose=1 --contextWindowRatio=0.2
任务: 通过完整的 AI 流水线处理费曼的物理讲座视频
步骤:
Feynman/ 子目录(先创建文件夹)Feynman/audio/这个多步骤任务需要与 AI 代理进行交互式沟通,必要时使用"中断"按钮来引导流程。
AI 代理可以自主构建外部交互模块(扩展模块),通过简单的提示提供无限的可扩展性。
如果用户不打算在本地运行大语言模型,那么运行 Ailice 几乎没有硬件要求。对于希望在本地运行大语言模型的用户,目前只有 70B 或更多参数的模型才能良好地执行任务,因此您至少需要两张 RTX 4090 GPU(48GB 显存)才能有效完成任务。
在安装 Ailice 之前,强烈建议先安装 Anaconda 并创建一个虚拟环境(您也可以使用您喜欢的其他工具,如 venv)。您还需要 Chrome,因为 Ailice 需要它来浏览网页。对于希望在完全受控的容器/虚拟机中运行 Ailice 的用户,您将需要 Docker(或其他虚拟机,如 VirtualBox)。
如果您想在虚拟机中运行 Ailice,请确保 Hyper-V 已关闭(否则无法安装 llama.cpp)。在 VirtualBox 环境中,可以按照以下步骤禁用它:在 VirtualBox 的虚拟机设置中禁用 PAE/NX 和 VT-X/AMD-V(Hyper-V)。将半虚拟化接口设置为默认,禁用嵌套分页。
您可以使用以下命令安装 Ailice:
git clone https://github.com/myshell-ai/AIlice.git
cd AIlice
pip install -e .
安装后 Ailice 的运行速度可能较慢,因为长期记忆模块的嵌入模型计算可能在 CPU 上运行。在这种情况下,我们可以尝试运行以下命令来安装 GPU 加速:
ailice_turbo
对于需要使用 pdf 阅读/语音对话/huggingface 模型/模型微调功能的用户,可以使用以下命令之一(安装过多功能会增加依赖冲突的可能性,因此建议只安装必要的部分):
pip install -e .[pdf-reading]
pip install -e .[speech]
pip install -e .[huggingface]
pip install -e .[finetuning]
现在您可以运行 Ailice 了!使用 使用方式 中的命令。
默认情况下,Ailice 中的谷歌模块受到限制,重复使用可能导致错误,需要一些时间才能解决。这是 AI 时代一个尴尬的现实;传统搜索引擎只允许真实用户访问,而 AI 代理目前不属于“真实用户”的范畴。虽然我们有替代解决方案,但它们都需要配置 API 密钥,这对普通用户来说门槛较高。然而,对于需要频繁访问谷歌的用户,我假设您愿意忍受申请谷歌官方 API 密钥的麻烦(我们指的是 Custom Search JSON API,创建时需要您指定搜索整个互联网)来进行搜索任务。对于这些用户,请打开 config.json 并使用以下配置:
{
...
"services": {
...
"google": {
"cmd": "python3 -m ailice.modules.AGoogleAPI --addr=ipc:///tmp/AGoogle.ipc --api_key=YOUR_API_KEY --cse_id=YOUR_CSE_ID",
"addr": "ipc:///tmp/AGoogle.ipc"
},
...
}
}
并安装 google-api-python-client:
pip install google-api-python-client
然后只需重启 Ailice。
您可以直接复制以下典型用例中的命令来运行 Ailice。
```bash
ailice # 使用 config.json 中 agentModelConfig 字段下为不同代理单独配置的模型。
ailice_web --speechOn=1 --ttsDevice=cuda --sttDevice=cuda
ailice --modelID=anthropic:claude-sonnet-4-20250514 --contextWindowRatio=0.2
ailice --modelID=openrouter:z-ai/glm-4.5 --chatHistoryPath=./chat_history --contextWindowRatio=0.2
ailice --modelID=mistral:mistral-large-latest --prompt="researcher"
ailice --modelID=deepseek:deepseek-chat
ailice --modelID=hf:Open-Orca/Mistral-7B-OpenOrca --quantization=8bit --contextWindowRatio=0.6
ailice --modelID=groq:llama3-70b-8192
ailice --modelID=openrouter:google/gemini-2.5-pro
ailice --modelID