:bulb: 获取帮助 - ❓常见问题 💭讨论区 :speech_balloon: Discord :book: 文档网站
LocalAI 是一个免费、开源的 OpenAI 替代方案。它作为一个即插即用的 REST API,兼容 OpenAI(Elevenlabs、Anthropic...)的 API 规范,用于本地 AI 推理。它允许你在本地或私有环境中使用消费级硬件运行 LLM、生成图像、音频(以及更多功能),支持多种模型系列。无需 GPU。由 Ettore Di Giacinto 创建和维护。
喜欢 LocalAI?LocalAI 是集成 AI 基础设施工具套件的一部分,你可能也会喜欢:
| 对话界面 | 生成音频 |
|---|---|
![]() |
![]() |
| 模型概览 | 生成图像 |
|---|---|
![]() |
![]() |
| 聊天界面 | 主页 |
|---|---|
![]() |
![]() |
| 登录 | 集群 |
|---|---|
![]() |
![]() |
注意:DMG 文件未经过苹果签名,会被隔离。解决方法请参阅 https://github.com/mudler/LocalAI/issues/6268,修复进度跟踪:https://github.com/mudler/LocalAI/issues/6244
💡 Docker Run 与 Docker Start 的区别
docker run创建并启动一个新容器。如果已存在同名容器,此命令将失败。docker start启动一个之前通过docker run创建的现有容器。如果你之前已经运行过 LocalAI 并想再次启动它,请使用:
docker start -i local-ai
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest
# CUDA 13.0
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-13
# CUDA 12.0
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12
# NVIDIA Jetson (L4T) ARM64
# CUDA 12(适用于 Nvidia AGX Orin 及类似平台)
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-nvidia-l4t-arm64
# CUDA 13(适用于 Nvidia DGX Spark)
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-nvidia-l4t-arm64-cuda-13
docker run -ti --name local-ai -p 8080:8080 --device=/dev/kfd --device=/dev/dri --group-add=video localai/localai:latest-gpu-hipblas
docker run -ti --name local-ai -p 8080:8080 --device=/dev/dri/card1 --device=/dev/dri/renderD128 localai/localai:latest-gpu-intel
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-gpu-vulkan
# CPU 版本
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-aio-cpu
# NVIDIA CUDA 13 版本
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-aio-gpu-nvidia-cuda-13
# NVIDIA CUDA 12 版本
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-aio-gpu-nvidia-cuda-12
# Intel GPU 版本
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-aio-gpu-intel
# AMD GPU 版本
docker run -ti --name local-ai -p 8080:8080 --device=/dev/kfd --device=/dev/dri --group-add=video localai/localai:latest-aio-gpu-hipblas
有关 AIO 镜像和预下载模型的更多信息,请参阅容器文档。
加载模型:
# 从模型库加载(使用 `local-ai models list` 查看可用模型,或在 WebUI 的模型选项卡中查看,或访问 https://models.localai.io)
local-ai run llama-3.2-1b-instruct:q4_k_m
# 直接从 huggingface 启动 LocalAI 并加载 phi-2 模型
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# 从 Ollama OCI 注册表安装并运行模型
local-ai run ollama://gemma:2b
# 从配置文件运行模型
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
# 从标准 OCI 注册表(例如 Docker Hub)安装并运行模型
local-ai run oci://localai/phi-2:latest
⚡ 自动后端检测:当你从模型库或 YAML 文件安装模型时,LocalAI 会自动检测你系统的 GPU 能力(NVIDIA、AMD、Intel)并下载合适的后端。有关高级配置选项,请参阅 GPU 加速。
更多信息,请参阅 💻 快速开始。如果你对我们的路线图项目和未来增强功能感兴趣,可以查看标记为 Roadmap 的议题。
development 后缀):https://github.com/mudler/LocalAI/pull/6049 https://github.com/mudler/LocalAI/pull/6119 https://github.com/mudler/LocalAI/pull/6121 https://github.com/mudler/LocalAI/pull/6060