LocalAI 是一个开源 AI 引擎。您可以在任何硬件上运行任何模型(包括大语言模型、视觉、语音、图像、视频等),且无需 GPU。
由 Ettore Di Giacinto 创建和维护。
:book: 文档 | :speech_balloon: Discord | 💻 快速入门 | 🖼️ 模型 | ❓常见问题
https://github.com/user-attachments/assets/08cbb692-57da-48f7-963d-2e7b43883c18
注意: 该 DMG 文件未经 Apple 签名。安装后,请运行:
sudo xattr -d com.apple.quarantine /Applications/LocalAI.app。详情请参见 #6268。
之前运行过 LocalAI?使用
docker start -i local-ai重新启动现有容器。
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest
# CUDA 13
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-13
# CUDA 12
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12
# NVIDIA Jetson ARM64 (CUDA 12, 适用于 AGX Orin 及类似设备)
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-nvidia-l4t-arm64
# NVIDIA Jetson ARM64 (CUDA 13, 适用于 DGX Spark)
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-nvidia-l4t-arm64-cuda-13
docker run -ti --name local-ai -p 8080:8080 --device=/dev/kfd --device=/dev/dri --group-add=video localai/localai:latest-gpu-hipblas
docker run -ti --name local-ai -p 8080:8080 --device=/dev/dri/card1 --device=/dev/dri/renderD128 localai/localai:latest-gpu-intel
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-gpu-vulkan
# 从模型库加载 (使用 `local-ai models list` 查看可用模型,或访问 https://models.localai.io)
local-ai run llama-3.2-1b-instruct:q4_k_m
# 从 Huggingface 加载
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# 从 Ollama OCI 仓库加载
local-ai run ollama://gemma:2b
# 从 YAML 配置加载
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
# 从标准 OCI 仓库 (例如 Docker Hub)
local-ai run oci://localai/phi-2:latest
自动后端检测:LocalAI 会自动检测您的 GPU 能力并下载相应的后端。有关高级选项,请参见 GPU 加速。
更多详情,请参阅 快速入门指南。
有关更早的动态和完整发布说明,请参见 GitHub Releases 和 新闻页面。
llama.cpp、transformers、vllm ... 等更多)LocalAI 支持 36 个以上后端,包括 llama.cpp、vLLM、transformers、whisper.cpp、diffusers、MLX、MLX-VLM 等。硬件加速支持 NVIDIA (CUDA 12/13)、AMD (ROCm)、Intel (oneAPI/SYCL)、Apple Silicon (Metal)、Vulkan 和 NVIDIA Jetson (L4T)。所有后端均可从 后端库 即时安装。
LocalAI 由一个由 AI Scrum Master 领导的自主 AI 代理团队协助维护。
如果您在后续项目中使用此仓库或数据,请考虑引用:
@misc{localai,
author = {Ettore Di Giacinto},
title = {LocalAI: The free, Open source OpenAI alternative},
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/go-skynet/LocalAI}},
觉得 LocalAI 有用吗?
通过成为 赞助者或支持者 来支持该项目。您的 Logo 将显示在此处,并附上指向您网站的链接。
衷心感谢我们慷慨的赞助商支持本项目,覆盖 CI 费用,以及我们的 赞助商列表:
特别感谢个人赞助商,完整列表可在 GitHub 和 buymeacoffee 上查看。特别感谢 drikster80 的慷慨解囊。感谢大家!
LocalAI 是一个由 Ettore Di Giacinto 创建的社区驱动项目。
MIT - 作者 Ettore Di Giacinto mudler@localai.io
LocalAI 的诞生离不开社区已有的优秀软件。谢谢!