OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  bolt.diy — 一键搭建 AI Web 应用的开源全栈方案

bolt.diy — 一键搭建 AI Web 应用的开源全栈方案

 
  sql ·  2026-04-02 11:00:24 · 4 次点击  · 0 条评论  

bolt.diy

bolt.diy: 浏览器中 AI 驱动的全栈 Web 开发

欢迎来到 bolt.diy,这是 Bolt.new 的官方开源版本,它允许你为每个提示选择使用的 LLM!目前,你可以使用 OpenAI、Anthropic、Ollama、OpenRouter、Gemini、LMStudio、Mistral、xAI、HuggingFace、DeepSeek、Groq、Cohere、Together、Perplexity、Moonshot (Kimi)、Hyperbolic、GitHub Models、Amazon Bedrock 以及 OpenAI 兼容的提供商 —— 并且可以轻松扩展以使用 Vercel AI SDK 支持的任何其他模型!请参阅下面的说明以在本地运行并扩展以包含更多模型。


查看 bolt.diy 文档 获取更多官方安装说明和额外信息。


此外,我们社区的这篇置顶帖子 包含大量关于自行运行和部署 bolt.diy 的宝贵资源!

我们还推出了一个名为 "bolt.diy 专家" 的实验性智能体,可以回答关于 bolt.diy 的常见问题。请在 oTTomator Live Agent Studio 上找到它。

bolt.diy 最初由 Cole Medin 发起,但已迅速发展成为一个庞大的社区项目,旨在构建最佳的开源 AI 编码助手!

目录

加入社区

在此加入 bolt.diy 社区,进入 oTTomator Think Tank!

项目管理

Bolt.diy 是一个社区协作项目!尽管如此,核心贡献者团队旨在以某种方式组织项目,以便您了解当前的重点领域。

如果您想知道我们正在做什么、计划做什么,或者想为项目做贡献,请查看项目管理指南以轻松入门。

近期主要新增功能

✅ 已完成功能

  • 19+ AI 提供商集成 - OpenAI、Anthropic、Google、Groq、xAI、DeepSeek、Mistral、Cohere、Together、Perplexity、HuggingFace、Ollama、LM Studio、OpenRouter、Moonshot、Hyperbolic、GitHub Models、Amazon Bedrock、OpenAI 兼容提供商
  • Electron 桌面应用 - 具有完整功能的原生桌面体验
  • 高级部署选项 - Netlify、Vercel 和 GitHub Pages 部署
  • Supabase 集成 - 数据库管理和查询功能
  • 数据可视化与分析 - 图表、图形和数据分析工具
  • MCP(模型上下文协议) - 增强的 AI 工具集成
  • 搜索功能 - 代码库搜索和导航
  • 文件锁定系统 - 防止 AI 代码生成期间的冲突
  • 差异视图 - AI 所做更改的可视化表示
  • Git 集成 - 克隆、导入和部署功能
  • Expo 应用创建 - React Native 开发支持
  • 语音提示 - 音频输入提示
  • 批量聊天操作 - 一次删除多个聊天
  • 项目快照恢复 - 重新加载时从快照恢复项目

🔄 进行中 / 计划中

  • 文件锁定与差异改进 - 增强的冲突预防
  • 后端智能体架构 - 从单一模型调用转向基于智能体的系统
  • LLM 提示优化 - 为小型模型提供更好的性能
  • 项目规划文档 - LLM 生成的 Markdown 项目计划
  • VSCode 集成 - 类似 Git 的确认和工作流
  • 知识文档上传 - 参考资料和编码风格指南
  • 额外提供商集成 - Azure OpenAI、Vertex AI、Granite

功能特性

  • AI 驱动的全栈 Web 开发,适用于基于 NodeJS 的应用程序,直接在浏览器中进行。
  • 支持 19+ 种 LLM,采用可扩展架构以集成更多模型。
  • 向提示附加图像以获得更好的上下文理解。
  • 集成终端以查看 LLM 运行命令的输出。
  • 将代码恢复到早期版本以便于调试和快速更改。
  • 将项目下载为 ZIP以便轻松移植并同步到主机上的文件夹。
  • 集成就绪的 Docker 支持,实现无忧设置。
  • 直接部署NetlifyVercelGitHub Pages
  • Electron 桌面应用提供原生桌面体验。
  • 数据可视化和分析,包含集成图表和图形。
  • Git 集成,具有克隆、导入和部署功能。
  • MCP(模型上下文协议) 支持,增强 AI 工具集成。
  • 搜索功能,可在代码库中搜索。
  • 文件锁定系统,防止 AI 代码生成期间的冲突。
  • 差异视图,查看 AI 所做的更改。
  • Supabase 集成,用于数据库管理和查询。
  • Expo 应用创建,支持 React Native 开发。

设置

如果你是第一次从 GitHub 安装软件,别担心!如果遇到任何问题,请随时使用提供的链接提交“问题”,或者通过 Fork 仓库、编辑说明并提交拉取请求来改进此文档。以下说明将帮助你在本地机器上快速启动并运行稳定分支。

让我们开始使用 Bolt.DIY 的稳定版本吧!

快速安装

下载最新版本 ← 点击此处前往最新发布版本!

  • 下载适用于你平台的二进制文件(支持 Windows、macOS 和 Linux)
  • 注意:对于 macOS,如果遇到错误“此应用已损坏”,请运行:
    bash xattr -cr /path/to/Bolt.app

手动安装

选项 1:Node.js

运行应用程序需要 Node.js。

  1. 访问 Node.js 下载页面
  2. 为你的操作系统下载“LTS”(长期支持)版本
  3. 运行安装程序,接受默认设置
  4. 验证 Node.js 是否正确安装:
    - Windows 用户
    1. 按下 Windows + R
    2. 输入 "sysdm.cpl" 并按 Enter
    3. 转到“高级”选项卡 → “环境变量”
    4. 检查 Node.js 是否出现在“Path”变量中
      - Mac/Linux 用户
    5. 打开终端
    6. 输入此命令:
      bash echo $PATH
    7. 在输出中查找 /usr/local/bin

运行应用程序

你有两种运行 Bolt.DIY 的选项:直接在机器上运行或使用 Docker。

选项 1:直接安装(推荐给初学者)

  1. 安装包管理器 (pnpm)

bash npm install -g pnpm

  1. 安装项目依赖

bash pnpm install

  1. 启动应用程序

bash pnpm run dev

选项 2:使用 Docker

此选项需要 Docker,非常适合需要隔离环境或镜像生产镜像的情况。

额外先决条件

步骤

  1. 准备环境变量

复制提供的示例并添加你的提供商密钥:

bash cp .env.example .env cp .env.example .env.local

容器内的运行时脚本会加载 .env.env.local,因此请将你需要的任何 API 密钥保存在其中一个文件中。

  1. 构建镜像

```bash
# 开发镜像(运行时绑定挂载本地源代码)
pnpm run dockerbuild
# ≈ docker build -t bolt-ai:development -t bolt-ai:latest --target development .

# 生产镜像(自包含的构建产物)
pnpm run dockerbuild:prod
# ≈ docker build -t bolt-ai:production -t bolt-ai:latest --target bolt-ai-production .
```

  1. 运行容器

```bash
# 具有热重载的开发工作流
docker compose --profile development up

# 使用组合服务的生产风格容器
docker compose --profile production up

# 一次性生产容器(在端口 5173 上暴露应用)
docker run --rm -p 5173:5173 --env-file .env.local bolt-ai:latest
```

容器启动时,它会运行 pnpm run dockerstart,该命令接着执行 bindings.sh 以通过 Wrangler 传递 Cloudflare 绑定。如果你需要不同的启动例程,可以在 docker-compose.yaml 中覆盖此命令。

选项 3:桌面应用程序 (Electron)

对于喜欢原生桌面体验的用户,bolt.diy 也作为 Electron 桌面应用程序提供:

  1. 下载桌面应用
    - 访问最新发布版本
    - 下载适用于你操作系统的相应二进制文件
    - 对于 macOS:解压并运行 .dmg 文件
    - 对于 Windows:运行 .exe 安装程序
    - 对于 Linux:解压并运行 AppImage 或安装 .deb

  2. 替代方案:从源代码构建:
    ```bash
    # 安装依赖
    pnpm install

# 构建 Electron 应用
pnpm electron:build:dist # 适用于所有平台
# 或特定平台:
pnpm electron:build:mac # macOS
pnpm electron:build:win # Windows
pnpm electron:build:linux # Linux
```

桌面应用提供与 Web 版本相同的完整功能,并具有额外的原生特性。

配置 API 密钥和提供商

Bolt.diy 采用现代化、直观的设置界面来管理 AI 提供商和 API 密钥。设置被组织到专用面板中,便于导航和配置。

访问提供商设置

  1. 打开设置:点击侧边栏中的设置图标 (⚙️) 以访问设置面板
  2. 导航到提供商:从设置菜单中选择“Providers”选项卡
  3. 选择提供商类型:在“Cloud Providers”和“Local Providers”选项卡之间切换

云提供商配置

“Cloud Providers”选项卡以有组织的卡片布局显示所有基于云的 AI 服务:

添加 API 密钥

  1. 选择提供商:浏览可用的云提供商网格(OpenAI、Anthropic、Google 等)
  2. 切换提供商:使用开关启用/禁用每个提供商
  3. 设置 API 密钥
    - 点击提供商卡片以展开其配置
    - 点击“API Key”字段进入编辑模式
    - 粘贴你的 API 密钥并按 Enter 保存
    - 界面显示实时验证,有效密钥带有绿色对勾标记

高级功能

  • 批量切换:使用“Enable All Cloud”一次性切换所有云提供商
  • 视觉状态:绿色对勾表示正确配置的提供商
  • 提供商图标:每个提供商都有独特的图标以便识别
  • 描述:有帮助的描述解释了每个提供商的功能

本地提供商配置

“Local Providers”选项卡管理本地 AI 安装和自定义端点:

Ollama 配置

  1. 启用 Ollama:切换 Ollama 提供商开关
  2. 配置端点:设置 API 端点(默认为 http://127.0.0.1:11434
  3. 模型管理
    - 查看所有已安装模型及其大小和参数信息
    - 一键更新模型到最新版本
    - 删除未使用的模型
    - 通过输入模型名称安装新模型

其他本地提供商

  • LM Studio:为 LM Studio 端点配置自定义基础 URL
  • OpenAI 兼容:连接到任何 OpenAI 兼容的 API 端点
  • 自动检测:系统自动检测环境变量中的基础 URL

环境变量与 UI 配置

Bolt.diy 支持两种方法以实现最大灵活性:

环境变量(推荐用于生产)

在你的 .env.local 文件中设置 API 密钥和基础 URL:

# API 密钥
OPENAI_API_KEY=your_openai_key_here
ANTHROPIC_API_KEY=your_anthropic_key_here

# 自定义基础 URL
OLLAMA_BASE_URL=http://127.0.0.1:11434
LMSTUDIO_BASE_URL=http://127.0.0.1:1234

基于 UI 的配置

  • 实时更新:更改立即生效
  • 安全存储:API 密钥安全地存储在浏览器 Cookie 中
  • 视觉反馈:清晰的指示器显示配置状态
  • 轻松管理:通过界面编辑、查看和管理密钥

提供商特定功能

OpenRouter

  • 免费模型过滤器:切换以在浏览时仅显示免费模型
  • 定价信息:查看每个模型的输入/输出成本
  • 模型搜索:在所有可用模型中进行模糊搜索

Ollama

  • 模型安装器:内置界面安装新模型
  • 进度跟踪:模型更新的实时下载进度
  • 模型详情:查看模型大小、参数和量化级别
  • 自动刷新:自动检测新安装的模型

搜索与导航

  • 模糊搜索:在所有提供商和模型中进行输入即搜
  • 键盘导航:使用箭头键和 Enter 快速导航
  • 清除搜索:按 Cmd+K (Mac) 或 Ctrl+K (Windows/Linux) 清除搜索

故障排除

常见问题

  • API 密钥未被识别:确保你为每个提供商使用正确的 API 密钥格式
  • 基础 URL 问题:验证端点 URL 是否正确且可访问
  • 模型未加载:检查提供商是否已启用并正确配置
  • 环境变量不工作:添加新环境变量后重启应用程序

状态指示器

  • 🟢 绿色对勾:提供商已正确配置并准备就绪
  • 🔴 红色 X:配置缺失或无效
  • 🟡 黄色指示器:提供商已启用但可能需要额外设置
  • 🔵 蓝色铅笔:点击以编辑配置

支持的提供商概览

云提供商

  • OpenAI - GPT-4、GPT-3.5 和其他 OpenAI 模型
  • Anthropic - Claude 3.5 Sonnet、Claude 3 Opus 和其他 Claude 模型
  • Google (Gemini) - Gemini 1.5 Pro、Gemini 1.5 Flash 和其他 Gemini 模型
  • Groq - 使用 Llama、Mixtral 和其他模型进行快速推理
  • xAI - Grok 模型,包括 Grok-2 和 Grok-2 Vision
  • DeepSeek - DeepSeek Coder 和其他 DeepSeek 模型
  • Mistral - Mixtral、Mistral 7B 和其他 Mistral 模型
  • Cohere - Command R、Command R+ 和其他 Cohere 模型
  • Together AI - 各种开源模型
  • Perplexity - 用于搜索和推理的 Sonar 模型
  • HuggingFace - 访问 HuggingFace 模型中心
  • OpenRouter - 多个模型提供商的统一 API
  • Moonshot (Kimi) - Kimi AI 模型
  • Hyperbolic - 高性能模型推理
  • GitHub Models - 通过 GitHub 提供的模型
  • Amazon Bedrock - AWS 托管的 AI 模型

本地提供商

  • Ollama - 在本地运行开源模型,具有高级模型管理功能
  • LM Studio - 使用 LM Studio 进行本地模型推理
  • OpenAI 兼容 - 连接到任何 OpenAI 兼容的 API 端点

💡 专业提示:从 OpenAI 或 Anthropic 开始以获得最佳效果,然后根据你的具体需求和预算考虑探索其他提供商。

使用 Git 设置(仅限开发者)

此方法推荐给希望进行以下操作的开发者:

  • 为项目做贡献
  • 保持与最新更改同步
  • 在不同版本之间切换
  • 创建自定义修改

先决条件

  1. 安装 Git:下载 Git

初始设置

  1. 克隆仓库

bash git clone -b stable https://github.com/stackblitz-labs/bolt.diy.git

  1. 进入项目目录

bash cd bolt.diy

  1. 安装依赖

bash pnpm install

  1. 启动开发服务器
    bash pnpm run dev

  2. (可选) 如果你想使用预发布/测试分支,切换到主分支:
    bash git checkout main pnpm install pnpm run dev
    提示:请注意,这可能包含 Beta 功能,并且比稳定版本更可能出现错误。

打开 WebUI 进行测试(默认:http://localhost:5173)
- 初学者:
- 尝试使用复杂的提供商/模型,如 Anthropic 的 Claude Sonnet 3.x 模型以获得最佳效果
- 解释:目前 bolt.diy 中实现的系统提示无法覆盖所有提供商和模型的最佳性能。因此,即使某些模型本身非常适合编程,但使用某些

4 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 34 ms
Developed with Cursor