OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  Obsidian

在 Obsidian 里用上 AI:一份从 0 到 1 的 Copilot + DeepSeek 接入指南

 
  luminous ·  2026-03-20 14:46:43 · 11 次点击  · 0 条评论  

📌 导语

过去用 Obsidian,本质是在“写笔记”。

现在,一个更实用的用法正在出现:

在笔记里直接调用 AI,让内容可以被理解、改写、甚至“找出来”。

这篇文章带你一步一步完成这件事:

把 Copilot 插件接入 DeepSeek 聊天模型,并(可选)接入 embedding 模型(如 BAAI/bge-m3),让 Obsidian 具备真正的 AI 能力。

但在开始之前,有一个关键问题必须说清楚:

👉 embedding 不是必须,但它决定了你是“能用 AI”,还是“用好 AI”。


🧭 最终效果是什么?

根据你的配置不同,你会得到两种“完全不同”的体验:


🟢 基础版(只接 DeepSeek)

  • 💬 AI 对话 / 写作 / 总结
  • 📄 选中文本改写
  • ⚡ 快速生成内容

👉 本质:AI 写作助手


🔵 完整版(DeepSeek + embedding)

  • 🔍 语义搜索(不靠关键词)
  • 🧠 基于你所有笔记回答问题
  • 🔗 自动利用上下文

👉 本质:AI 知识库


👉 一句话总结:

embedding 决定了 AI 能不能“用你的知识”。


⚠️ 前提准备

开始之前,你需要:

  • 已安装 Obsidian
  • 注册 DeepSeek(聊天模型)
  • 注册 SiliconFlow(embedding 模型,可选)

👉 注意:

  • DeepSeek 按 token 收费
  • embedding 按调用量收费(可控)

⚙️ Step 1:开启第三方插件

路径:

  • 设置 → 第三方插件 → 关闭安全模式

👉 作用:

允许安装 AI 插件(Copilot)


🧩 Step 2:安装 Copilot 插件

  • 浏览插件市场
  • 搜索 Copilot
  • 安装并启用

👉 可以理解为:

Copilot = Obsidian 的 AI 接口层


🤖 Step 3:配置聊天模型(DeepSeek)

进入 Copilot → Models → Chat Models:

Display Name:deepseek-chat
Model:deepseek-chat
Provider:OpenAI
API Base URL:https://api.deepseek.com/v1
API Key:你的 DeepSeek Key

🔑 获取 API Key

  • 登录 DeepSeek 平台
  • 创建 API Key
  • 粘贴即可

👉 到这里,你已经可以:

  • 写作
  • 总结
  • 对话

🧠 Step 4(可选但关键):配置 embedding 模型

先说结论:

这一步不是必须,但强烈建议做


🤔 为什么需要 embedding?

很多人以为 AI 是这样工作的:

提问 → AI 回答

但当涉及“你的笔记”时,真实流程是:

提问
 ↓
embedding(找相关笔记)
 ↓
把内容喂给 AI
 ↓
生成回答

👉 换句话说:

模型类型 作用
Chat(DeepSeek) 负责“说话”
Embedding(bge-m3) 负责“找内容”

📌 不用 embedding 会怎样?

你会遇到:

  • ❌ “AI 不知道我写过什么”
  • ❌ 只能基于当前页面回答
  • ❌ 无法跨文档理解

👉 本质上:

AI 看不到你的知识库。


⚙️ 如何配置 embedding(BAAI/bge-m3)

进入:

  • Models → Embedding Models → Add model
Display Name:BAAI/bge-m3
Model:BAAI/bge-m3
Provider:OpenAI
API Base URL:https://api.siliconflow.cn
API Key:你的 SiliconFlow Key

🔑 获取 Key

  • 登录 SiliconFlow
  • 创建 API Key
  • 粘贴

🧠 embedding 到底做了什么?

一句更直白的解释:

把你的每一篇笔记,变成一组“语义坐标”

这样 AI 才能:

  • 找到“意思相近”的内容(不是关键词)
  • 理解上下文
  • 做跨文档推理

👉 这一步,本质是:

让知识库“可计算”。


⚙️ Step 5:设置默认模型

在 Copilot 设置中:

  • Chat Model → deepseek-chat
  • Embedding Model → BAAI/bge-m3(如果配置了)

✅ Step 6:验证效果(重点对比)


🟢 没有 embedding

你问:

“我写过 Transformer 吗?”

👉 AI:不知道(除非当前打开)


🔵 有 embedding

👉 AI:

  • 找到相关笔记
  • 总结内容
  • 给出答案

👉 差别非常明显:

一个是“聊天”,一个是“知识调用”。


⚠️ 常见问题


❌ 能聊天,但不能搜索笔记

👉 原因:embedding 没配


❌ 成本高吗?

其实很低:

  • embedding 只在索引/查询时调用
  • 日常成本远低于 chat

👉 可以放心用


🧩 怎么选?给你一张决策表

需求 推荐配置
写作 / 总结 只用 DeepSeek
个人知识库 DeepSeek + embedding
长期使用 强烈建议加 embedding

👉 简单理解:

你只是“写内容” → 不需要 embedding
你要“用知识” → 必须 embedding


🚀 进阶玩法

当你接入 embedding 后,可以这样用:


1️⃣ 全库问答

“我最近在研究什么方向?”


2️⃣ 知识总结

“帮我总结所有关于 LLM 的笔记”


3️⃣ 写作增强

“基于我所有笔记,写一篇文章”


👉 这才是 Obsidian + AI 的真正形态。


🧠 一句话总结架构

Obsidian = 知识存储
Copilot   = AI 接口
DeepSeek  = 生成能力
Embedding = 检索能力

📌 结语

很多教程会把 embedding 当成“配置步骤”。

但更准确的说法是:

它决定了你是在用 AI,还是在用“带记忆的 AI”。

当你把 Obsidian 接上 DeepSeek(以及 embedding)之后:

你不再需要记住知识在哪里。

因为:

AI 会帮你找到它,并用起来。

11 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 26 ms
Developed with Cursor