过去用 Obsidian,本质是在“写笔记”。
现在,一个更实用的用法正在出现:
在笔记里直接调用 AI,让内容可以被理解、改写、甚至“找出来”。
这篇文章带你一步一步完成这件事:
把 Copilot 插件接入 DeepSeek 聊天模型,并(可选)接入 embedding 模型(如 BAAI/bge-m3),让 Obsidian 具备真正的 AI 能力。
但在开始之前,有一个关键问题必须说清楚:
👉 embedding 不是必须,但它决定了你是“能用 AI”,还是“用好 AI”。
根据你的配置不同,你会得到两种“完全不同”的体验:
👉 本质:AI 写作助手
👉 本质:AI 知识库
👉 一句话总结:
embedding 决定了 AI 能不能“用你的知识”。
开始之前,你需要:
👉 注意:
路径:
👉 作用:
允许安装 AI 插件(Copilot)
👉 可以理解为:
Copilot = Obsidian 的 AI 接口层
进入 Copilot → Models → Chat Models:
Display Name:deepseek-chat
Model:deepseek-chat
Provider:OpenAI
API Base URL:https://api.deepseek.com/v1
API Key:你的 DeepSeek Key
👉 到这里,你已经可以:
先说结论:
❗ 这一步不是必须,但强烈建议做
很多人以为 AI 是这样工作的:
提问 → AI 回答
但当涉及“你的笔记”时,真实流程是:
提问
↓
embedding(找相关笔记)
↓
把内容喂给 AI
↓
生成回答
👉 换句话说:
| 模型类型 | 作用 |
|---|---|
| Chat(DeepSeek) | 负责“说话” |
| Embedding(bge-m3) | 负责“找内容” |
你会遇到:
👉 本质上:
AI 看不到你的知识库。
进入:
Display Name:BAAI/bge-m3
Model:BAAI/bge-m3
Provider:OpenAI
API Base URL:https://api.siliconflow.cn
API Key:你的 SiliconFlow Key
一句更直白的解释:
把你的每一篇笔记,变成一组“语义坐标”
这样 AI 才能:
👉 这一步,本质是:
让知识库“可计算”。
在 Copilot 设置中:
你问:
“我写过 Transformer 吗?”
👉 AI:不知道(除非当前打开)
👉 AI:
👉 差别非常明显:
一个是“聊天”,一个是“知识调用”。
👉 原因:embedding 没配
其实很低:
👉 可以放心用
| 需求 | 推荐配置 |
|---|---|
| 写作 / 总结 | 只用 DeepSeek |
| 个人知识库 | DeepSeek + embedding |
| 长期使用 | 强烈建议加 embedding |
👉 简单理解:
你只是“写内容” → 不需要 embedding
你要“用知识” → 必须 embedding
当你接入 embedding 后,可以这样用:
“我最近在研究什么方向?”
“帮我总结所有关于 LLM 的笔记”
“基于我所有笔记,写一篇文章”
👉 这才是 Obsidian + AI 的真正形态。
Obsidian = 知识存储
Copilot = AI 接口
DeepSeek = 生成能力
Embedding = 检索能力
很多教程会把 embedding 当成“配置步骤”。
但更准确的说法是:
它决定了你是在用 AI,还是在用“带记忆的 AI”。
当你把 Obsidian 接上 DeepSeek(以及 embedding)之后:
你不再需要记住知识在哪里。
因为:
AI 会帮你找到它,并用起来。