Jason

[Obsidian AI教程] Copilot插件完全指南:AI 对话、RAG、参数设置一次讲透

下载文件

如果想要订阅Obsidian Copilot的同学,可以使用优惠码:JASONEFFILAB 获得20%的折扣。

1. General (常规/基础设置)

这部分决定了插件的基础行为模式和文件管理逻辑。

  • Copilot Plus (License Key):

    • 如果你购买了 Copilot Plus 订阅,在这里输入密钥。激活后可解锁免 Key 的模型、云端索引和 Agent 功能。
  • API Keys (API 密钥):

    • 点击 Set Keys 按钮,会弹出一个列表,让你分别输入 OpenAI, Anthropic, Google Gemini 等厂商的 API Key。
  • Default Chat Model (默认聊天模型):

    • 决定了你每次打开侧边栏时,默认加载哪个模型。
    • 建议:设为你最常用且性价比最高的模型(如GLM,Qwen,Gemini)。
  • Default Mode (默认模式):

    • Chat: 普通聊天模式(仅依赖上下文轮数)。
    • Vault QA: 知识库问答模式(RAG 模式)。
    • Copilot Plus: Plus订阅用户能使用,拥有多模态能力的强大AI模式。
    • 建议:如果你主要用来问笔记,设为 Vault QA;主要用来闲聊或润色,设为 Chat。
  • Open Plugin In (插件打开位置):

    • Sidebar View: 固定在右侧边栏(推荐,更稳定)。
    • Editor: 编辑器模式。
  • Send Shortcut (发送快捷键):

    • Enter: 回车发送,Shift+Enter 换行(适合短对话)。
    • Shift+Enter: Shift+Enter 发送,Enter 换行(适合写长 Prompt)。
  • Include Current Note in Context Menu (在上下文菜单中包含当前笔记):

    • 开启后,在侧边栏聊天时,AI 会默认读取你当前正在编辑的那篇笔记内容。
    • 场景:当你需要 AI 帮你“总结这篇文章”或“润色这段话”时,必须开启
  • Auto-Add Text Selection to Context (自动将选中文本添加到上下文):

    • 开启后,当你在编辑器里选中一段文字,这段文字会自动出现在聊天框的输入栏上方。
    • 场景:针对性润色或翻译某段话时非常方便。
  • Images in Markdown (Markdown 中的图片):

    • 允许 AI 读取笔记语法 ![[]] 中的图片。
    • 注意:需要当前模型支持 Vision(视觉)能力(如Gemini)。
  • Suggested Prompts (建议提示词):

    • 在聊天框空闲时,显示一些预设的建议(如“总结这篇笔记”)。
    • 评价:可以开启。
  • Relevant Notes (相关笔记):

    • 在 RAG (Vault QA) 模式下,AI 回答完问题后,会在底部列出它参考了哪些笔记(Source Documents)。
    • 建议务必开启。这是查证 AI 是否胡说八道的依据。
  • Autosave Chat (自动保存聊天):

    • 开启后,你的每一次对话都会被存为一个 Markdown 文件。
    • 建议:可以开启,防止意外关闭插件导致思路丢失。
  • Generate AI Chat Title on Save (保存时生成 AI 标题):

    • 开启后,AI 会根据聊天内容自动起个名字(如“关于RAG的讨论”)。关闭则使用默认时间戳或前几个字。
    • 建议:开启,方便日后查找。
  • Default Conversation Folder Name (默认对话文件夹名称):

    • 设置聊天记录存放在 Obsidian 的哪个文件夹下。默认是 copilot-conversations
  • Default Conversation Tag (默认对话标签):

    • 给保存的聊天文件自动打上 tag(如 #ai-conversations),方便通过 Graph View 或 Dataview 检索。
  • Conversation Filename Template (对话文件名模版):

    • 自定义保存文件的命名规则。
    • {topic}: AI 生成的标题。
    • {date}, {time}: 日期时间变量。

速查表:General 基础设置

参数 (Parameter)概括 (Summary)
Copilot Plus订阅激活码输入处,解锁高级功能。
API Keys配置 OpenAI, Anthropic 等厂商 API Key 的入口。
Default Chat Model侧边栏默认启动的模型。
Default Mode默认模式:聊天 (Chat) 或 查库 (Vault QA)。
Open Plugin In界面位置:侧边栏 (Sidebar) 或 编辑模式 (Editor)。
Send Shortcut发送键设置:Enter 或 Shift+Enter。
Include Current Note重要:是否让 AI 读取当前正在编辑的笔记。
Auto-Add Text Selection重要:选中文字是否自动投喂给 AI。
Images in Markdown是否允许 AI 读取笔记中的图片 (需模型支持)。
Suggested Prompts是否显示“建议提示词”气泡。
Relevant Notes重要:RAG 模式下是否展示参考来源。
Autosave Chat是否自动保存聊天记录为 Markdown 文件。
Generate AI Chat Title是否让 AI 自动生成对话标题。
Default Folder/Tag设置聊天记录的保存路径和标签。

2. Model (模型管理)

这里管理你的AI模型和向量模型。

  • Refresh Built-ins (按钮,刷新内置模型): 获取插件开发者更新的最新模型列表。
  • Add Model (按钮,添加模型): 手动添加自定义模型(比如本地 Ollama 的特定模型)。
  • 列表参数详解:
    • Model: 模型名称(传给 API 的字符串)。
    • Provider: 供应商(OpenAI, Ollama, etc.)。
    • Capabilities (能力):
      • 👁️ (Vision): 能看图。
      • 💡 (Reasoning): 具备强推理能力。
      • 🌐 (Web Search): 网络搜索能力。
    • Enable (启用): 只有勾选的才会出现在聊天界面的下拉菜单中。
    • CORS (跨域资源共享):
      • 解释:如果你连接的是本地服务器(如 Ollama 或 LM Studio)且遇到连接错误,尝试勾选这个。通常云端 API 不需要勾选。
    • Actions (操作): 编辑参数或删除模型。
  • Conversation turns in context (上下文轮数):
    • 默认 15。指 AI 能“记住”之前的多少轮对话。
    • 逻辑:数值越大,AI 记性越好,但消耗 Token 越多(越贵),且可能超出上下文窗口限制。

速查表:Model 常规管理参数 (列表与设置)

参数 (Parameter)概括 (Summary)
Refresh Built-ins获取插件官方最新的内置模型列表。
Add Model打开添加自定义模型的窗口 (见上表)。
List: Enable勾选后,模型才会显示在聊天界面的下拉列表中。
List: CORS针对列表中的模型单独开启跨域支持 (用于本地模型)。
Conversation turns上下文记忆轮数 (默认 15),数值越大越费 Token。

窗口: Add Custom Chat Model (添加自定义聊天模型)

  • Model Name (模型名称) [必填]

    • 深度释义:这是 API 请求体(JSON Body)中 model 字段的精确字符串值
    • 避坑:这不是给你随便起名字的地方。
      • 比如 Gemini 的API Key,填 gemini-3.0-pro-preview
      • 如果是 Ollama,你必须填 qwen2.5:14b(必须和你本地 ollama list 显示的一模一样)。
      • 如果是 LM Studio,同理,填 Qwen/Qwen2.5-72B-Instruct,和你LM Studio中的模型名一样。
    • 后果:填错的话API就会报错。
  • Display Name (显示名称)

    • 深度释义:这是给人类看的 UI 标签。
    • 建议:起一个短一点的名字,比如 Qwen-72B 或 DS-V3,因为它会显示在侧边栏狭窄的下拉菜单里。
  • Provider (供应商)

    • 深度释义:决定了插件底层使用哪种 API 协议/SDK 来发送请求。
    • 选项逻辑
      • OpenAI: 标准格式。绝大多数第三方(DeepSeek, SiliconFlow, Moonshot)都兼容这个格式。首选
      • Ollama: 针对 Ollama 的原生接口(有时 Ollama 的 OpenAI 兼容接口会有流式传输 Bug,选这个更稳)。
      • Azure / Google / Anthropic: 对应各家私有协议。
      • OpenRouter: 实际上也是 OpenAI 格式,但插件可能会自动处理一些 OpenRouter 特有的 Header(如 Referer)。
  • Base URL (基础 URL)

    • 深度释义:API 的接入点(Endpoint),通常以 /v1 结尾。
    • 配置作业
      • 官方 OpenAI: https://api.openai.com/v1 (默认,可留空)。
      • 硅基流动: https://api.siliconflow.cn/v1
      • 本地 Ollama: http://localhost:11434/v1
      • DeepSeek 官方: https://api.deepseek.com (注意 DeepSeek 有时不需要 /v1,视 SDK 而定,通常加 /v1 没错)。
  • API Key (API 密钥)

    • 深度释义:鉴权令牌(Bearer Token)。
    • 注意:如果你连接的是本地 Ollama,这里通常可以留空,或者随便填个 sk-123(有些 SDK 强制要求 Key 不为空)。
  • Model Capabilities (模型能力)

    • Reasoning (推理):
      • 功能:勾选后,插件会适配“思维链”的展示方式(类似 DeepSeek-R1)。它可能会增加特定的超时设置,或者在 UI 上折叠 <think> 标签的内容。
    • Vision (视觉):
      • 功能:勾选后,聊天框会出现“上传图片”的按钮。
      • 警告:只有当你确信这个模型支持多模态(如 GPT-4o, Claude 3.5, Gemini, Qwen-VL)时才勾选。如果给纯文本模型传图片,会直接报错。
    • Websearch (联网搜索):
      • 功能:这是 Copilot 插件的一个特殊标记。勾选后,如果你在 Agent 模式下,插件会更倾向于认为这个模型有能力处理搜索任务(或者是为了标记 Copilot Plus 提供的带搜索功能的模型)。对于自定义模型,通常不勾选,除非你接的是 Perplexity 的 API。
  • CORS (跨域资源共享)

    • 深度释义救命开关
    • 原理:Obsidian 也是基于浏览器内核(Chromium)的。浏览器有安全策略,禁止网页随便向本地(localhost)或其他域名发请求。
    • 场景
      • 连接 LM Studio或Ollama (localhost) 时:必须勾选,或者你在 Ollama 启动参数里设置了环境变量 OLLAMA_ORIGINS="*"
      • 连接 云端 API 时:通常不用勾选,除非该厂商的服务器没配置好 CORS 头。
    • Test 按钮:配置完点一下,显示 Success 再点 Add。

总结表格:Add Custom Chat Model 参数详解 (添加自定义聊天模型)

项名称 (Item Name)中文名称深度解析与配置建议 (Best Practice)
Model Name模型名称【最关键】 必须填写 API 要求的精确模型 ID(如 gemini-3.0-pro-preview / qwen2.5:14b / Qwen/Qwen2.5-72B-Instruct)。填错 API 会报错。
Display Name显示名称UI 中展示的友好名称,建议简短(如 Qwen)。
Provider供应商决定 API 协议:OpenAI(通用,首选)、Ollama(本地原生接口)、Azure/Google/Anthropic(各家私有协议)、OpenRouter(OpenAI 格式但含额外 Header 处理)。
Base URL基础地址API 访问入口,如 https://api.siliconflow.cn/v1http://localhost:11434/v1https://api.openai.com/v1 等。
API KeyAPI 密钥鉴权 Token。连接本地模型可留空或填任意值(如 sk-123)。
Reasoning推理能力勾选后 UI 会显示 <think> 折叠内容,适配 DeepSeek-R1 等推理模型。非推理模型一般不勾选。
Vision视觉能力勾选后启用图片上传按钮。仅限支持视觉输入的模型(GPT / Gemini / Qwen-VL)。否则必报错。
Websearch联网搜索Copilot 特有标记。多数自定义模型不要勾选。仅当接入 Perplexity 或具备真实联网能力的模型才勾选。
CORS跨域开关连接 本地 Ollama/LM Studio (localhost) 时必须勾选;云端 API 通常不需要。
Test测试按钮提交前必须点击验证连通性。成功后显示绿色 Success。

窗口: Add Custom Embedding Model (添加自定义嵌入模型)

这是配置 RAG “索引器”的地方。

  • **Model Name (模型名称) [核心] **

    • 配置:填你所使用的向量模型名称,比如text-embedding-3-small。列表中已经列出主流向量模型,建议使用列表中的,比如谷歌的Gemini向量模型,填写谷歌Gemini的API Key即可使用。
  • Provider (供应商)

    • 配置:下拉列表,选择你使用的向量模型的供应商。
  • Base URL & API Key

    • 同上。填写你所使用的向量模型的URL和API Key。
  • Model Capabilities (模型能力)

    • Reasoning / Vision / Websearch:
      • 深度建议全部不要勾选!
      • 原因:这是插件 UI 复用了 Chat Model 的弹窗代码。Embedding 模型的工作是“把文字变成向量”,它不需要推理,不需要联网,目前的插件架构也不支持多模态向量化(Vision Embedding)。勾选这些可能会导致插件发送错误的参数给 API,导致报错。
  • Additional OpenAI Settings (额外的 OpenAI 设置)

    • 功能:点击展开后,通常允许你添加自定义 Headers(如 Organization-ID)。
    • 场景:99% 的个人用户用不到。除非你是企业版 OpenAI 用户,需要指定计费归属的组织。

总结表格:Add Custom Embedding Model 参数详解 (添加自定义向量模型)

项名称 (Item Name)中文名称深度解析与配置建议 (Best Practice)
Model Name模型名称【最关键】 必须填入 API 提供商规定的精确字符串 ID (如 text-embedding-3-small),不能自定义。
Display Name显示名称自定义。建议简短易读 (如 gemini-001)。
Provider供应商填写所使用向量模型的供应商名称。
Base URL基础地址填写所使用向量模型的Base URL。
API Key密钥填写所使用向量模型的API Key,本地模型留空。
Reasoning推理能力留空不勾选。
Vision视觉能力留空不勾选。
Websearch联网搜索留空不勾选。
CORS跨域开关连接 Localhost (本地模型) 报错时必选;云端 API 通常不选。
Test测试按钮提交前务必点击。Chat 模型会发一条 “Hello”,Embedding 会试着向量化一个词,成功后会变绿。

3. QA (问答/RAG 核心设置)

这是 RAG 的配置区域。

  • Enable Semantic Search (启用语义搜索):

    • 总开关。开启后,插件才会去扫描你的笔记并建立向量索引。不开启就没法用 Vault QA。
  • Embedding Model (嵌入模型):

    • 选择用于将文字转化为向量的模型。
    • 注意:一旦选定并建立了索引,不要随意更换。如果换了模型,必须点击 Force Re-index Vault 重建整个索引,否则搜不到任何东西。
  • Auto-Index Strategy (自动索引策略):

    • ON MODE SWITCH: 当你从 Chat 模式切换到 QA 模式时,插件检查是否有新笔记需要索引。
    • ON STARTUP: 插件加载时,后台立马索引。
    • NEVER: 只有你手动执行命令,才会索引。
  • Max Sources (最大引用源):

    • 默认 15。检索时,选出相关性最高的多少个片段喂给 AI。
    • 建议:对于 Gemini / GPT 这种大窗口模型,建议调大至 30-50。给的信息越多,AI 综合总结的能力越强。
  • Lexical Search RAM Limit (词法搜索 RAM 限制):

    • 默认 100MB。这是给 BM25(关键词搜索) 分配的内存。
    • 建议:如果你的笔记数量超过 5000 篇,建议拉大到 200MB - 500MB,防止关键词搜索因为内存不足而遗漏。
  • Enable Folder and Graph Boosts (启用文件夹与图谱增强):

    • Copilot 独家技术。开启后,如果笔记 A 和笔记 B 在同一个文件夹,或者有双向链接,检索时会提高它们的相关性权重。
    • 建议开启。这让 RAG 更懂 Obsidian 的结构。
  • Exclusions (排除项):

    • 点击 Manage 设置不想被索引的文件夹、标签或文件类型。
    • 建议:排除 Assets (附件), Templates (模版), Excalidraw (绘图文件)。
  • Inclusions (包含项):

    • 白名单模式。设置后,索引这里面的内容。通常不建议用,除非你只想针对某个特定项目做 RAG。
  • Enable Obsidian Sync for Copilot index (为 Copilot 索引启用 Obsidian Sync):

    • 把庞大的向量索引文件放入官方同步列表。
    • 建议关闭。索引文件通常很大(几百 MB),同步很慢且浪费空间。建议每台设备自己在本地跑索引。
  • Disable index loading on mobile (在移动端禁用索引加载):

    • 建议开启。手机内存小,加载几百兆的索引容易闪退。手机上尽量只用 Chat 模式,或者订阅 Plus 用云端索引。

速查表:QA (RAG) 设置

参数 (Parameter)概括 (Summary)
Enable Semantic Search核心开关。启用后才能进行知识库问答。
Embedding Model向量模型。选定后更换需重建索引 (Re-index)。
Auto-Index Strategy索引时机。推荐 NEVER (然后手动索引)。
Max Sources喂给 AI 的参考片段数量。建议大模型设为 30-50。
Lexical Search RAM关键词搜索分配内存。大库建议调大至 200MB+。
Folder/Graph Boosts利用文件夹和双链关系优化搜索结果。建议开启
Exclusions排除不需要索引的文件夹/标签 (如附件、模版)。
Enable Obsidian Sync是否同步索引文件。建议关闭 (文件大,浪费空间)。
Disable index on mobile移动端是否禁用索引。建议开启 (防闪退)。

4. Command (自定义指令)

这里配置快捷指令(Slash Commands)。

  • Custom Prompts Folder Name (自定义提示词文件夹):

    • 指定一个文件夹存放你的 .md 提示词文件。插件会自动读取该文件夹下的文件作为指令。
  • Custom Prompt Templating (自定义提示词模版化):

    • 开关。开启后,支持解析 {activenote}, {selection} 等变量。
    • 建议:开启。
  • Custom Prompts Sort Strategy (排序策略):

    • Recency: 最近用的排前面。
    • Alphabetical: 按字母排序。
    • Manual: 手动排序
  • Commands List (指令列表):

    • 列出了所有已加载的指令(如 Fix grammar, Summarize)。
    • In Menu: 是否显示在右键菜单里。
    • Slash Cmd: 是否可以通过 / 呼出。
    • Actions: 编辑或删除。

速查表:Command 指令设置

参数 (Parameter)概括 (Summary)
Custom Prompts Folder存放自定义 .md 提示词文件的文件夹路径。
Prompt Templating开启变量支持 (如 {selection} 自动填入选中文本)。
Sort Strategy指令排序方式 (按名称或按最近使用)。
Commands List管理具体指令在右键菜单或 Slash 命令中的可见性。

5. Plus (Plus 会员功能)

这部分主要针对 Agent 和记忆功能。部分功能如果你配置了本地模型且算力足够,也可能在未来开放,但目前主要针对 Plus。

  • Enable Autonomous Agent (启用自主智能体):

    • 核心开关。开启后,在 Plus 模型下,AI 不再是单纯的回答者,而是行动者。它会根据问题拆解步骤:搜索网络 -> 搜索本地 -> 整合答案。
    • 注意:Agent 模式速度较慢,适合复杂任务。
  • Memory Folder Name (记忆文件夹名称):

    • 存放 AI 长期记忆数据的路径。
  • Reference Recent Conversation (参考最近对话):

    • 让 AI 在新的聊天窗口中,也能“想起”你上一次聊天聊了什么。
  • Max Recent Conversations (最大最近对话数):

    • 默认 30。AI 会扫描最近 30 个聊天文件作为背景上下文。
    • 警告:数值过大会显著增加 Token 消耗和延迟。
  • Reference Saved Memories (参考保存的记忆):

    • 开启后,AI 会读取你明确要求它“记住”的信息(比如“记住我只用 TypeScript 写代码”)。
  • Autocomplete (自动补全):

    • 截图显示暂时不可用。类似于 GitHub Copilot 的行内代码/文本补全功能。

速查表:Plus 高级功能

参数 (Parameter)概括 (Summary)
Enable Autonomous Agent开启智能体模式,允许 AI 联网搜索和规划任务。
Memory Folder长期记忆文件的存储位置。
Ref. Recent Conversation允许 AI 读取之前的对话记录作为背景。
Max Recent Conversations读取最近对话的数量限制 (默认 30)。
Ref. Saved Memories允许 AI 读取用户显式保存的记忆点。

6. Advanced (高级设置)

  • User System Prompt (用户系统提示词):

    • 全局人设。无论你选哪个模型,这个提示词都会作为 System Message 发送给 AI。
    • 用法举例:填入“你是一个 Obsidian 专家,回答请使用 Markdown,不要啰嗦”。
  • Enable Encryption (启用加密):

    • 对存储在 data.json 中的 API Key 进行加密。
    • 建议:如果你会分享你的 Obsidian 库给别人,或者使用同步盘,务必开启,防止 Key 泄露。
  • Debug Mode (调试模式):

    • 开启后,控制台(Ctrl+Shift+I)会输出大量日志。仅在报错求助时开启。
  • Create Log File (创建日志文件):

    • 一键生成诊断日志,方便发给开发者报 Bug。

速查表:Advanced 高级设置

参数 (Parameter)概括 (Summary)
User System Prompt设置全局通用的 System Message (AI 人设)。
Enable Encryption加密本地存储的 API Key,提升安全性。
Debug Mode开启控制台详细日志 (排错用)。
Create Log File生成用于反馈 Bug 的日志文件。
厂商/模型 (Vendor)核心模型名称 (API Model Name)官方 Native Base URLOpenAI 兼容 Base URL (推荐)推理 (Reasoning)视觉 (Vision)搜索 (Web Search)备注 (Remarks)
OpenAIgpt-5.1
gpt-5.1-chat
gpt-5.1-codex
o3-2025-04-16 / o3-pro-2025-06-10
https://api.openai.com/v1https://api.openai.com/v1最新主推 GPT-5.1 系列,支持推理与视觉,原生无联网搜索(需插件)。
Google (Gemini)gemini-3-pro
gemini-2.5-pro
gemini-2.5-flash
gemini-2.5-flash-lite
https://generativelanguage.googleapis.comhttps://generativelanguage.googleapis.com/v1beta/openai/Gemini 3 Pro 为最新旗舰,2.5 系列为主力高性价比模型,多模态与 Grounding 支持完善。
Anthropic (Claude)claude-opus-4-5-20251101
claude-sonnet-4-5-20250929
https://api.anthropic.com无原生兼容(建议用中间层如 OpenRouter)4.5 系列命名带日期 tag,推理与视觉能力强,但无原生联网搜索能力。
Perplexitysonar-pro
sonar-search
sonar-reasoning-pro
https://api.perplexity.aihttps://api.perplexity.aiPerplexity API 以实时搜索为核心,sonar-reasoning-pro 结合推理与搜索能力。
xAI (Grok)grok-4
grok-4-1
https://api.x.ai/v1https://api.x.ai/v1最新 Grok 4 系列,兼容 OpenAI API 结构,支持视觉与实时搜索(Live Search)。
Alibaba (通义千问 / Qwen)qwen3-max
qwen3-vl-30b
qwen2.5-max
https://dashscope.aliyuncs.comhttps://dashscope.aliyuncs.com/compatible-mode/v1Qwen 3 系列为最新主推,具备强视觉与搜索能力。VL 系列支持多模态。
Moonshot (Kimi)kimi-k2-thinking
moonshot-k2
https://api.moonshot.cn/v1https://api.moonshot.cn/v1Moonshot K2 专注长上下文与深度推理,多模态支持良好,并内置 Web Search 工具调用。
DeepSeek (深度求索)deepseek-v3.2
deepseek-reasoner
deepseek-chat
https://api.deepseek.comhttps://api.deepseek.comDeepSeek 主力为推理模型,API 多为纯文本,不支持视觉与内置搜索。
Doubao (字节豆包)doubao-1.5-pro-32k
doubao-thinking
https://ark.cn-beijing.volces.com/api/v3https://ark.cn-beijing.volces.com/api/v3豆包 Endpoint ID 依控制台设置不同而变化,具备多模态与联网能力,性价比高。
Zhipu AI (智谱 GLM)glm-4.6
glm-4-flash
https://open.bigmodel.cn/api/paas/v4https://open.bigmodel.cn/api/paas/v4/GLM-4.6 为当前最新旗舰模型,GLM-4-Flash 为轻量高效版本,多模态能力完善。