图片展示与跳转 展示图片

Obsidian Copilot 插件教程:Ollama 本地离线部署指南

Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图

关于 Obsidian Copilot 插件的介绍我写过不少文章,不过之前使用的 API 都是硅基流动 或者 OpenRouter 提供的,如果追求绝对的隐私,那用这些 API 还是不够。

所以今天我们来试试本地离线的 Ollama,并配置 Obsidian Copilot 插件,享受安全、可控的 AI 体验。

下载安装 Ollama

  • 官网:https://ollama.com/download
  • 下载 Ollama 后,解压缩然后安装程序

下载模型

因为是在本地部署大模型,所以你需要注意的是,并不是每个人都可以成功部署,这个跟你的电脑配置(主要是显卡显存)有关

这里我们就先选择下载配置比较适中的 qwen2.5:14b 模型, 下载方法如下。

  1. Mac 用户请打开终端(用 Spotlight 搜索),Windows 用户在「开始」菜单里找到 CMD 命令提示符,然后打开。
  2. 在命令窗口中输入代码 ollama run qwen2.5:14b 然后回车
  3. 这个时候就会自动下载这个模型,请稍作等待,等进度条走到 100%
    Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图1
  4. 安装完毕后,你就可以直接在这个命令窗口中,跟这个大模型对话了。如果能正确回答你的问题,则说明安装成功,并且模型可用。
    Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图2
  5. 第四步确认安装完毕后,我们先输入 /bye 命令,退出这个模型
  6. 接下来安装嵌入模型,在命令窗口输入命令 ollama pull bge-m3 回车,然后等待安装完成
  7. 再输入 /bye 命令,退出安装过程,然后关闭退出 ollama 应用程序

配置 Copilot 插件

  1. 使用命令 OLLAMA_ORIGINS=app://obsidian.md* ollama serve 重新启动 Ollama
  2. 打开 Copilot 插件的设置页面
  3. 按照下图所示填写
    • 在 Model Name 填写 qwen2.5:14b
    • Display Name 可以自定义
    • 先点击 Verify 按钮,确认模型可用
    • 然后再点击 Add Model
      Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图3
  4. 添加完模型后,就可以在 Copilot 的插件问答窗口,使用这个本地模型来进行问答了
    Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图4
  5. 用同样的方法,我们也可以给 Copilot 插件配置本地的嵌入模型。在 Copilot 设置页面的 Embedding Models 位置,找到 Add Custom Model 按钮
    Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图5
  6. 按照下图所示填写
    Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图6
  7. 回到 Copilot 的 Basic 设置页面,可以在下图所示位置,将问答模型与嵌入模型修改为我们刚才本地部署的两个模型
    Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图7

配置完毕,撒花!

Obsidian Copilot 插件教程:Ollama 本地离线部署指南插图8

关联文章

本站所有文章,除非特别说明或标注,均为本站原创发布。转载本文需附上本文链接,未经授权,禁止大篇幅复制、盗用、采集或发布本站内容至其他网站、书籍等各类媒体平台。

AI

免费 DeepSeek R1 薅羊毛教程|白嫖 5000 万 Token|欧派云、火山引擎配置教程

2025-2-18 11:55:18

笔记实操技巧

用 Obsidian 插件将文章发布到 WordPress 博客

2024-4-4 14:28:50

图片展示与跳转 展示图片

欢迎订阅我的 Notion 课程

一站式学习,从入门到精通

X