【教程】本地知识库-部署Qwen2.5 Omni+Obsidian教程文档0709 - 飞书云文档
飞书云文档
list
where category = [web]
搜索
主页
云盘
我的空间和共享空间搬到云盘了
知识库
置顶文档
置顶知识库
我的文档库
存储管理
回收站
【教程】本地知识库-部署Qwen2.5 Omni+Obsidian教程文档0709
Xuan
7月10日修改
下载与安装:
◦
下载对应您操作系统的安装包并完成安装。
搜索并下载模型:
◦
打开 LM Studio 应用程序,点击左侧菜单的 放大镜图标 (🔍) 进入搜索页。
◦
在搜索框中输入 Qwen 2.5 7B 。
◦
在搜索结果中,选择官方发布的 qwen/qwen2.5-vl-7b 模型。
◦
点击 Download 按钮,等待下载完成。
第二步:启动本地AI服务器
模型下载完成后,我们需要通过LM Studio启动一个本地服务器,以便Obsidian可以与之通信。
进入服务器页面:
◦
点击LM Studio左侧菜单的 Developer (开发者) 图标 ( </> )。
加载模型:
◦
在页面顶部,点击 “Select a model to load” 的下拉菜单,选择您刚刚下载的 qwen/qwen2.5-vl-7b 模型。
启动服务器:
◦
等待模型加载完毕后,点击 Start Server 按钮。
◦
当您看到日志中出现 Server started 并且状态显示为绿色的 Running 时,代表服务器已成功启动。 此窗口在后续使用中必须保持运行。
第三步:在Obsidian中配置Copilot插件
现在,我们将Obsidian连接到这个正在运行的本地服务器。
进入插件设置:
◦
打开 Obsidian,进入 设置 > 社区插件 > Copilot 的选项面板。
添加自定义模型:
◦
选择 Models 选项卡。
◦
在 Chat Models (聊天模型) 下,点击 Add Custom Model (添加自定义模型)。
填写模型配置:
添加并使用:
◦
填写完毕后,直接点击 Add Model 按钮。
◦
回到Copilot聊天窗口,在模型列表中选择刚刚添加的 Qwen 2.5 Omni ,即可开始使用。
Vision Recall插件以同样方式配置。
三、 性能优化配置
为了让模型能处理更长的对话和输出更完整的内容,可以进行以下优化。
优化一:提升上下文长度 (影响输入)
让AI 一次能“记住”多长 的对话历史。
在 LM Studio 中,进入 我的模型 (My Models) 页面。
点击 qwen/qwen2.5-vl-7b 模型,右侧会弹出默认参数设置。
Obsidian-1.8.9.exe
254.39MB
Obsidian-1.8.9.dmg
181.50MB
plugins.zip
11.56MB
评论(0)
跳转至首条评论
👻 Xuan酱的AI知识库 当前文档通知
最后更新于
这有帮助吗?