1. ollama 安装
2. 下载qwen3
选择对应的模型尺寸参数,我的电脑最多支撑8b,因此下载8b。
注意
- 确保你的设备满足 Qwen3 模型的 GPU 内存要求。GPU的内存与模型大小的计算可参考:
- 模型所需GPU内存大小≈模型大小×1.2
将以下命令复制到终端运行
ollama run qwen3:8b
模型下载后,可以在终端直接进行对话:
3. Obsidian中配置Qwen3
- 安装copilot插件
若obsidian中未安装copilot插件,先在插件社区搜索copilot进行安装(需要魔法):
- 安装完成后,需要启用插件,然后点击第三方插件中的“copilot”进行模型配置;
- 配置ollama的环境,在powershell中输入以下命令
ollama pull qwen3:8b
$env:OLLAMA_ORIGINS="app://obsidian.md*"; ollama serve
若出现以下错误,是ollama程序未退出,关闭后重新输入配置环境命令即可解决
Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted.
- 点击 add custom model ,配置刚才下载的模型,provider选择ollama;
- 点击verify,然后 add model,即添加成功。
4. 在Obsidian中使用Qwen3模型
- 打开copilot chat
- 输入提示词就可以使用了,但是Qwen3默认是思考模式,一句"hello"都可以陷入思考,若一些简单的问题,可以手动输入/nothink避免沉思。
注意事项
- ollama官网有许多开源模型可供下载,可以按需选择并配置;
- 若配置不成功,需检查是否配置好了ollama的环境。