openwebui部署deepseek
时间: 2025-02-10 09:02:30 浏览: 156
### 如何在 OpenWebUI 上部署 DeepSeek
为了实现这一目标,首先需要验证 DeepSeek 是否已经成功下载并可用。通过命令 `ollama list` 可确认 DeepSeek 的版本是否已存在,预期输出应为 `deepseek-r1:latest`[^3]。
#### 启动 DeepSeek 模型服务
确保 DeepSeek 正常运行之后,在终端执行如下指令来启动模型的服务:
```bash
ollama run deepseek-r1
```
这一步骤会激活交互式的聊天模式,允许用户与 AI 进行实时交流。
对于那些希望通过编程接口访问 DeepSeek 功能的人,则可以利用 API 调试模式发送 HTTP 请求给本地服务器:
```bash
curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1", "prompt": "用python写快速排序"}'
```
此操作将触发基于指定提示词生成响应的过程。
#### 使用 Docker 安装 OpenWebUI 并连接至 DeepSeek
完成上述准备工作后,下一步就是设置 Web 用户界面以便更直观地管理和调用 DeepSeek。这里推荐采用 Docker 方式来进行 OpenWebUI 的安装,具体做法如下所示:
```dockerfile
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
--name openwebui \
--restart always \
ghcr.io/open-webui/open-webui:main
```
这段脚本不仅指定了容器映射端口(外部 3000 对应内部 8080),还设置了环境变量指向之前提到的 DeepSeek RESTful 接口地址;最后赋予了容器名称以及自动重启策略以提高稳定性。
一旦这些步骤都顺利完成,就可以打开浏览器输入 `http://localhost:3000` 来查看新搭建好的 OpenWebUI 控制面板了。
阅读全文
相关推荐




















