vllm+openweb-ui部署deepseek-r1
时间: 2025-03-03 17:39:51 浏览: 218
### 部署带有 VLLM 和 OpenWeb-UI 的 DeepSeek-R1
为了实现包含VLLM (Very Large Language Model)和OpenWeb-UI的DeepSeek-R1部署,可以遵循如下方法:
#### 准备工作环境
确保已经安装并配置好Docker以及相关依赖项。这一步骤对于后续操作至关重要。
#### 下载所需镜像
利用 Docker 命令拉取所需的镜像文件:
```bash
docker pull ollama/deepseek-r1:1.5b-vllm-openwebui
```
此命令会下载集成有VLLM支持及OpenWeb-UI界面的特定版本DeepSeek-R1镜像[^1]。
#### 启动容器服务
启动含有指定参数设置的服务实例:
```bash
docker run -d --name=deepseek-r1-vllm-webui \
-p 7860:7860 \
ollama/deepseek-r1:1.5b-vllm-openwebui
```
上述指令中`-p 7860:7860`用于映射主机端口到容器内部服务监听地址;`--name=...`定义了新创建容器的名字以便于管理[^2]。
#### 访问图形化界面
打开浏览器访问 `http://localhost:7860` 即可进入由OpenWeb-UI提供的交互页面,在这里能够方便地测试与调优大型语言模型的各项功能特性。
#### 进入容器执行更多命令
如果需要进一步定制或调试,则可以通过以下方式获得shell权限:
```bash
docker exec -it deepseek-r1-vllm-webui /bin/bash
```
这样就可以直接在运行中的容器内进行更深入的操作了。
阅读全文
相关推荐














