Ubuntu中docker里面部的ollama对deepseek-coder 模型下载
时间: 2025-03-02 08:16:02 AIGC 浏览: 80
### 部署Ollama并下载DeepSeek-Coder模型
#### 安装Docker
为了确保Docker已正确安装,在终端输入命令来验证版本:
```bash
docker --version
```
如果未安装,则需按照官方指南完成安装。
#### 启动Docker容器
创建并启动一个新的Docker容器用于运行Ollama服务。这一步骤假设读者已经具备基本的Linux命令行操作技能以及对Docker有一定了解[^1]。
```bash
docker run -d --name open-webui -p 7860:7860 your_image_name
```
这里的`your_image_name`应替换为实际使用的镜像名称,而端口号可以根据实际情况调整。
#### 登录容器内部
使用以下指令登录到刚才启动的容器内执行后续命令:
```bash
docker exec -it open-webui /bin/bash
```
此命令允许用户进入正在运行中的容器环境中继续配置工作。
#### 创建Conda环境
建议在开始之前先激活特定的工作环境以保持依赖项隔离。对于本案例而言,是在名为`self-llm`的环境下进行操作[^2]:
```bash
conda activate /root/miniconda3/envs/self-llm
```
#### 下载DeepSeek-Coder模型
最后,利用Ollama提供的工具拉取所需的预训练模型文件。具体来说就是通过指定URL地址获取目标模型deepseek-coder:
```bash
ollama pull https://www.ollama.com/library/deepseek-coder
```
上述过程描述了如何基于Ubuntu平台下的Docker容器成功部署Ollama框架,并从中下载所需的大规模语言模型实例——即deepseek-coder的过程。
阅读全文
相关推荐




















