deekseek 本地部署
时间: 2025-02-07 07:10:44 浏览: 132
### deekseek 本地部署指南
#### 准备工作
为了顺利部署deekseek,在开始之前需确认操作系统环境已准备好。对于Windows、MacOS以及Linux的不同路径下,ollama会默认安装模型文件至特定目录[^3]。
- **Windows**: `C:\Users\%username%\.ollama\models`
- **MacOS**: `~/.ollama/models`
- **Linux**: `/usr/share/ollama/.ollama/models`
建议提前规划好存储位置并调整相应权限设置以避免后续不必要的麻烦。
#### 配置Ollama模型
创建Ollama模型配置文件是关键步骤之一。此过程涉及指定基础模型路径、模板字符串及参数设定等内容[^2]:
```dockerfile
FROM ./deepseek-r1-7b-chat-q4_k_m.gguf
TEMPLATE """
{{- if .System }}
<|system|>{{.System}}</s>
{{end -}}
<|user|>{{.Prompt}}</s>
<|assistant|>"""
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1
PARAMETER num_ctx 4096
ADAPTER ./ollama-deepseek/tokenizer
```
上述Docker风格的指令定义了用于推理服务的基础镜像、输入输出格式化方式以及其他超参调节选项。
#### 安装与启动
按照官方提供的《deekseek-r1本地部署指南极简版》完成剩余操作即可实现完整的本地部署流程[^1]。通常情况下这包含了但不限于依赖库安装、环境变量配置和服务端口映射等工作项。
阅读全文
相关推荐

















