DeepSeek 本地部署

1. 安装 Ollama

步骤:

  1. 访问 Ollama 官网下载页面: Download Ollama on macOS

  2. 根据您的操作系统(Windows/macOS/Linux)下载对应的安装包

  3. 下载完成后,双击安装包进行安装

  4. 安装成功后,Ollama 服务会自动启动

  5. 验证安装是否成功: 打开终端/命令行,执行以下命令:

    ollama -v

    如果显示版本号(如:ollama version 0.1.xx),则表示安装成功

2. 部署 DeepSeek-R1 1.7B 模型

步骤:

  1. 在终端中执行以下命令:

    ollama run deepseek-r1:1.7b
  2. 等待模型下载完成(下载时间取决于网络速度)

  3. 下载完成后会自动进入交互式命令行界面,显示提示符:

    >>>
  4. 使用示例:

    >>> 初次见面,请做个自我介绍?

    模型会生成回答

  5. 退出交互界面:

    >>> /exit

3. 查看可用模型版本

可以通过以下资源查询 Ollama 支持的所有模型: Ollama Model Library

4. 安装 Web UI(可选)

前提条件:

已安装 Miniconda3 或 Anaconda3

安装步骤:

  1. 安装 Open WebUI:

    pip install open-webui
  2. 启动 Web UI 服务(使用 5555 端口):

    open-webui serve --port 5555
  3. 启动成功后,在浏览器中访问: http://localhost:5555

  4. 首次使用需要创建账号,登录后即可通过网页界面与模型交互


附:Ollama常用命令

命令说明
ollama list查看已安装的模型
ollama run <model-name>运行指定模型
ollama pull <model-name>下载模型但不运行
/exit退出模型交互界面
/bye退出模型交互界面(同 /exit)

提示:首次运行模型时会自动下载所需文件,请确保网络连接稳定。模型文件默认存储在 ~/.ollama/models 目录下(Linux/macOS)或 C:\Users\<用户名>\.ollama\models(Windows)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

GawynKing

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值