Ollama安装部署及加载自定义量化Qwen大模型

1.下载安装Ollama

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

2.ollama基本命令

# 启动 Ollama 服务
ollama serve

# 查看启动状况
ollama -v

# 运行模型
ollama run <模型名称>

# 删除本地已下载的模型
ollama rm <模型名称>

# 创建自定义模型
ollama create <自定义模型名称> --file <Modelfile路径>

# 停止Ollama服务
ollama stop

# 列出本地模型
ollama list

3.加载自定义模型

  • Qwen/Qwen1.5-1.8B-Chat 模型为例子

3.1 下载模型

参考上一文章

3.2 量化转成GGUF格式

GGUF介绍:上一文章

python convert_hf_to_gguf.py /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat --outtype q8_0 --verbose --outfile /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat-gguf_q8_0.gguf
  • 如下
    在这里插入图片描述

3.3 定义ModelFile文件

  • ModelFile文件内容
FROM /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat-gguf_q8_0.gguf

3.4 创建模型

ollama create Qwen1___5-1___8B-Chat-gguf_q8_0 --file ./ModelFile

3.5 运行模型

ollama run Qwen1___5-1___8B-Chat-gguf_q8_0
  • 结果
    在这里插入图片描述
### 部署 Qwen2.5-Omni 模型至 Ollama 平台 为了成功将 Qwen2.5-Omni 模型部署Ollama 平台上,以下是详细的配置说明和技术要点: #### 1. 准备环境并安装必要库 在开始之前,需确保本地环境中已安装所需的 Python 库来支持模型的下载与管理。可以通过以下命令完成依赖项的安装: ```bash pip install transformers # 提供预训练模型架构和工具[^1] pip install accelerate # 加速模型训练和推理 pip install modelscope # 支持模型下载与管理 ``` 这些库能够帮助加载、优化以及加速大型语言模型的操作。 #### 2. 下载 Qwen2.5-Omni 模型文件 通过 ModelScope 或其他官方渠道获取目标模型权重文件。具体操作可以参考魔搭平台上的文档指引[^2]。如果选择手动方式,则需要指定存储路径并将模型保存为 `.bin` 文件或其他兼容格式。 #### 3. 转换模型结构适配 Ollama 由于 Ollama 对特定框架有独特需求(例如 GGML/GGUF),因此可能涉及转换过程。此阶段通常利用开源脚本实现,比如 `transformers` 中提供的导出功能或者社区贡献的相关工具包。执行如下代码片段用于生成适合导入的目标二进制数据集: ```python from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_id = 'qwen/Qwen2.5-Omni' # 替换实际 ID 地址 tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained( model_id, trust_remote_code=True, low_cpu_mem_usage=True ) # 导出量化后的版本给 Ollama 使用 output_path = './ollama_model' torch.save({ 'state_dict': model.state_dict(), }, f'{output_path}/pytorch_model.bin') print(f'Model saved to {output_path}') ``` 注意上述方法适用于 PyTorch 架构下的实例化对象;对于不同后端引擎,请调整相应参数设置。 #### 4. 启动 Ollama 服务并与新加入模块集成 最后一步是在运行态容器内引入刚创建好的自定义资产,并验证其可用状态。假设已经具备基础镜像构建流程的知识背景,在 Dockerfile 添加类似这样的指令即可完成最终组装环节: ```dockerfile COPY ./ollama_model /app/models/qwen2_5_omni/ RUN ollama build --format ggmlv3 qwen2_5_omni CMD ["ollama", "serve"] ``` 至此整个迁移周期结束,用户可通过 RESTful 接口调用该实例参与对话交互任务。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值