1.下载安装Ollama
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
2.ollama基本命令
ollama serve
ollama -v
ollama run <模型名称>
ollama rm <模型名称>
ollama create <自定义模型名称> --file <Modelfile路径>
ollama stop
ollama list
3.加载自定义模型
- Qwen/Qwen1.5-1.8B-Chat 模型为例子
3.1 下载模型
参考上一文章
3.2 量化转成GGUF格式
GGUF介绍:上一文章
python convert_hf_to_gguf.py /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat --outtype q8_0 --verbose --outfile /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat-gguf_q8_0.gguf
- 如下

3.3 定义ModelFile文件
FROM /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat-gguf_q8_0.gguf
3.4 创建模型
ollama create Qwen1___5-1___8B-Chat-gguf_q8_0 --file ./ModelFile
3.5 运行模型
ollama run Qwen1___5-1___8B-Chat-gguf_q8_0
- 结果
