一、安装方法
1、安装Ollama工具
Ollama 是一个开源工具,专注于在本地运行和管理大型语言模型(LLMs,Large Language Models)。它旨在简化 LLMs 的部署和使用,Ollama 是一个可以轻松在本地运行大语言模型的工具,可以在 Windows、WSL、Linux 等多种环境下安装。
如,在 Windows中安装
从https://github.com/ollama/ollama/blob/main/README.md的readme文档中的windows项下,
download: OllamaSetup,下载成功,安装它。安装完成后 Ollama 就启动了,在任务栏显示图标,通常是小羊驼的图标。“开始”找“ollama”,找到应用的位置,进入,对应用,发送快捷方式到桌面。点击快捷方式启动它
在命令提示符中输入ollama -v,如果安装并启动了 Ollama,会显示 Ollama 的版本信息
打开浏览器,输入http://localhost:11434,如果出现Ollama is running的字样,证明安装成功
2、安装DeepSeek
可以在 Ollama 模型库 (https://ollama.com/library)查看可用的模型列表,选择符合你需求的模型,里面有安装的命令行,
如,ollama run deepseek-r1:8b安装 DeepSeek-R1-Distill-Llama-8B 模型。这里费时。
试试:
启动ollama服务:ollama serve
启动对话:ollama run deepseek
退出对话:ctrl+C
二、使用方法
在通过Ollama安装好DeepSeek模型后,你可以按照以下步骤使用它,以下分别介绍在命令行和通过API的使用方式:
1、命令行使用
1. 启动对话
在安装好Ollama并且DeepSeek模型已经就绪后,你可以使用以下命令启动与DeepSeek模型的交互会话:
ollama run deepseek-r1:8b
执行此命令后,Ollama会启动DeepSeek模型,并等待你输入问题或提示。
2. 输入问题并获取回答
当看到命令行出现等待输入的提示时,你可以输入问题或指令,然后按回车键。例如:
你输入的问题或指令
DeepSeek模型会对输入进行处理,并在下方输出回答。
3. 退出对话
如果你想结束当前的对话会话,可以在命令行中按下 Ctrl + C
。