科普:在你的笔记本中装个DeepSeek玩玩

一、安装方法

1、安装Ollama工具

Ollama 是一个开源工具,专注于在本地运行和管理大型语言模型(LLMs,Large Language Models)。它旨在简化 LLMs 的部署和使用,Ollama 是一个可以轻松在本地运行大语言模型的工具,可以在 Windows、WSL、Linux 等多种环境下安装。
如,在 Windows中安装
从https://github.com/ollama/ollama/blob/main/README.md的readme文档中的windows项下,
download: OllamaSetup,下载成功,安装它。安装完成后 Ollama 就启动了,在任务栏显示图标,通常是小羊驼的图标。“开始”找“ollama”,找到应用的位置,进入,对应用,发送快捷方式到桌面。点击快捷方式启动它
在命令提示符中输入ollama -v,如果安装并启动了 Ollama,会显示 Ollama 的版本信息
打开浏览器,输入http://localhost:11434,如果出现Ollama is running的字样,证明安装成功

2、安装DeepSeek

可以在 Ollama 模型库 (https://ollama.com/library)查看可用的模型列表,选择符合你需求的模型,里面有安装的命令行,
如,ollama run deepseek-r1:8b安装 DeepSeek-R1-Distill-Llama-8B 模型。这里费时。
试试:
启动ollama服务:ollama serve
启动对话:ollama run deepseek
退出对话:ctrl+C

二、使用方法

在通过Ollama安装好DeepSeek模型后,你可以按照以下步骤使用它,以下分别介绍在命令行和通过API的使用方式:

1、命令行使用

1. 启动对话

在安装好Ollama并且DeepSeek模型已经就绪后,你可以使用以下命令启动与DeepSeek模型的交互会话:

ollama run deepseek-r1:8b

执行此命令后,Ollama会启动DeepSeek模型,并等待你输入问题或提示。

2. 输入问题并获取回答

当看到命令行出现等待输入的提示时,你可以输入问题或指令,然后按回车键。例如:

你输入的问题或指令

DeepSeek模型会对输入进行处理,并在下方输出回答。

3. 退出对话

如果你想结束当前的对话会话,可以在命令行中按下 Ctrl + C

4. 自
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值