使用 Python 调用 Ollama API 并调用 deepseek-r1:8b 模型
ollama 是一个强大的本地大语言模型工具,支持多种开源模型,例如 deepseek-r1:8b。通过 Ollama 的 API,我们可以轻松调用这些模型来完成文本生成、对话等任务。这里记录一下如何使用 Python 调用 Ollama API,并调用 deepseek-r1:8b 模型生成文本。
准备工作
在开始之前,确保你已经完成以下准备工作:
-
安装 Ollama:
如果你还没有安装 Ollama,可以参考 Ollama 官方文档 进行安装。
安装完成后,启动 Ollama 服务。默认情况下,API 会在 http://localhost:11434 上运行。
-
下载 deepseek-r1:8b 模型:
使用以下命令下载 deepseek-r1:8b 模型:
ollama pull deepseek-r1:8b
-
安装 Python 的 requests 库:
这里将使用 requests 库来发送 HTTP 请求。如果还没有安装,可以通过以下命令安装:
pip install requests
调用 Ollama API
在此之前可以了解一下每个api大概得作用
API名称 | 功能描述 |
---|---|
Generate |
根据输入的提示生成文本,适用于文本生成任务。 |
Chat |
进行对话交互,模拟聊天机器人等场景。 |
Embeddings |
生成文本的嵌入向量,用于文本相似性比较、聚类等任务。 |
Pull |
从 Ollama 服务器下载指定的模型到本地。 |
List |
列出本地已下载的模型,查看当前可用的模型。 |
Delete |
删除本地存储的模型,释放存储空间。 |
Show |
显示模型的详细信息,如参数、版本等。 |
Copy |
复制一个模型到另一个名称,便于创建模型的副本。 |
Create |
基于现有模型创建自定义模型,支持自定义参数和配置。 |
Health Check |
检查 Ollama 服务的运行状态,确认服务是否正常。 |
使用generate
使用generate
api主要是生成一次内容,这个并没有记录功能,实现代码如下:
# -*- coding: utf-8 -*-
import requests
# Ollama API 的 URL
url = "http://localhost:11434/api/generate"
res