chatbox如何调用本地部署的deepseek模型?
时间: 2025-03-03 18:27:45 浏览: 76
### 如何从聊天框应用调用本地安装的 DeepSeek 模型 API
为了实现从聊天框应用程序调用本地部署的 DeepSeek 模型,可以遵循如下方法构建请求并发送给 Ollama 的 `/api/generate` 端点。此端点不同于 OpenAI 的兼容 API。
#### 构建 HTTP 请求
当准备向 `http://localhost:11434/api/generate` 发起 POST 请求时,需设置合适的头部信息以及 JSON 格式的主体内容。具体来说:
- **URL**: 使用默认情况下 Ollama 监听于本机地址 11434 端口上的路径 `/api/generate`。
- **Headers (头)**: 设置 `"Content-Type"` 为 `"application/json"` 来指明所传入的数据格式。
- **Body (体)**: 提供必要的参数作为 JSON 对象的一部分,比如模型名称 (`model`) 和输入提示 (`prompt`)。
```python
import requests
import json
url = "http://localhost:11434/api/generate"
headers = {"Content-Type": "application/json"}
data = {
"model": "deepseek-chat:latest",
"prompt": "你好,世界!"
}
response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())
```
这段代码展示了如何通过 Python 向本地运行的服务发起一次简单的对话请求[^1]。
对于集成到实际的应用程序中,特别是前端部分如聊天框界面,则可能涉及到更多细节处理,例如错误管理、异步通信机制等。通常会采用 JavaScript 或其他适合 Web 开发的语言和技术栈来进行这部分开发工作,在服务器端则继续沿用上述方式与模型交互。
阅读全文
相关推荐


















