idea接入ollama完成本地部署大模型
时间: 2025-07-28 16:35:59 浏览: 14
在 IntelliJ IDEA 中集成 Ollama 并部署本地大模型(如 DeepSeek R1)可以通过以下几个步骤完成。以下内容基于 Ollama 的运行方式以及 IntelliJ IDEA 的插件支持进行说明。
### 配置本地 Ollama 环境
首先确保已经在本地系统上安装并运行 Ollama。Ollama 是一个轻量级的工具,用于在本地运行大型语言模型。可以通过以下方式启动 DeepSeek 模型:
```bash
ollama run deepseek-r1:7b
```
此命令会加载 DeepSeek 模型,并准备进行推理[^3]。
### 在 IntelliJ IDEA 中集成 Ollama
IntelliJ IDEA 提供了多种插件来支持 AI 辅助编程,其中 CodeGPT 插件可以用于集成本地模型。以下是集成步骤:
#### 1. 安装 CodeGPT 插件
- 打开 IntelliJ IDEA,进入 **Settings (Preferences)**。
- 选择 **Plugins**,在搜索框中输入 `CodeGPT`。
- 找到插件并点击 **Install** 进行安装。
- 安装完成后重启 IntelliJ IDEA。
#### 2. 配置本地模型
- 打开 **Settings (Preferences)**,进入 **Other Settings** > **CodeGPT Settings**。
- 在 **Model** 部分选择 **Custom**,并输入本地模型的地址。例如,如果 Ollama 在本地运行,则地址为 `http://localhost:11434/api/generate`。
- 选择模型名称,如 `deepseek-r1:7b`。
- 保存设置。
#### 3. 使用模型进行代码辅助
- 在代码编辑器中,使用 CodeGPT 插件提供的快捷键(如 `Ctrl + Alt + G`)触发 AI 辅助功能。
- 输入自然语言描述,插件将调用本地运行的 DeepSeek 模型生成代码建议或完成代码片段。
### 示例代码:调用本地模型的 API
如果你希望在 Spring Boot 项目中直接调用 Ollama 提供的 API,可以使用如下示例代码发送请求:
```java
import org.springframework.web.client.RestTemplate;
import org.springframework.http.ResponseEntity;
import com.fasterxml.jackson.databind.ObjectMapper;
public class OllamaClient {
private static final String OLLAMA_URL = "http://localhost:11434/api/generate";
public static void main(String[] args) throws Exception {
RestTemplate restTemplate = new RestTemplate();
ObjectMapper mapper = new ObjectMapper();
String requestBody = "{ \"model\": \"deepseek-r1:7b\", \"prompt\": \"Write a function to calculate the Fibonacci sequence.\" }";
ResponseEntity<String> response = restTemplate.postForEntity(OLLAMA_URL, requestBody, String.class);
System.out.println(response.getBody());
}
}
```
上述代码使用 Spring 的 `RestTemplate` 向本地运行的 Ollama 发送请求,并获取模型生成的响应。
### 总结
通过安装 Ollama 并运行 DeepSeek 模型,结合 IntelliJ IDEA 的 CodeGPT 插件,可以轻松地在开发环境中集成本地 AI 模型。此外,也可以通过编写代码直接调用 Ollama 提供的 REST API 来实现更灵活的集成方式[^3]。
---
阅读全文
相关推荐

















