ollama open webui本地部署大模型
时间: 2024-12-29 18:23:25 浏览: 253
### 部署 Ollama 和 Open WebUI 的环境准备
为了在本地环境中成功部署Ollama和Open WebUI,确保计算机满足最低硬件要求并已安装必要的软件依赖项[^1]。
- **操作系统**: 支持Windows、macOS以及Linux。
- **Python版本**: 推荐使用Python 3.8以上版本。
- **其他工具**: 安装Docker以简化容器化应用的管理和部署过程;Git用于克隆项目仓库。
### 下载与配置 Ollama 及其关联组件
获取最新版Ollama源码或二进制文件,并按照官方文档指示完成初步设置工作。对于希望快速上手的新用户来说,利用预构建镜像可能是最便捷的方式之一。
```bash
git clone https://github.com/ollama-project/ollama.git
cd ollama
docker-compose up -d --build
```
上述命令会自动拉取所需资源并启动服务端口监听于`localhost:7860`处等待进一步指令。
### 构建及运行 Open WebUI 应用程序
接着转向前端部分——即图形化的交互平台建设:
#### 获取代码库
前往指定页面下载对应分支下的压缩包或是直接运用Git客户端执行如下操作来同步远程仓库至本地磁盘内:
```bash
git clone https://github.com/open-webui/webui.git
```
#### 修改默认参数设定
编辑位于根目录下名为`.env.example`的环境变量定义文件(可根据实际情况调整),重命名为`.env`以便生效:
```plaintext
PORT=3000
OLLAMA_API_URL=http://localhost:7860/api/v1/
SECRET_KEY=some_random_string_here
DEBUG=True
ALLOWED_ORIGINS=localhost,127.0.0.1
```
此处特别注意API接口路径需指向先前已经激活的服务实例位置[^2]。
#### 启动Web应用程序
确认所有前置条件均已妥善处理完毕之后,切换到项目所在的工作空间里边去触发下列脚本从而开启HTTP服务器进程供外部访问连接之用:
```bash
npm install && npm run dev
```
此时应当能够在浏览器中通过访问`http://localhost:3000`看到预期中的登陆界面了。
阅读全文
相关推荐



















