1.安装运行ollama
ollama下载
https://ollama.com/download/windows
验证ollama是否安装成功
ollama --version
访问ollama本地地址:
http://localhost:11434/
出现如下界面
ollama运行模型
ollama run llama3.2
ollama常用操作命令
启动 Ollama 服务:
ollama serve
停止 Ollama 服务:
ollama stop
重启 Ollama 服务:
ollama restart
更新 Ollama:
ollama update
拉取模型:
ollama pull <model-name>
eg: ollama pull llama2
列出本地模型:
ollama list
2.安装deepseek-r1模型