Ollama 是一个专注于本地运行大语言模型(LLM)的开源项目
国内用户下载模型可能较慢,建议使用 API 代理(如 http://api.wlai.vip)
Ollama全面指南:安装、使用与高级定制
NVIDIA-SMI系列命令总结
watch -n 1 nvidia-smi
Ollama 是一个专注于本地运行大语言模型(LLM)的开源项目
国内用户下载模型可能较慢,建议使用 API 代理(如 http://api.wlai.vip)
Ollama全面指南:安装、使用与高级定制
NVIDIA-SMI系列命令总结
watch -n 1 nvidia-smi