安装ollama(Linux版)

一、shell一键部署

注意:这一步比较链接github慢,比较推荐二进制文件部署方式。

  • 输入下面命令一键部署:
curl -fsSL https://ollama.com/install.sh | sh

二、下载部署 

1、直接下载安装

受限于libstdc++版本,因此下载新版本ollama可能会报错不被支持

  • 直接下载后将压缩包 传到服务器上的文件夹上,解压到usr目录,输入:
sudo tar -C /usr -xzvf 你的压缩包所在位置
  •  直接启动服务,输入:
ollama serve
  • 添加ollama自启动服务(推荐,也可以不添加):
  • 创建用户组:
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
  • 创建ollama服务配置文件/etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
 
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
 
[Install]
WantedBy=default.target
  •  启动服务
sudo systemctl daemon-reload
sudo systemctl enable ollama

2、通过docker部署ollama

该方式可能会出现启用比较麻烦或者dify加不上端口的情况

  • 拉取ollama镜像:
docker pull ollama/ollama:latest
  •  运行ollama镜像:
docker run -d -p 11434:11434 --name ollama ollama/ollama:latest
  • 运行指定大模型:
docker exec -it ollama ollama run 模型名称

3、通过脚本文件部署ollama 

受限于libstdc++版本,因此下载新版本ollama可能会报错不被支持

  • 下载脚本文件到本地:
curl -fsSL https://ollama.com/install.sh -o ollama_install.sh
  • 将脚本文件内的下载链接地址进行替换,(其中包含需要下载的版本v0.9.0,如果想要其他版本可以更改,也可以到ollama官网查找最新的版本,链接如下:ollama版本链接):
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://github.com/ollama/ollama/releases/download/v0.9.0/ollama-linux|g' ollama_install.sh
  • 替换后增加可执行权限:
chmod +x ollama_install.sh
  • 执行sh下载安装:
sh ollama_install.sh

### 国内环境中安装 Ollama Linux 教程 #### 准备工作 为了顺利在国内环境安装Ollama,在开始之前需确认网络连接稳定,因为部分资源可能托管在国外服务器上。建议使用代理或镜像源加速下载过程。 #### 获取安装文件 访问Ollama官方网站获取最新Linux安装包[^4]。由于国际互联网访问可能存在延迟,推荐寻找国内的技术论坛或者社区是否有提供该软件的镜像链接以提高下载效率。 #### 解压缩与设置执行权限 下载完毕后利用如下命令解压已获得的`.tgz`格式档案: ```bash tar -xzvf ./ollama-linux-amd64.tgz ``` 随后赋予可执行权限给释放出来的二进制文件以便后续操作[^3]。 #### 配置环境变量(如果必要) 为了让系统识别新加入的应用程序路径,可以考虑把其所在目录添加到系统的PATH环境变量里去。编辑用户的shell配置文件如`.bashrc` 或者 `.zshrc`,追加相应语句指向Ollama所在的绝对路径。 #### 测试安装成果 尝试调用刚刚部署好的Ollama客户端来验证一切正常运作。比如加载预训练模型gemma:7b 和 qwen:1.8b, 这两个模型以其快速响应著称,并且能够通过HTTP接口或是CLI方式进行交互[^2]: ```bash ./ollama --help ``` #### 推送自定义模型至平台 当拥有自己训练过的模型时,可以通过特定指令上传分享自己的作品: ```bash ollama push <your_username>/example ``` 这一步骤允许其他开发者基于共享的基础之上进一步探索和发展[^5]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值