使用ollama本地跑大模型

本文介绍如何在本地安装ollama,拉取并运行llama2-chinese大模型,以及安装ollama-webui进行可视化交互。教程详细讲解了从安装到使用的每一步,适合具备Git、Docker基础的读者。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

大家好,我是邵奈一,一个不务正业的程序猿、正儿八经的斜杠青年。
1、世人称我为:被代码耽误的诗人、没天赋的书法家、五音不全的歌手、专业跑龙套演员、不合格的运动员…
2、这几年,我整理了很多IT技术相关的教程给大家,爱生活、爱分享。
3、如果您觉得文章有用,请收藏,转发,评论,并关注我,谢谢!
博客导航跳转(请收藏):邵奈一的技术博客导航
| 公众号 | 微信 | CSDN | 掘金 | 51CTO | 简书 | 微博 |


0x00 教程内容

  1. 安装ollama
  2. 跑llama2-chinese大模型
  3. 安装并使用ollama-webui

问题一:ollama是什么?

  • 其实ollama就跟Docker类似,可以拉取模型,然后跑模型,达到一键部署的效果,非常好用。目前支持Mac、Linux版本,Win版本正在适配中。

问题二:玩此篇教程,需要哪些前置环境?

  • 需要先安装好Git、Docker、科学工具。

0x01 安装ollama

1. 下载地址

地址为:https://ollama.ai/download
在这里插入图片描述
装好后就可以用了。

2. 模型选择

ollama大模型地址:

https://ollama.ai/library

网址里有很多模型供选择:
在这里插入图片描述
点击进入之后,会有很多种版本选择:

在这里插入图片描述
右侧有对应的运行命令,其实跟Docker非常相似,此处我选择llama2-chinese:13b模型(建议大家先跑个小的,我的Mac设备配置是m1 max 64G)。

0x02 跑llama2-chinese大模型

1. 拉取模型

命令如下(经测试,不需科学):

ollama pull llama2-chinese:13b

在这里插入图片描述

速度拉满,等待一会则显示成功:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

邵奈一

教育是一生的事业。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值