大家好,我是邵奈一,一个不务正业的程序猿、正儿八经的斜杠青年。
1、世人称我为:被代码耽误的诗人、没天赋的书法家、五音不全的歌手、专业跑龙套演员、不合格的运动员…
2、这几年,我整理了很多IT技术相关的教程给大家,爱生活、爱分享。
3、如果您觉得文章有用,请收藏,转发,评论,并关注我,谢谢!
博客导航跳转(请收藏):邵奈一的技术博客导航
| 公众号 | 微信 | CSDN | 掘金 | 51CTO | 简书 | 微博 |
教程目录
0x00 教程内容
- 安装ollama
- 跑llama2-chinese大模型
- 安装并使用ollama-webui
问题一:ollama是什么?
- 其实ollama就跟Docker类似,可以拉取模型,然后跑模型,达到一键部署的效果,非常好用。目前支持Mac、Linux版本,Win版本正在适配中。
问题二:玩此篇教程,需要哪些前置环境?
- 需要先安装好Git、Docker、科学工具。
0x01 安装ollama
1. 下载地址
地址为:https://ollama.ai/download
装好后就可以用了。
2. 模型选择
ollama大模型地址:
https://ollama.ai/library
网址里有很多模型供选择:
点击进入之后,会有很多种版本选择:
右侧有对应的运行命令,其实跟Docker非常相似,此处我选择llama2-chinese:13b
模型(建议大家先跑个小的,我的Mac设备配置是m1 max 64G)。
0x02 跑llama2-chinese大模型
1. 拉取模型
命令如下(经测试,不需科学):
ollama pull llama2-chinese:13b
速度拉满,等待一会则显示成功: