本地快速部署谷歌开放模型Gemma教程(基于LMStudio)

这篇教程介绍了如何在本地Windows环境下,利用LM Studio和Mix Copilot部署和运行谷歌的Gemma模型。LM Studio用于运行模型,而Mix Copilot提供可视化操作和功能如数据爬取、知识搜索、多任务处理等。通过简单的配置步骤,用户可以在没有GPU的情况下,仅使用CPU部署并使用Gemma。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本地快速部署谷歌开放模型Gemma教程(基于LMStudio)

一、介绍 Gemma

在这里插入图片描述
Gemma是一系列轻量级、最先进的开放式模型,采用与创建Gemini模型相同的研究和技术而构建。可以直接运行在本地的电脑上,无GPU也可以运行,只用CPU即可,只不过速度慢点。

二、部署 Gemma

2.1 部署工具

使用 Windows 环境 + LM Studio + Mix Copilot 二个工具部署Gemma,LM Studio 用来运行模型,Mix Copilot 用于可视化操作使用。

LM Studio:https://lmstudio.ai/

LM Studio 是一个发现、下载和运行本地LLMs的软件

通过 LM Studio,您可以…
🤖 - 在您的笔记本电脑上运行LLMs,完全离线
👾 - 通过应用内聊天 UI 或 OpenAI 兼容的本地服务器使用模型
📂 - 从 HuggingFace 🤗 存储库下载任何兼容的模型文件
🔭 - 在应用程序主页中发现新的、值得注意的LLMs

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值