免费好软件分享 SD AI做图,Stable Diffusion 下载+安装+使用教程

文章概要

本教程介绍了一种使用“整合包”在本地部署和安装Stable Diffusion WebUI的方法,无需深入了解计算机知识,对新手非常友好。要注意的是,安装时需要预留100G到200G的磁盘空间,并且对电脑的显卡要求较高。

前言

本文介绍的工具是【绘世整合包】,由秋叶大佬开发,是目前市面上最简便的Stable Diffusion整合包之一。这个整合包跳过了大部分需要网络和Python知识的步骤,集成了过去几个月里AI绘画领域最核心的插件,如ControlNet,并且自带最新的深度学习模块。整合包能够与外部环境完全隔离,即便没有任何编程背景的人,也可以从零开始学习使用Stable Diffusion,并在几乎不需要进行额外设置的情况下,立即体验最新的技术成果。

什么是Stable Diffusion(SD)?

Stable Diffusion是于2022年发布的深度学习模型,用于将文本转换为图像。它是一种潜在扩散模型,由创业公司Stability AI与多个学术研究机构和非营利组织合作开发。目前,Stable Diffusion的源代码和模型已经开源,由AUTOMATIC1111在GitHub上维护,全球开发者正在共同推进其发展。虽然完整版对网络环境有一定要求,但国内开发者已经封装了多个本地化版本,极大地推动了其普及。

Stable Diffusion的一个重要特点是可以在本地离线运行,只需配备至少8GB显存的中档GPU即可。笔者建议显存最好为12GB以上。由于AI模型训练和生成的原理涉及软硬件结合的深度学习技术,因此通常需要使用NVIDIA显卡(如CUDA、CUDNN)以及Python相关的深度学习组件(如xformer、pytorch)。学习AI进阶知识时,经常需要掌握这些编程技术,这对新手来说可能会有一定难度。而使用绘世整合包,可以有效避免这些复杂操作,安装和使用更加简单明了。

SD的基本概念

  • 大模型:是通过大量素材和SD基础模型(如SD1.5/SD1.4/SD2.1)进行深度学习后生成的,可以直接用于图像生成,决定了最终生成图像的大方向。大模型的文件格式通常为CKPT或SAFETENSORS。

  • VAE:类似于滤镜的功能,它是对大模型的补充,能够稳定图像的色彩范围。通常也以CKPT或SAFETENSORS格式存在。

  • LoRA:是一种模型插件,是基于某个大模型进行深度学习后生成的小模型。需要配合大模型使用,可以在一定范围内影响生成图像的风格,或者增加大模型中不存在的元素。如果LoRA基于SD基础模型进行训练,那么它在不同大模型之间切换时具有较好的通用性;但如果基于特定大模型进行训练,则在配合该大模型使用时可能会有更好的效果。

  • ControlNet:这是一个强大的插件,使Stable Diffusion能够通过现有图像提取线条或景深信息,然后反向应用于图像处理,使生成效果更具指导性。

  • Stable Diffusion Web-UI(SD-WEBUI):由开源社区的AUTOMATIC1111开发的基于Stability AI算法的开源软件,允许用户在浏览器中通过图形界面控制Stable Diffusion。

绘世整合包的优势

绘世整合包解决了使用WebUI时对网络和Python环境的高要求。它内置了与系统隔离的Python环境,并集成了Git工具,用户无需了解这些软件的使用方法即可运行程序。这样一来,大大降低了使用门槛,使更多的人能够轻松体验AI图像生成的乐趣。

一、Stable Diffusion

这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

二、Stable Diffusion 安装

我们可以先安装启动器的运行依赖,并解压包本体。

第一步:打开“启动器运行依赖-dotnet-6.0.11.exe”来安装。

第二步:解压“sd-webui-aki

注意:当我们解压好启动器本体的时候,暂时还不要启动,先一起把模型安装了。

第三步:导入核心数据。

1、下载“推荐大模型”文件夹中的模型。大模型可以在https://www.liblib.art/下载

2、并把文件夹里的所有模型

放在这个目录下:\sd-webui-aki-v4\models\Stable-diffusion

3、同时,还要下载ControlNet模型。

4、ControlNet模型文件夹里的所有内容,放在这个目录下:\sd-webui-aki-v4\models\ControlNet

5、最后,需要单独下载推荐LoRA。

6、这些LoRA是笔者为了方便小伙伴们取用改了名的,需要全部放在这个目录下:sd-webui-aki-v4\extensions\sd-webui-additional-networks\models\lora

三、Stable Diffusion 使用教程开启软件运行。

解压并导入完毕上述数据之后,就可以点开启动器了。

1、在安装目录下往下拉,找到这个“A启动器.exe",双击。

2、再点击右下角的一键启动。

3、再让这个界面多跑一会儿。

4、就可以看到它自动在浏览器中打开了一个新的网页,就算是启动成功了。

注意:

有时候会出现警告错误或缺少模块,但是又不会影响正常运行。如果它没自动打开,可以手工去浏览器输入网址:http://127.0.0.1:7860

5、最终的效果。例如:输入一个关键词“一个美女”,点击“生成”,结果效果图如下:

总结:

不过这玩意10G,加了一些lora,controNet,大模型,一下子就70个G,效果还不错,不过大部分都是civitai中直接下载别人训练好的模型。

Stable Diffusion Github官方托管地址:

https://github.com/Stability-AI/stablediffusion

1、打开软件,左上角模型选择刚才下载的3Guofeng3_v32Light

2、选图生图 – 局部重绘。把要去掉的衣服用

3Guofeng3模型下载地址:

1、C站模型主页:https://civitai.com/models/10415/3-guofeng3

这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

<think>嗯,用户想安装Stable Diffusion的DPM++ 2M Karras采样器。首先,我需要确认用户使用的是哪个平台,比如Automatic1111的WebUI还是ComfyUI。因为不同的平台安装步骤可能不同。 根据引用[4],Stable Diffusion的采样器通常集成在WebUI中,比如Automatic1111的版本。所以可能用户需要先确认他们的WebUI版本是否已经包含这个采样器。如果已经更新到最新版,可能DPM++ 2M Karras已经存在了。比如引用[1]提到DPM++2M Karras是其中一个系列,可能属于内置的采样器。 那用户可能需要先更新他们的WebUI。步骤大概是进入安装目录,运行git pull命令。如果有扩展管理器的话,可能还需要更新扩展。不过,如果DPM++ 2M Karras属于核心的一部分,可能不需要额外安装,只需要确认版本是否支持。 另外,引用[3]提到DPM-Solver++需要高阶求解器,可能某些实现需要额外的依赖库,比如xformers或者CUDA工具包。用户可能需要安装这些依赖项,但如果是通过WebUI安装的话,可能已经包含这些了。 也有可能用户遇到问题,比如采样器没有显示出来,这时候需要检查日志或者重新安装依赖。或者,如果是自定义的采样器,可能需要从GitHub下载代码,但根据引用[4],DPM++系列可能已经集成在主流UI中,不需要额外安装。 总结步骤应该是:1. 更新WebUI到最新版;2. 检查可用采样器列表;3. 如果找不到,可能检查扩展或重新安装依赖;4. 测试采样器是否正常工作。同时,注意用户是否需要特定的配置,比如Karras调度器,这在引用[2]中提到可能需要选择正确的调度方式。</think>### Stable Diffusion DPM++ 2M Karras 采样器安装指南 #### 1. 确认基础环境 - **Stable Diffusion WebUI 版本**:DPM++ 2M Karras 采样器通常集成在主流 WebUI 中(如 **Automatic1111** 或 **ComfyUI**)。需确保 WebUI 已更新至最新版本[^3][^4]。 - **依赖库检查**:若使用原生代码库,需安装 `xformers` 和 `torch` 等依赖,可通过以下命令更新: ```bash pip install -U xformers torch ``` #### 2. 安装/更新步骤 - **Automatic1111 WebUI**: 1. 进入 WebUI 根目录,运行更新命令: ```bash git pull ``` 2. 若使用扩展管理器,更新所有扩展: ```bash ./webui.sh --update-all-extensions ``` 3. 重启 WebUI,在采样器下拉菜单中检查是否出现 `DPM++ 2M Karras`[^1][^4]。 - **ComfyUI**: 1. 通过 `Manager` 更新自定义节点: ```bash git clone https://github.com/comfyanonymous/ComfyUI ``` 2. 安装 `DPM-Solver++` 相关节点(若需手动集成)。 #### 3. 验证与使用 - **采样器调用**:在生成像的参数设置中,选择 `DPM++ 2M Karras`,建议参数: ```python { "steps": 20, # 推荐15-20步 "cfg_scale": 7.5, # 引导尺度(参考引用[3]) "scheduler": "karras" # Karras调度器[^2] } ``` - **性能测试**:生成像时观察显存占用与速度,若出现异常可尝试 `--no-half` 启动参数。 #### 4. 常见问题解决 - **采样器未显示**:检查 WebUI 版本是否≥1.6.0,或尝试重装 `k-diffusion` 库: ```bash pip install -U k-diffusion ``` - **显存不足**:降低像分辨率或启用 `--medvram` 模式。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值