外婆都能看懂的Stable Diffusion入门教程

Stable Diffusion 1年前 (2023) 站长
2,739 0

一、前言

上次发的Midjourney教程《奶奶看了都会的Midjourney入门教程!!》文章受到了很多朋友们的认可和支持,大家也在群里讨论的很热烈,然后其中有不少疑问就是Midjourney的图片怎么精准的控制,或者是不改变某个物体的情况下更换背景等等,实在是太多问题了。
不过确实,Midjourney生成的图片很难精准的控制,随机性很高,需要大量的跑图(为此我也回复了很多很多信息就是让小伙伴们多跑图…),不过没关系,受到社群小伙伴们的强烈建议(也包括我可以少回复点消息),我在这篇文章中为大家分享SD的教程。
这时候肯定有朋友心想了”SD是什么?为什么要用它?它能帮助我们做什么….” 别急嘛,我给大家娓娓道来。
唉等等,要不咱先欣赏下SD生成的图片?来吧展示:
这是拍的吗??No,这是SD模型跑图来的!!!
动漫插画,就说这效果强不强吧…
是不是迫不及待的想试一试了呢,那我们开始吧,手把手教学,外婆真的看了都会的教程,开始进入教学!!

二、Stable Diffusion介绍

Stable Diffusion是一款基于人工智能技术开发的绘画软件,它可以帮助艺术家和设计师快速创建高品质的数字艺术作品。该软件使用了一种称为GAN(生成对抗网络)的深度学习模型,该模型可以学习并模仿艺术家的创作风格,从而生成类似的艺术作品。
Stable Diffusion具有直观的用户界面,可以让用户轻松地调整绘画参数并实时预览结果。用户可以选择不同的画布、画笔和颜色,还可以通过调整图像的风格、纹理和颜色等参数来创建各种不同的艺术作品。
除此之外,Stable Diffusion还提供了一些高级功能,例如批量处理、自动矫正和自动化调整等,可以帮助用户更加高效地完成大量的绘画任务。
总之,Stable Diffusion是一款功能强大的AI绘画软件,它比现在市面上主流的AI绘画软件Midjourney更加的强大,可以说SD是所有AI绘画的鼻祖级存在,同样,更强大代表着它的上手难度及配置要求也更高。那么说到这里,我们就来看看这两款软件的一个对比吧:

  三、主流AI绘画软件的对比

总之,Stable Diffusion是一款功能强大的AI绘画软件,它比现在市面上主流的AI绘画软件Midjourney更加的强大,可以说SD是所有AI绘画的鼻祖级存在,同样,更强大代表着它的上手难度及配置要求也更高。那么说到这里,我们就来看看这两款软件的一个对比吧:

四、Stable Diffusion电脑配置要求

1、配置要求:需要使用N卡(NVIDIA显卡),显卡的显存至少需要4GB以上显存才能在本地运行。最低配置需要4GB显存,基本配置6GB显存,推荐配置12GB显存或者以上。
(言川小知识:stable diffusion Ai 绘画主要是运行显卡,算力越强,出图越快。显存越大,所设置图片的分辨率越高)
“推荐使用RTX4090显卡哦,” —–来自一个3080显卡玩家
还有一点的就是硬盘空间要大,SD出图主要依赖模型,网上下载的模型资源一般都很大(一个模型在2G以上)批量跑图也是很占内存的,这边建议60GB以上的硬盘空间。
2、网络要求:大家都懂哈,咱也不说。
3、操作系统:需要是Win10 或Win11。
满足以上条件基本上就可以用SD跑图啦。

五、Stable Diffusion安装

SD的安装我们就不要整的很复杂了,直接用大佬制作的一键安装/启动包就行,我们把时间用在刀刃上。
自己手动安装需要上Github下载文件,还要下载Ptthon等工具,一般第一次手动安装会出现各种奇怪的报错,总之很复杂,我之前自己安装过,真就花了一上午都还没安装好。所以我不建议也不教大家手动安装了。(如果你要硬上,可以在网上看看别的使用教程)
上黑科技!!!咱直接去使用@秋葉aaaki 大佬的免费启动器和安装包。
我们下载这两个文件,下载链接资源我放在我们资源社群里面了,需要的可以在文章底部加入我们,群公告自行下载。注意:下载的文件一定要放在空间比较大的盘里。
来看下具体操作:
1、安装一下这个“启动器运行依赖”。
2、然后把这两个文件复制一下,我们需要粘贴到“webui:文件夹中
3、粘贴替换目标中的文件。粘贴的位置看我的文件夹路径。
4、这里我重新走一遍打开流程,以防大家退出去了不知道从哪里进。我们打开下载的文件夹,然后进入到“novelai-webui”文件夹
5、打开“novelai-webui-aki-v3”文件夹。
6、然后下拉下拉…找到这个启动器,双击就完事了,这个就是我们刚刚粘贴替换的文件。
7、然后就打开啦,一键启动就好了。

六、Stable Diffusion基础操作

6.1 大模型的切换

首先是这个界面左上角,在这里可以切换你所安装的模型。
这里我先推荐一下我常用的模型网站:C站:https://civitai.com/
然后我们在C站上下载一些模型,下载需要网络哦(我不提供网络教学),如果你的网络下载很慢,没关系,我把一些主流的模型打包好了,联系我加入《AIGC知识学院》领取资源。
接下来就是安装了,很简单,把下载的模型放到这个路径文件夹中。然后刷新web UI界面(就是SD操作界面)

6.2 模型的VAE(Sd的VAE)

VAE 的全称是Variational Auto-Encoder,翻译过来是变分自动编码器,本质上是一种训练模型,Stable Diffusion里的VAE主要是模型作者将训练好的模型“解压”的解码工具。
这里可以切换VAE。一般情况下我们就选择第一个自动就行了。
在C站(stable diffusion)下载模型,在下载页面会有文件显示,如图。
VAE的安装路径看我这里,把下载的文件复制粘贴,然后把web UI界面刷新一下(就是SD操作界面)
言川总结:
1、总的来说就是你在C站上下载的模型有些内置就有VAE的属性(不需要下载VAE 文件),有些没有内置下载的时候我们就把VAE文件下载。(VAE文件一般大小在几百兆左右)
2、VAE的作用就是没有加载VAE的图片是灰灰的,加载之后就是会产生一个润色的效果,色彩更加丰富。

6.3 功能选项

这里我挑选几个重要的功能讲解下。
文生图,这里与Midjourney不同的是,SD有一个反向关键词(意思是不要图片出现什么),文生图的关键词格式与Midjourney基本一致,不知道的朋友可以去看我的往期文章《奶奶看了都会的Midjourney入门教程!!》
下面这块参数就是设置图片的一些基本参数,分辨率、尺寸等等,具体参数见下文。
图生图,这个也很好理解,放参考图然后输入提示词,与其他AI绘画软件一致。
图片信息,意思是你用SD画的图,放在这里来,右边会显示这个图片的一些参数,包括关键词。
然后你可以选择右下角的一些功能,比如“文生图”。
模型合并,这个功能很厉害,后面我出一篇关于这个功能的教学,大致就是把多个模型混合起来。
训练,这个就是训练自己的模型,新手用的比较少,后面可用作工作流的部署。(这个才是我推荐的核心哦)
设置,然后就是设置,大家自己去研究下就好了。
扩展,这个就是跟插件扩展相关的了,后面再讲。

6.4 提示词和反向提示词

言川提示:
提示词内输入的东西就是你想要画的东西,反向提示词内输入的就是你不想要画的东西。
提示框内只能输入英文,所有符号都要使用英文半角,词语之间使用半角逗号隔开。
一般来说越靠前的词汇权重就会越高,比如我这张图的提示词:
The personification of the Halloween holiday in the form of a cute girl with short hair and a villain’s smile, (((cute girl)))cute hats, cute cheeks, unreal engine, highly detailed, artgerm digital illustration, woo tooth, studio ghibli, deviantart, sharp focus, artstation, by Alexei Vinogradov bakery, sweets, emerald eyes。
万圣节假期的拟人化形式是一个留着短发和恶棍笑容的可爱女孩,可爱的帽子,可爱的脸颊,虚幻的引擎,高度详细,艺术种子数字插图,woo tooth,吉卜力工作室,deviantart,锐利的焦点,artstation,由Alexei Vinogradov面包店,糖果,绿宝石般的眼睛。
第一句关键词词组:万圣节假期的拟人化形式是一个留着短发和恶棍笑容的可爱女孩。那生成的图片主体画面就会是万圣节短发可爱笑容女孩
这里可能有用过Midjourney的小伙伴们就有疑问了,(((cute girl)))是什么意思,为啥有这么多括号,我来为大家解答下,这个是权重调节,类似Midjourney的 ::
1、最直接的权重调节就是调整词语顺序,越靠前权重越大,越靠后权重越低,上面说过。
2、可以通过下面的语法来对关键词设置权重,一般权重设置在0.5~2之间,可以通过选中词汇,按ctrl+↑↓来快速调节权重,每次调节为0.1,也可以直接输入。
3、加英文输入的(),一个括号代表这组关键词的权重是1.1,两个括号是1.1*1.1的权重,不要加太多了哈。可以结合第二点固定权重,比如(((cute girl:1.2))),那这个关键词的权重就很高了。

6.5 功能按钮

我们来介绍下右边这几个功能,生成就不说了,输入关键词生成就跑图了。
第一按钮的意思是读取你上一张图的所有参数信息(包括关键词),比如你画一张图之后,关掉了软件,再次启动点击这个就会把参数复制进来。
第二个按钮就是删除了,清空关键词;这里可以和第一个按钮结合用哦
第三个按钮就是模型选择管理
这个按钮就是点击就会出现这些功能,你安装的模型和Lora都可以在这边调整。
言川小知识:这里可以把你生成的图片添加到模型的封面上,方便你后面看这个模型的效果,看我怎么做:
找到这个模型的名称,然后我这里是跑出来一张图片的,点击这个按钮(lora一样)
最终效果:
后面两个就是一个提示词模板功能:
我们可以先点最后一个按钮,把现在的关键词创建一下,取个名字
然后在模板风格这里选中我们刚刚创建的模板(可以多选)
选中之后按一下第四个按钮,我们创建的关键词就被填入进去了,这块收工!

6.6 采样步数

一般来说大部分时候采样部署只需要保持在20~30之间即可,更低的采样部署可能会导致图片没有计算完全,更高的采样步数的细节收益也并不高,只有非常微弱的证据表明高步数可以小概率修复肢体错误,所以只有想要出一张穷尽细节可能的图的时候才会使用更高的步数。(加大这个会导致出图变慢)

6.7 采样方法

Stable diffusion webui是Stable diffusion的GUI是将stable diffusion实现可视化的图像用户操作界面,它本身还集成了很多其它有用的扩展脚本。
SD的采样方法有很多,大家有兴趣了解的可以去知乎看看@刘登宇的一篇文章《stable diffusion webui如何工作以及采样方法的对比》。这里我们只介绍两个种常用的。
这里的采用方式有很多,但是我们常用的就那几个,我们可以去设置里面把不需要用到的关掉,不展示在这个界面中。然后点击右边的重启UI就好了。

6.8 高清修复和图片尺寸参数

前面两个做个简单的介绍,面部修复对写实的风格有点效果,可平铺就不要用了,生成的图片很奇怪,可以自己试试。
我们说说高清修复,高清修复的意思是把基础生成的图片,按照你选择放大的倍率放大到指定分辨率之后再重新绘制图片,受到你重复幅度调节的数值影响。
宽度、高度就是图片的长宽比,很容易理解,生成批次和数量就是几批,一批几张图,配置好的可以直接拉满,增加效率哦。
提示词相关性:图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提示(根据模型),但它也在一定程度上降低了图像质量。可以用更多的采样步骤来抵消。
默认未选中高清修复是这样的,当前图片的参数。

6.9 随机种子(seed)

这个功能与Midjourney的Seed功能一样。
随机数的起点。保持这个值不变,可以多次生成相同(或几乎相同,如果启用了 xformers)的图像。没有什么种子天生就比其他的好,但如果你只是稍微改变你的输入参数,以前产生好结果的种子很可能仍然会产生好结果。
输入不同的种子,生成的图片不一样,seed值一样,那生成的图片也是一样。
差异随机种子,需要勾选这个按钮
这个功能是固定一个种子,然后调整差异强度来生成图片,因为是固定的seed值,所以生成的图风格都是类似的。
直接看图吧。
这边的几个功能都很简单,大家尝试下就能理解了,那基础操作我们就先讲到这里,大家赶紧玩起来吧!!

七、结语

这篇入门教学就先讲到这里,后续还有插件、部署模型等教程,大家先消化一下这篇文章的内容。
如果觉得对你有帮助,3连(点赞、收藏、分享)一下吧,大家的支持才是我的动力,祝大家生活愉快😊
Stable Diffusion一键安装包我放在群公告中了,大家需要联系我获取。
模型、插件等资源更新在《AIGC知识学院》了,联系我加入哦!!
版权声明:站长 发表于 2023年 4月 19日 pm4:26。
转载请注明:外婆都能看懂的Stable Diffusion入门教程 | AI123

相关文章

暂无评论

暂无评论...