一、Lora简介

LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3) 通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层 (秩-分解矩阵)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。

Stable Diffusion 的全模型微调过去既缓慢又困难,这也是 Dreambooth 或 Textual Inversion 等轻量级方法变得如此流行的部分原因。使用 LoRA,在自定义数据集上微调模型要容易得多。


详细的原理分析见右侧链接:https://www.cnblogs.com/huggingface/p/17108402.html

简单来说,lora模型为我们提供了更便捷更自由的微调模型,能够使我们在底膜的基础上,进一步指定整体风格、指定人脸等等,而且lora模型非常的小,大部分都只有几十MB,非常的方便!

二、Lora一键包安装教程

秋叶大佬已经发布了一个本地Lora一键包,比较的方便,可以参考下方视频安装使用,本文是文字版教程。

注意本文默认是使用的N卡,A卡的道友暂时好像不能使用,会非常的慢

秋叶lora视频教程链接:https://www.bilibili.com/video/BV1fs4y1x7p2/?spm_id_from=333.999.0.0

一键包下载链接:https://pan.quark.cn/s/d81b8754a484

百度网盘链接:[url=链接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l]链接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l[/url]


下载完一键包之后,先安装包里的两个软件
 


其中python版本必须是python3.1,即使本地有python,还是建议再安装一个3.1版本。

安装python的时候记得勾选将python加入环境变量,如下图红框



安装完两个软件后,将鼠标移动到电脑左下角开始图标,选择“windows powershell”

输入命令:Set-ExecutionPolicy -ExecutionPolicy RemoteSigned

遇到询问输入 y


同时可以在这里验证python是否安装成功,输入python将显示出python版本为3.1.

现在进入lora-scripts文件夹,先双击运行“强制更新.bat”文件

如果报错提示没有git或者不识别git命令,说明你的电脑没有git,需要下载安装一个,

git下载链接:https://git-scm.com/download/win

安装完git再重新运行“强制更新.bat”文件

更新完毕后,右键:“install-cn.ps1”文件,选择“使用powershell运行”。

注意,这里有一个非常常见的错误就是提示“其他依赖安装失败!”如下图



遇到这个错误,重新运行“强制更新.bat”文件

然后再运行“install-cn.ps1”文件。

install-cn.ps1”文件正常运行最后会提示“安装完毕”,如下图


然后现在就进入了素材准备的阶段,首先自己准备10-100张图片,40张左右效果就差不多。

将所以的素材图片放到同一个文件夹,然后进入SDwebUI界面,选择“训练”标签,点击图像预处理

在源文件输入素材文件夹位置,并填上输出文件夹位置,勾选下方第三个自动焦点裁切和最后一个deepbooru打tag的选项


点击预处理,会在设置的输出文件夹中生成裁剪后的图片以及图片相应tag的txt文件

这里如果显卡大小小于8G的话,建议裁剪成512*512大小的图片,512*640最少需要8G显存

得到素材文件后,,在lora-scripts文件夹下新建一个train文件夹,然后再下方再创建一个文件夹,命名随意,但是需要记住。比如我创建了就是sucai文件夹。

在这个文件夹下再创建一个文件夹,这个文件夹有严格的命名格式。

要求为:数字_名称,如6_sucai。

数字代表的是这个文件夹下的素材使用几次,显存大的道友可以设置多个,一个的话也可以。

如果素材文件比较少的情况下,可以设置6,如果100张图以上可以设置为2或者3,甚至1也行,不然可能会炸

全选复制裁剪后的图片以及所以的txt文件到上面刚创建的文件夹下。比如我这就是..\train\sucai\6_sucai\



现在素材准备好了,我们修改一下“train.ps1”文件,右键使用文本编辑器打开

我们需要修改的参数如下图所示:



其中$pretrained_model ,不是指的SDwebUI左上角的模型路径,而是这次训练lora模型主要参考的模型。

存放位置一般为..\lora-scripts\sd-models\

这里我们需要去准备一个模型放在这个路径中,推荐直接复制SD中的主模型过来改个名字。

注意,经过群友大量测试,推荐使用SD1.5模型作为lora丹底。

下载链接:https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.ckpt


将新下载的SD1.5,如果之前下过就到从..\stable-diffusion-webui\models\Stable-diffusion中找

复制到..\lora-scripts\sd-models\路径中

最好重命名一下,比如我就是重命名为model.ckpt

然后就填入配置文件

$pretrained_model = "./sd-models/model.ckpt"

注意:有的道友选的丹底是SafeTensor格式的,那就改成

$pretrained_model = "./sd-models/model.safetensor"

$train_data_dir指的就是我们刚才创建的存放素材的位置,我这里就填入

$train_data_dir = "./train/sucai/"

不需要填入带数字的文件夹。

下方的训练相关参数,$resolution指的是图片分辨率。

显存小于8个G的道友就老老实实训练512,512,不然显存直接爆炸

$max_train_epoches指的是训练的epoch数,建议数值10-20,但一般15就差不多了。数字越大训练时间越久。

其他几个参数小白的话可以不用动,默认就可以了。学习率这里也不用动

等能够熟练操作之后,可以自己调整参数以便得到更好的效果。

再往下,输出设置这里

可以通过修改$output_name后方的值修改输出的lora模型文件名,建议输入英文名,不要用中文,比如我设置为gaoye

lora文件类型建议设置$save_model_assafetensors

改完参数后,一定记得保存文件。然后关掉文件,“train.ps1”文件,选择“使用powershell运行”。

如果显存没爆炸,且上述参数都设置的情况下,正常就开始进入训练界面了。



出现epoch轮数的时候,就证明你已经正常进入训练过程了!

根据设置的参数已经你显卡的性能,训练的时间不等。

等待训练完毕,打开..\lora-scripts\output\文件夹,复制生成的gaoye.safetensors复制到sd中的..\stable-diffusion-webui\models\Lora\路径中

其他几个带数字的文件为中间文件,可以丢弃。

至此,我们自己的lora模型已经训练完成,可以进行使用了!!

三、Lora使用教程
这部分不再赘述,可以参考入门教程的第七部分

入门教程:https://dfldata.xyz/forum.php?mod=viewthread&tid=12756&page=1#pid390482

四、常见错误排除

1.运行“install-cn.ps1”文件,提示“其他依赖安装失败!”如下图

答:遇到这个错误,重新运行“强制更新.bat”文件,然后再运行“install-cn.ps1”文件。

2.运行“强制更新.bat”文件,报错提示没有git或者不识别git命令。

答:说明你的电脑没有git,需要下载安装一个,

git下载链接:https://git-scm.com/download/win

安装完git再重新运行“强制更新.bat”文件

3.运行“train.ps1”文件提示“CUDA out of memery”错误。

答:显存不够了,调小参数设置的分辨率,支持非正方形,但必须是 64 倍数。

同时可以加大虚拟内存,具体方法百度。

实在机器性能有限,可以使用在线的网站训练lora模型。

参考链接:https://www.bilibili.com/read/cv21450198

4.运行“install-cn.ps1”文件创建虚拟环境失败

答:检查python版本,以及电脑装过anaconda,需要先关掉conda自动激活base环境,方法自行百度。不然运行脚本时环境会冲突。

5.运行的“train.ps1”文件的时候,提示Error no kernel image is available for execution on the device。



答:删掉“train.ps1”文件中,下方红框中的命令,保存后重新运行
 

 

多图预警;段首懒得空两格,见谅。

模型和图片(放进法术解析就能看咒语)会放在评论区置顶,在云平台上训练模型花了我一个疯狂星期四,求个小小的赞和评论应该不过分吧QAQ。

先说清楚,选择好合适的素材集在云平台上训练是一分钱不用花的,具体请看文中的引用教程,花了money是因为我人傻走弯路。

https://www.birme.net/?target_width=512&target_height=768
在玩了galgame之后,就有一种想要夏目更多地踩我的冲动,然后就想到了ChatGPT+VITS的整活,不过ChatGPT使用麻烦(虽然现在已经搞定了),VITS模型训练又比较麻烦(galgame剧本提取不出来),所以就想到了AI绘画。

幸运的是,b站上有很多打包好的懒人包,点开即用,笔者用的是up主秋葉aaaki的整合包。

02:57
【AI绘画】启动器正式发布!一键启动/修复/更新/模型下载管理全支持!
 68.6万  2878
视频
秋葉aaaki
        首先,我尝试着自己组合各种tag,来把枣子姐画出来,然而结果是这样的:

当时甚至连brown eyes的tag都没打上
可以看到,头花?有了。头饰?有了。middle breast也差不多,但是画风不像啊。

于是我用了网上找到的柚子社画风的模型,并且由于枣子姐的美人痣太戳我xp了,我就在mole under eyes上打了好几托括号,结果变雀斑了,再加上负面tag没打好的原因,肢体也开始降san了(由于审核的原因,这个图删掉了)

接着继续尝试改进,首先是又换了一个模型,跑了一堆图出来,能看的也有,但是都不太符合我对枣子姐的幻想((嘿嘿嘿))

mole under eyes太过火了,变成Oppai上面有痣了
(这里夹掉了一张nsfw,效果也不是很好,就不补了)

后来又换了好几个但还是不满意


我逐渐理解,想要画出自己想要的效果(人物),可能只能自己训练模型,但是我的显卡是GTX1650(据说当时被称为智商检测卡,4年前的中端配置显卡吧),显存只有4G。而训练embedding至少需要6g以上的显存。再说,embedding的训练需要大量素材,枣子姐虽然人气高,p站上也有较多插画(精选的大部分都是nsfw。。。),但应该是喂不饱训练素材量的。

直到我打开新世界的大门:LoRA模型

附上LoRA模型的教程

【AI绘画】LoRA 在线云端训练教程 AutoDL

今天为大家带来 LoRA 在线云端训练教程。镜像已经封装好,无需任何安装直接可以开始训练。本教程使用 AutoDL 在线租显卡训练,如果你还没有账号可以使用我的邀请链接,送10r代金券 https://www.autodl.com/register?code=33208c44-1ec2-4166-83b4-bf2f561a9551话不多说,直接开始。在 AutoDL 租显卡, 创建机器的时候选择 算法镜像——lora-scripts 即可。我的这个镜像,xformers 是基于 sm86 架构编译的,本身

文章
秋葉aaak...
3.4万
1010
172
在这里也附上秋葉aaaki (简直是kamisama)的最新答疑

【AI绘画】LoRA 模型训练 参数相关问答

一些个常见问题,今天统一回答一下Q: 如何训练144mb大小的模型A: 话说在前面 模型不是越大越好模型不是越大越好模型不是越大越好 如果你真的想修改的话,需要修改 network_dim 这个参数。默认给的是32,改成128对应着144mb。注意修改了 network_dim 记得看看 network_alpha 需不需要修改Q: 为什么我的训练步数这么少?A: 请了解 epoch 的相关知识。一个 epoch 指的是所有图片都过一遍,我们在脚本里修改的是epoch大小,所以你给的训练图片素材数量直接影

文章
秋葉aaak...
2.9万
659
134
第一次训练模型,数据集非常非常粗糙,粗糙到什么程度呢,直接把插画或者立绘(贴吧有收集这方面资源的大佬)丢进去图像预处理,然后再丢进云平台训练。

这样训练出来的效果当然不好。第一次训练用的是镜像文件自带的model,大概是6k步还是3k步(忘了),然后在使用LoRA生图的时候好像用的是pastelmix粉彩(蜡笔模型?),出来的效果是这样的:

好像有点小酷,或许接下来可以往这种画风靠拢
这个应该是用了柚子社画风的大模型

要说和原画风最相似,应该是这张了。。虽然是崩坏了
效果是有的,但是一言难尽,当时我还没有尝试去调教LoRA模型的权重,一般来说权重为1的话效果不是很好(也有可能是我训练的模型比较烂)。

随后我又训练了一个跑了2w3step的模型,但是由于没有调教权重,出图效果也不好,我当时还以为是步数不够,tag不好,一直在调整。直到我用跑了7w步的模型(错误率大概在2%)也无济于事,我才将好几个LoRA一起用,然后调整权重,经过不断调教左右,发现LoRA模型的权重大概在0.5~0.7之间是最好的,能产出比较好的图片:

<lora:Shiki_Natsume_cornfw:0.2>
这个模型是以b站up主Toooajk做的矢车菊模型为底模训练的,不过产图时用的model也忘了,大概率是pastelmix吧


<lora:Shiki_Natsume_cornfw:0.15>


<lora:Shiki_Natsume_cornfw:0.35>

<lora:Shiki_Natsume_cornfw:0.5>
发带已经比较稳定了,这时候我发现了元素法典的文档,并采用了里面的风魔法,画出了比较好的效果

还是不太像啊,唉

在经过一系列的调试魔法,现在枣子姐的形象大概稳定了下来,接下来就是慢慢靠近原画风,慢慢让她画出不同动作不同场景的作品,同样,在以下图片中都是借鉴元素法典里的魔法来调整效果的。

不知道为什么多了一只我的手(唔)


这张好啊,真还原,不过看多了真有点脸盲了,又觉得根本不像
雪糕prpr

这张是目前为止最满意的了
后来由于操作失误,不小心把存着的13个版本枣子姐的style给删了。。。只能从头开始慢慢调试,同时也尝试新风格新背景新动作。特别提醒一下,如果存的style太多,千万不要自己在文件表格里面删减,不然报错之后全部style都没了。(血泪史)


于是又开始产出掉san的图

写专栏的时候跑出来拆台的(恼)
但是从开头翻到这里,其实人物特征效果是越来越好的。

一开始我陷入了一个误区,就是把原图直接丢进去,让图像预处理进行分割,训练出来的模型效果不太好(也有可能是操作不当,权重给太高,渣机懒得尝试了)

在之后的训练里,我把立绘的图一张一张裁剪,把头部各表情剪出来,同时将其在训练集中复制粘贴好几次,这样原画风的图片占比就比较多,插画的占比比较少。然后把每一套衣服剪一下,再适当添加nsfw的素材进去。这样素材及总共应该有六百多张图。不过其实对于LoRA模型来说,不需要这么多素材,也不需要这么多步数。我也可能是多此一举了,今天早上刚跑完的模型,是我基于原本跑了7w步的模型继续训练了10w步产生出来的。。。错误率大概在1%左右,应该已经陷入局部最优出不来了。

我还做了一些其他尝试,例如图生图,在这里推荐pose studio,可以摆各种各样的姿势,然后截图拿去图生图。

当然,不要跑太复杂的姿势。。。。不然又要掉san了


嘿嘿嘿。。。嘿嘿嘿我的枣子姐
4g显存能跑多大的图?我跑1024x768是没有问题的。在提示词里面最好不要多个LoRA模型一起用,因为那样会占很多显存,我三个混用的时候,跑960x640都会给我爆显存。

唉,跑了这么多图,看了这么久,感觉又越改越不像了


写在最后

祝大家能顺利跑出自己的老婆,夏目我先抱走了(滑稽)。 作者:井之上泷奈酱酱酱 https://www.bilibili.com/read/cv21677055 出处:bilibili

Logo

苏州本地的技术开发者社区,在这里可以交流本地的好吃好玩的,可以交流技术,可以交流招聘等等,没啥限制。

更多推荐