
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
不管是用脚本还是丹炉什么的工具,训练过程中总是出现很多的问题,现目前对于跑通训练都是一件很费劲的事情,记录一下我在训练lora时候出现的问题。首先明确一下对于环境创建应该是没有问题的,青龙脚本创建显示了安装完毕的字眼/丹炉直接开启前自动安装好。首先大部分训练报错,然后最后说一个“returned non-zero exit status 1” Train finished,我最开始就以为是这个问题

对于出现的不管是什么SD1.5的模型或者加上一些稍微相关的lora的生成效果都很模糊和奇怪的问题,提出几点具体解决办法。

试了很多的sd训练,尤其是sd的lora的训练,问题一大堆,现在写个博客汇总一下。

首先说明一下,我的拯救者突然有一天右下角那里点开WIFI图标没了,就是都没有选择WiFi的图标了,猜测或许是电脑自己更新更坏了,不知道。

CLIP是BLIP的前身,或者说是一个很高水平的基础, 视频听下来最深的印象就是论文团队对于这个大模型的训练用了从网上爬下来的4亿个图像文本对,真是钞能力啊~CLIP通过4亿的数据来学习图像和文本之间的对应关系,实现了扩模态的语义理解,适用于很多扩模态的任务,就比如文生图、利用图像反推其文本tag等,更详细的知识点看视频,我这里就自己总结一下,给自己留个可以快速review的地方。论文的篇幅页数很

PermissionError: [Errno 13] Permission denied: '/tmp/gradio/tmph8ehb2qv.png'最后卡在95%然后图片生成不出来,消失(已解决)

论文里的这张图可以充分的说明SD的训练流程,SD的创新点就在于中间绿色部分的Latent Space,是把前向扩散过程、反向U-Net编码解码过程等等这些东东都放到了这隐空间去完成,里面的数据被映射成潜在的向量,是低维表示,包含数据的重要特征和结构,通过在这个隐空间去调整这些潜在变量,提高模型的灵活性和表达能力,更多样更可控,再加上旁边引入的conditioning条件,这个条件包括语义、文本、表

对于出现的不管是什么SD1.5的模型或者加上一些稍微相关的lora的生成效果都很模糊和奇怪的问题,提出几点具体解决办法。

不管是用脚本还是丹炉什么的工具,训练过程中总是出现很多的问题,现目前对于跑通训练都是一件很费劲的事情,记录一下我在训练lora时候出现的问题。首先明确一下对于环境创建应该是没有问题的,青龙脚本创建显示了安装完毕的字眼/丹炉直接开启前自动安装好。首先大部分训练报错,然后最后说一个“returned non-zero exit status 1” Train finished,我最开始就以为是这个问题

CLIP是BLIP的前身,或者说是一个很高水平的基础, 视频听下来最深的印象就是论文团队对于这个大模型的训练用了从网上爬下来的4亿个图像文本对,真是钞能力啊~CLIP通过4亿的数据来学习图像和文本之间的对应关系,实现了扩模态的语义理解,适用于很多扩模态的任务,就比如文生图、利用图像反推其文本tag等,更详细的知识点看视频,我这里就自己总结一下,给自己留个可以快速review的地方。论文的篇幅页数很
