
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Stable Diffusion直译为稳定扩散,理解稳定扩散之前先通过两张图片介绍一下什么是前向扩散和逆向扩散。

今天,给大家分享一个基于本地部署的Deepseek-R1模型的新用法,帮助我们在Comfyui中扩写提示词。

只需简单几步,就能打造出能自动解析产品需求、智能答疑的AI助手

今天给大家介绍一个能加速FLUX出图的ComfyUI节点:Comfy-WaveSpeed

2022年作为AIGC(Artificial Intelligence GeneratedContent)时代的元年,各个领域的AIGC技术都有一个迅猛的发展,给工业界、学术界、投资界甚至竞赛界都注入了新的“AI活力”与“AI势能”。其中在AI绘画领域,StableDiffusion当仁不让地成为了开源社区中持续繁荣的AI绘画核心模型,并且快速破圈,让AIGC的ToC可能性比肩移动互联网时代的产品

AnimateDiff采用控制模块来影响StableDiffusion模型,通过大量短[视频剪辑]的训练,使其能够调整图像生成过程,生成一系列与训练视频剪辑相似的图像。

不藏了,准备分享2款收藏的Flux微调模型,玩过Flux的都知道这里面的门道有多深,原生Flux好用,但是用久了大家就发现问题了,屁股下巴、太油腻塑料感,所以很多大佬为了解决这个问题,推出了各自的微调模型,我也偷偷珍藏了2个,这次商单就用上了,今天刚交付完,和大家一起来看看这2个微调模型和原生Flux模型出图的对比。

今天给大家带来[AI绘画]种13个常用的视图关键词,学完就能用,有的时候画面不受控制,生的图不好看,跟你用什么视角有很大的关系!胡乱随机生图,一个是你画面不好看,二是画面达不到你想要的效果,掌握这些基础的关键词可以让你的有很大提升!

得益于Stable[Diffusion]的开源,目前很多开发者推出了基于SD生成动画和视频的应用技术和扩展插件,在众多的技术中,AnimateDiff插件以“效果丝滑、稳定、无闪烁”等特性,成为目前Stablediffusion中效果最好的生成动画视频插件之一。今天就给大家详细介绍一下在Stable diffusion中快速生成动画的插件AnimateDiff。

我们都知道,模型在运算时是根据我们提供的提示内容来确定绘图方向,如果没有提示信息,模型只能根据此前的学习经验来自行发挥。在之前的文生图篇,我们介绍了如何通过提示词来控制图像内容,但想要实现准确的出图效果,只靠简短的提示词是很难满足实际需求的。








