
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
了解过的盆友应该知道,这是comfyUI的页面,这玩意操作起来可比SD Web UI难咱这期就教大家怎么直接上手1、打开吐司(扫描下方二维码即可)2、点击在线生图按钮后的向下箭头,找到并点击工作流模式于是你就进入comfyUI的操作页面了,可以看到,吐司官方已经将基本的文生图工作流程配置好了(见下图),咱先熟悉一下各个模块3、序号4模块为跑图大模型选择,咱只需要点击一下图中红框框选的地方,就会跳出

在AI绘画StableDiffusion中,一直都有一个比较困难的问题,就是如何保证每次出图都是同一个人。今天就这个问题分享一些个人实践,大家和我一起来看看吧。固定Seed种子值出来的图片人物确实可以做到一致,但Seed种子值是相对整个画面的,导致这种方式生成的新图片效果差别太小,可能除了人物的脸保存了一致,人物的姿势也保持了一致,甚至画面的背景也保持了一致,出来的图片太过单调。此时我们虽然可以通

AI摄影,就是用AI生成写真照片和传统摄影不同的是,传统的摄影需要先妆造、布景,然后再进行拍摄,前后需要耗费的时间精力非常多而AI摄影只需要在电脑上上传十几张自己的日常照片,就能根据自己的喜好去生成各种梦幻、甚至是离谱的写真如果你是个人使用,那就可以给自己、给宝宝、家人,还有朋友定制如果你是工作使用,本身开了一家摄影写真馆,或者在摄影写真馆工作,那你就可以用AI给自己的工作赋能另外,我们还能在网上

前言ComfyUI作为一款功能强大的AI生图工具,它通过节点方式,使用户可以直观地看到各个模块的功能,并根据需求进行调整和连接。这种方法使工作流程更加清晰,同时降低了使用门槛,使得不熟悉代码的用户也能轻松使用。本文我将教会你ComfyUI的安装方法。目前主流的安装方法有下面三种:由于前两种方法安装简单,只需下载解压即可,所以本文我主要介绍本地部署环境的安装方法,同时本文也会提供前两种方法的下载链接

Stable Diffusion 是一种基于扩散技术的深度学习文本转图像模型,利用潜在扩散模型(Latent Diffusion Model,LDM)来生成高质量的图像。它主要用于生成以文字描述为条件的详细图像,但也可应用于其他任务,如 inpainting(图像修复)、outpainting(图像扩展)以及根据文字提示词生成图像到图像(image-to-image)的转换。

就是给工作流提供各种不同模型的加载,**大部分的工作流都是以大模型的加载作为起始输入源来进行展开的。一个工作流里可能存在多个加载器,例如对图片进行放大,需要用到[放大模型加载器。连接controlnet时需要controlnet加载器。1.Checkpoint加载器【加载大模型】主要使用(简易)版节点功能:该节点用来加载checkpoint大模型,常用的大模型有sd1.0,sd1.5,sd2.0,

最近,ComfyUI发布了桌面版,原本以为安装不方便,更新要离线,我没有在第一时间下载安装。上个周末因为秋叶的几个组件冲突,始终无法正常使用英伟达的Sana,于是尝试下载ComfyUI官方桌面版。没想到效果远超预期,在我电脑上盘踞了两年多的秋叶可以“退休”了。1、下载。

这是Stable Diffusion WebUI 2.0 离线版的,没网也能用,也可以做18+的,这里就不展示了,哈哈哈!不过这玩意10G,我加了一些lora,controNet,大模型,一下子就70个G,效果还不错,不过大部分都是civitai中直接下载别人训练好的模型。

LoRA模型是一种“聪明”的方法,用来微调(也就是“调教”)现有的大型AI绘图模型,让它们更适合我们特定的需求。









