登录社区云,与社区用户共同成长
邀请您加入社区
在当今数字化的浪潮汹涌澎湃之际,人工智能技术正以令人瞠目结舌的速度迅猛发展,犹如一场席卷全球的科技风暴,为各个领域带来了前所未有的深刻变革。其中,ComfyUI 宛如一颗璀璨的新星,在这浩瀚的科技星空中熠熠生辉,它作为一款极具创新性的工具,正逐渐崭露头角,为创意的生成和实现开辟了一条崭新而充满无限可能的道路。这个工具凭借其超快的图像生成速度、流畅的操作体验,尤其是对低配置设备的友好支持,迅速在创作
简直是设计师的福音。主要包括:Photoshop 的安装以及插件的安装ComfyUI的插件安装,模型下载,工作流配置Photoshop中AI插件的使用【必须得,否则插件无法安装】关闭和启动PS查看:插件地址:https://github.com/NimaNzrii/comfyui-photoshopManager 内搜索并安装:然后重启ComfyUI。原版 https://openart.ai/w
如果需要增加自定义功能,只需要将所需功能放入到组里,然后给组重名个名字即可,如下图:• Photoshop ComfyUI Plugin:用于接收PS发来的图片,mask,以及其他参数• SendTo Photoshop Plugin: 将处理后的图片再返回给PS。• 中间加上处理的逻辑即可。
本文介绍了如何利用亚马逊云科技(Amazon EC2)和开源工具Krita与ComfyUI构建高效的游戏美术AI创作工作流。通过Stable Diffusion等AI模型,结合ComfyUI的自动化能力,显著提升美术资源生成效率。方案采用弹性架构,包括Amazon EFS存储模型文件、DynamoDB管理节点信息,以及API Gateway和Lambda实现服务接口。系统通过Serverless设
今儿分享个非常有意思的 ComfyUI 工作流,直接先来看看效果通过这个工作流,可以非常轻易的打造出一套完整的游戏卡牌。没错,有了卡牌,再加上定制一套游戏规则,就可以实现一整套的卡片游戏了!(这是上篇内容,看看如何定制化生成游戏卡牌,下篇内容将会和大家一起通过 ChatGPT 制定游戏规则)你可以通过工作流内置的数据进行随机生成(下面这个效果),你也可以自己输入一套数据进去,打造属于自己的卡片资产
但今天,我要揭秘一个让同行直呼“真香”的终极方案——ComfyUI + Flux模型工作流,只需上传两张图,就能自动生成高精度、风格统一的多视图角色设计!不妨立即打开工作流,上传你的设计草图——或许下一款全球爆火的游戏角色,就诞生于你今天的这次点击。Flux的混合架构+流匹配技术,能自动捕捉参考图的风格特征,并在不同角度下保持光影、色彩、纹理的高度统一。为了帮助大家更好地掌握 ComfyUI,我花
FLUX.1 Kontext dev 开源模型试用
*背景与目的:**尝试尽可能使用各类AI工具的能力,做一款游戏。一方面为了完成自己设想的一款游戏玩法,另外也希望通过实践来丈量一下AI究竟可以对现有的游戏策划、设计、开发影响到什么程度。效果展示经过几次技术方案的选型和调整,案例1当需提供描述生成“一个年轻的女弓箭手”将腾讯元宝智能体的回答,复制到ComfyUI工作流的正向提示词中,执行可获得1张多个动作的透明底图片将画面保存至Unity,可以直接
ControlNet++,也称为 ControlNetPlus,目前更普遍的称呼是 Controlnet Union,它是一款新训练的 ControlNet 控制架构,融合了 10 多种控制模型,适用于 SDXL 1.0 生态。与独立控制模型相比,它的处理效果没有明显下降,使用起来也非常方便,所以推出后很快就受到了广泛关注。openpose 动作姿势depth 深度thick line 粗线条 (
这两天,快手新出的AI绘画 Kolors模型惊艳亮相,我实测了一下,效果简直比SD3.0开源的模型更强,没想到现在的国产AI也能做到这个地步了。接下来就让我们实测一下 **Kolors模型** 的效果。
本文介绍了一个基于Stable Diffusion 3.5的ComfyUI工作流,通过加载预训练模型、设置提示词、采样潜在图像和最终解码输出,实现从文本到图像的完整生成过程。工作流包含模型加载、条件编码、潜在初始化、迭代采样、图像解码和输出保存六个核心环节,支持高分辨率图像生成。该方案具有模块化设计特点,适用于创意设计、产品展示、影视场景构建等多种应用场景,既能提升创作效率,又能作为教学示例展示A
本文介绍了一个基于ComfyUI的HiDream工作流,能够实现从输入图像到超写实效果的转化。该工作流融合了图像上传、提示词控制和InstructPix2Pix编辑方式,通过模型加载、文本编码、噪声引导与采样器配置等步骤,最终生成高质量图像。核心组件包括HiDream扩散模型、多重文本编码器和VAE解码器,工作流程涵盖图像输入、提示词编码、条件组合、噪声生成、采样优化到图像输出等环节。该方案适用于
IPAdapter模型文件太多了,而节点IPAdapter Unified Loader是通过函数(get_ipadapter_file与get_clipvision_file)预设来加载模型文件,当发生错误“IPAdapter model not found.“时并不指明模型文件名,导致想要有针对性下载需要的模型比较困难,而且加载的模型还与加载的Checkpoint大模型的类型也有关系。
ComfyUI 本体 Github 主页:https://github.com/comfyanonymous/ComfyUI(注意:访问需要科学上网)ComfyUI 和同学们熟知的 WebUI 一样,都是 Stable Diffusion 的一种用户界面,可以实现文生图、图生图、图像处理、AI 视频生成等操作。
最近在图像编辑圈里,Nano Banana 简直是顶流!它在一致性图像编辑的竞技场评分里超能打,甚至超过了黑森林开源的 Kontext 框架。它的核心优势很明显:比起 Flux Kontext,图像编辑的一致性更稳,对自然语言的理解和编辑也更准。
本文介绍了一个基于 Wan 2.1 的 ComfyUI 文生视频工作流,通过 UNet、CLIP 和 VAE 三个核心模型,将文本提示转化为动态视频。工作流包含模型加载、提示词解析、潜空间采样等7个环节,支持分辨率、帧数等参数设置,最终输出高质量视频文件。该方案适用于创意设计、教育培训和多媒体制作等场景,能快速生成符合语义的动态内容。文章还提供了相关开发资源和学习链接,适合AI视频生成领域的研究者
本文介绍了一个基于 Wan2.1 Fun Camera 模型 的 ComfyUI 视频生成工作流,能够将静态图像与文本提示融合,生成具有动态相机运动的视频画面。工作流通过扩散模型、VAE解码器和CLIP编码器的协同配合,实现从潜空间到视频的动态生成,特别适合制作具有电影质感的叙事风格视频。 核心模块包括 WanCameraImageToVideo 节点和 KSampler,前者整合图像、文本提示和
本文介绍了一个基于Wan2.1 Fun Camera的ComfyUI视频生成工作流,通过整合文本提示、图像输入与相机运动控制,实现静态图像到动态视频的转换。工作流结合CLIP视觉特征与VAE解码,提升细节保真度和镜头感,适用于AI动画、数字叙事等场景。核心模型包括扩散模型、VAE、文本编码器和CLIP视觉模型,节点配置涵盖从模型加载到视频输出的全流程。应用场景广泛,包括艺术创作、短视频制作、动画分
AIStarter 是一款强大的AI项目管理工具,旨在帮助用户一键下载、安装和启动AI项目,如 ComfyUI-MuseTalk 等音频驱动视频生成工具。然而,许多新手在使用过程中会遇到“下载失败”或“启动不了”的问题。本文将详细解答这些常见问题,帮助你快速上手!
本文介绍了一个结合ControlNet多模态约束的ComfyUI工作流,通过同时加载姿态(OpenPose)与涂鸦(Scribble)两种ControlNet模型,配合awpainting_v14主模型与专用VAE解码器,实现从参考图到高质量图像的生成过程。工作流包含模型加载、文本编码、ControlNet应用、采样生成等环节,能同时利用姿态控制与线稿约束,生成既保持构图又体现细节的作品。适用于角
本文介绍了一个基于ComfyUI的双阶段图像生成与放大工作流。该流程首先使用DreamShaper模型生成初始图像,再通过v1-5模型进行二次采样和放大,最终输出高分辨率、细节丰富的图像。工作流包含模型加载、潜空间创建、文本编码、采样生成等关键节点,适用于创意插画、风景生成、宣传设计等场景。这种分阶段方法既保证了创意表达,又提升了图像质量,适合需要平衡效率与效果的AIGC应用开发。
这篇文章介绍了一个基于DreamShaper模型的ComfyUI工作流,通过文本生成图像并配合双重采样与超分辨率处理,实现高质量艺术图像生成。工作流主要包含模型加载、文本编码、采样生成、超分放大和导出等环节,采用DreamShaper作为核心生成模型,RealESRGAN进行超分辨率放大。该流程适用于概念艺术创作、高清视觉展示、复古影像模拟等场景,能生成兼具艺术感和高清细节的图像。文章还提供了相关
本文介绍了一个基于DreamShaper核心模型的ComfyUI工作流,通过多阶段采样与区域控制技术实现高质量图像生成。该工作流包含模型加载、提示词解析、潜空间生成与解码等环节,采用两阶段KSampler采样机制,先构建基础画面再精修细节,确保构图一致性与精细度。应用场景涵盖风景设计、艺术创作和可视化展示,支持局部区域控制与整体优化。配套提供了相关开发教程和资源链接,为AIGC爱好者提供实用参考。
本文介绍了一个基于ComfyUI与Stable Diffusion XL Turbo的图生图工作流。该工作流通过轻量化的Turbo模型实现快速图像生成,结合CLIP文本编码、采样器和VAE解码器完成从提示词到图像的完整链路。核心模型sd_xl_turbo_1.0_fp16.safetensors具有高速推理特点,节点配置包括模型加载、文本编码、采样调度等环节。该工作流适用于插画设计、原型构建、教学
Area-Composition模型可以通过输入不同的提示词,然后根据各部分提示词进行融合生成图片。本文详细介绍了如何实现该模型的本地部署。
常用工作流已经给各位小伙伴打包好了,可以按需自取,无偿分享。
本文介绍了如何使用ComfyUI API和Python进行图像生成的自动化流程,通过Python实现。通过这种方法,可以实现批量处理和自动化操作,提高图像生成的灵活性和效率。
Flux AI是由Black Forest Labs推出的一款最新的文本生成图像模型,这个团队是由从Stable Diffusion离开的原班人马,创立的全新用于AI绘图的大模型。Flux AI模型以其卓越的视觉质量、精确的提示词遵循、多样化的风格和复杂场景生成能力而著称。它包含三个版本:FLUX.1 [pro]、FLUX.1 [dev]和FLUX.1 [schnell],分别针对不同的使用场景和
买了块魔改华硕猛禽2080ti,找了下没找到什么测试显存的软件,于是用训练模型来测试魔改后的显存稳定性,因为模型训练器没有资源监测,于是用了Windows任务管理器来查看显卡使用情况,却发现GPU的利用率怎么这么低?原来是假象。
AI绘画在今天,已经发展到了炽手可热的地步,相比于过去,无论是从画面精细度,真实性,风格化,还是对于操作的易用性,都有了很大的提升。并且如今有众多的绘画工具可选择。今天我们主要来聊聊基于stable diffusion的comfyUI!comfyUI具有可分享,易上手,快速出图,以及配置要求不高的特点,comfyUI以节点链接的工作流方式进行绘图,对于整个出图流程也更容易理解。因此comfyUI比
摘要:本文分享了作者小肥鱼网创参加AI市集摆摊的实战经验。通过零成本报名获得免费展位,作者在技术零基础情况下,利用"即梦AI"工具快速掌握AI人像生成技术,24小时内完成从学习到实战的过渡。文章详细介绍了AI肖像生成流程、参数设置技巧及热门风格案例,并分析了市场竞争现状,指出需结合实体产品和持续技术升级才能提升竞争力。本次摆摊以9.9元体验价获得成交,但利润微薄,为AI创业者提
StableDiffusion,一款基于深度学习的图像生成模型,以其强大的图像生成能力和个性化风格迁移能力,在艺术创作领域掀起了一场革命。而LoRa技术,作为StableDiffusion的一项重要应用,更是让用户能够根据自己的喜好,生成专属于自己的女神形象。本文将带你深入了解Stable Diffusion -LoRa应用的使用方法,助你轻松实现这一梦想。这几天我看到上海有很多活动例如BW、CC
平日我们可以使用该Lora模型生成的图片发朋友圈,假装自己出去旅游玩了。该模型艺术风格融合了现实和插图元素,非常酷酷的哦。(文末网盘地址也可获取)*触发词:artistic style blends reality and illustration elements.权重设置为1-1.2。我们只需要将VectorJourney丨假装去旅游lora模型下载放置到ComfyUI\models\lora
今天教大家本地部署Ollama大语言模型,并接入ComfyUI中,让你的ComfyUI变得更智能。0****1介绍之前ComfyUI很多插件接入LLM大模型都得单独配置,很麻烦,今天给大家介绍一个通用的插件comfyui-ollama,再结合Ollama本地安装,让你想用什么大模型都行,从此解决提示词润色问题。今天内容比较干,主要分三块进行:Ollama本地安装提示词润色方案图片反推提示词02安装
*大家好,今天和大家推荐一款基于Flux训练的真人写实的lora模型:Flux_小红书真实风格丨日常照片丨极致逼真。一看这个模型的命名,就可以猜测出以小红书日常真实拍摄的照片为数据集训练而来,该模型生成的照片风格极度真实自然。今天我们中国著名景点旅游拍照打卡为场景来体验一下图片生成的效果。注意目前Flux模型还无法正确理解中国各种著名景点,所以提示词中关于著名景点的场景描述参照即可,大家不用太较真
文章介绍了在个人电脑安装Atlas 300I Duo 96G推理卡用于ComfyUI进行文生图操作的步骤,以及过程中遇到的各种问题和解决方法。
大家好,随着一点点的研究AI生成,发现要学习的东西确实很多,之前分享了一些Web UI的一些知识吧,接下来计划分享一些Comfy UI的一些知识。Comfy UI相比Web UI就会相对复杂一些,新入手的小伙伴,最好还是先从Web UI先尝试起来,再慢慢过渡到Comfy UI上。Comfy UI,首先它是以一种节点的方式,看起来就像是参数化的软件一样,它相当于把不同的插件以节点的方式呈现,所以我们
今天这个工具是Recraft贴图的平替方案,有大佬做了ComfyUI插件,效果体验了还可以,大家来玩玩。
openwebui+deepseek+comfyUI搭建文生图效果
FLUX.1 Kontext Dev是由BlackForestLabs推出的开源多模态图像编辑模型,具备120亿参数,支持文本与图像联合输入,能实现精准的角色一致性、局部编辑、风格转换等功能。该模型提供ComfyUI工作流支持,包含基础版和组节点版两种操作方式,支持单图/双图编辑模式。相比API版本,本地运行的Dev版本为开发者提供了更高灵活性,但需要16-30G显存(FP8/BF16版本)。文章
《Qwen-Image:阿里开源多模态文生图模型的技术突破与应用实践》 阿里通义千问团队推出的20B参数开源文生图模型Qwen-Image,采用多模态扩散变换器(MMDiT)架构,融合文本特征提取(MLLM)、图像编码(VAE)与去噪生成技术,在12项基准测试中斩获SOTA。其突出优势包括:精准的中英文文本渲染、对象编辑与风格迁移能力,尤其在中文场景下表现卓越。支持创意设计、商业广告、影视海报等多
ComfyUI 是一个强大的、模块化的 Stable Diffusion 界面与后端项目。允许用户使用基于图形/节点/流程图的界面设计和执行高级稳定的扩散管道。今天要带来的是ComfyUI轻量化版本,其中只安装了管理器、IPadapter、AnimateDiff、视频助手等基本插件,内置了SD-XL-1.0模型,能够让页面加载速度更快。接下来将介绍ComfyUI轻量版本地部署教程,将该镜像快速部署
ComfyUI
——ComfyUI
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net