openclaw开源大模型:Nunchaku FLUX.1-dev ComfyUI部署一文详解
本文介绍了如何在星图GPU平台上自动化部署Nunchaku FLUX.1-dev文生图镜像,并利用ComfyUI快速搭建AI绘画环境。该镜像基于先进的FLUX.1-dev模型,用户可通过简单的配置,高效生成高质量的数字艺术图像,广泛应用于创意设计、内容创作等场景。
openclaw开源大模型:Nunchaku FLUX.1-dev ComfyUI部署一文详解
想用上最新的FLUX.1-dev模型,但被复杂的部署步骤劝退?别担心,这篇教程就是为你准备的。我们将手把手带你完成Nunchaku FLUX.1-dev模型在ComfyUI中的完整部署,从环境准备到生成第一张图片,全程无坑指南。
无论你是刚接触AI绘画的新手,还是想尝鲜最新模型的老玩家,跟着步骤走,30分钟内就能让这个强大的文生图模型跑起来。我们不仅会讲“怎么做”,还会告诉你“为什么这么做”,让你真正理解每个环节。
1. 环境准备:打好基础才能跑得稳
在开始安装之前,确保你的电脑环境满足基本要求,这能避免后续90%的兼容性问题。
1.1 硬件要求:显卡是关键
Nunchaku FLUX.1-dev对硬件有一定要求,但别担心,有多种量化版本可选:
- 显卡:必须使用NVIDIA显卡,并且支持CUDA。这是硬性要求,AMD显卡暂时无法运行。
- 显存大小:
- 理想配置:24GB及以上显存,可以运行FP16完整版模型,效果最好。
- 主流配置:8GB-16GB显存,建议选择INT4或FP8量化版模型。
- 最低要求:6GB显存,只能运行最低配置的量化版本,生成速度较慢。
- 其他硬件:至少16GB内存,100GB可用硬盘空间(模型文件较大)。
1.2 软件环境:一步到位安装
软件环境相对简单,按顺序安装即可:
- Python 3.10+:这是必须的版本,3.9或更低版本会有兼容性问题。
- Git:用于从GitHub克隆代码,Windows用户可以从官网下载安装。
- PyTorch:需要与你的CUDA版本匹配。如果你不确定,可以运行以下命令安装通用版本:
# 安装PyTorch(CUDA 12.1版本)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
- huggingface_hub:用于下载模型文件,这是必须的:
pip install --upgrade huggingface_hub
小贴士:如果你之前已经安装过ComfyUI,可以跳过部分步骤,但一定要确保huggingface_hub是最新版本。
2. Nunchaku ComfyUI插件安装部署
环境准备好后,我们开始安装核心的Nunchaku插件。这部分有两种方法,推荐使用第一种,更简单快捷。
2.1 安装ComfyUI-nunchaku插件
方法A:使用Comfy-CLI(推荐,最简单)
这是官方推荐的方法,适合大多数用户,特别是新手:
# 第一步:安装ComfyUI命令行工具
pip install comfy-cli
# 第二步:安装ComfyUI(如果已经安装过,这步会自动跳过)
comfy install
# 第三步:安装Nunchaku插件
comfy noderegistry-install ComfyUI-nunchaku
# 第四步:移动插件到正确目录
mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes
这个方法的好处是自动处理依赖关系,减少手动配置的麻烦。
方法B:手动安装(适合自定义需求)
如果你需要对安装过程有更多控制,或者遇到网络问题,可以手动安装:
# 第一步:克隆ComfyUI主程序
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# 第二步:安装Python依赖
pip install -r requirements.txt
# 第三步:进入自定义节点目录并克隆Nunchaku插件
cd custom_nodes
git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes
手动安装的步骤稍多,但你可以更清楚地看到每个环节。
2.2 安装Nunchaku后端
插件安装完成后,还需要安装后端支持。从v0.3.2版本开始,这个过程变得非常简单:
- 启动ComfyUI(暂时先不生成图片)
- 在ComfyUI界面中,你会看到Nunchaku相关的节点
- 首次使用这些节点时,系统会自动提示安装后端wheel包
- 按照提示点击确认即可完成安装
如果自动安装失败,你也可以手动执行:
# 进入插件目录
cd ComfyUI/custom_nodes/nunchaku_nodes
# 运行安装脚本
python install_wheel.py
3. Nunchaku FLUX.1-dev模型使用准备
插件安装好了,接下来要准备模型文件。这是最关键的一步,模型放错位置会导致无法运行。
3.1 配置Nunchaku工作流
工作流是ComfyUI中预定义的图片生成流程,Nunchaku提供了现成的模板:
# 进入ComfyUI根目录
cd ComfyUI
# 创建工作流目录(如果不存在)
mkdir -p user/default/example_workflows
# 复制Nunchaku示例工作流
cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/
完成这步后,重启ComfyUI,你就能在“Load”按钮下的工作流列表里看到Nunchaku相关的工作流了。
3.2 下载模型文件
模型文件分为两部分:基础FLUX模型和Nunchaku FLUX.1-dev专属模型。请严格按照目录结构存放。
3.2.1 下载基础FLUX模型(必须)
这些是所有FLUX模型共用的基础组件:
# 下载文本编码器模型(放到models/text_encoders目录)
hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders
hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders
# 下载VAE模型(放到models/vae目录)
hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae
如果你已经通过其他方式下载了这些模型,可以创建软链接:
# 文本编码器模型软链接示例
ln -s /你的模型路径/clip_l.safetensors ComfyUI/models/text_encoders/clip_l.safetensors
ln -s /你的模型路径/t5xxl_fp16.safetensors ComfyUI/models/text_encoders/t5xxl_fp16.safetensors
# VAE模型软链接示例
ln -s /你的模型路径/ae.safetensors ComfyUI/models/vae/ae.safetensors
3.2.2 下载Nunchaku FLUX.1-dev主模型(核心)
这是生成图片的核心模型,根据你的显卡选择合适版本:
| 显卡类型 | 推荐模型版本 | 显存占用 | 生成质量 |
|---|---|---|---|
| Blackwell显卡(RTX 50系列) | FP4量化版 | 约8GB | 优秀 |
| 其他NVIDIA显卡(RTX 30/40系列) | INT4量化版 | 约10GB | 优秀 |
| 显存8GB及以下 | FP8量化版 | 约6GB | 良好 |
| 显存16GB及以上 | FP16完整版 | 约33GB | 最佳 |
下载命令示例(INT4版本):
# 下载INT4量化版主模型
hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/
同样,如果你已经下载了模型文件,可以创建软链接:
ln -s /你的模型路径/svdq-int4_r32-flux.1-dev.safetensors ComfyUI/models/unet/svdq-int4_r32-flux.1-dev.safetensors
3.2.3 可选:下载LoRA模型(增强效果)
LoRA是小型的附加模型,可以微调生成风格。Nunchaku FLUX.1-dev支持多个LoRA同时使用:
# 下载FLUX.1-Turbo-Alpha LoRA(加速生成)
hf下载命令...
# 下载Ghibsky Illustration LoRA(吉卜力风格)
hf下载命令...
将下载的LoRA文件放到models/loras/目录下。
4. 启动ComfyUI并运行FLUX.1-dev文生图
所有准备工作完成后,终于可以开始生成图片了!
4.1 启动ComfyUI
在ComfyUI根目录下运行:
python main.py
如果一切正常,你会看到类似这样的输出:
Starting server
To see the GUI go to: http://127.0.0.1:8188
在浏览器中打开这个地址(通常是http://127.0.0.1:8188),就能看到ComfyUI的界面了。
4.2 选择Nunchaku FLUX.1-dev工作流
ComfyUI支持多种工作流,我们需要加载专门为Nunchaku FLUX.1-dev优化的工作流:
- 点击界面右上角的“Load”按钮
- 选择
user/default/example_workflows/nunchaku-flux.1-dev.json - 工作流加载后,界面会显示完整的节点连接图
这个工作流已经预配置好了所有必要的节点和连接,你只需要调整参数即可。
4.3 文生图参数设置与运行
现在到了最激动人心的环节——生成你的第一张图片!
4.3.1 输入提示词
在工作流中找到“CLIP Text Encode”节点或类似的文本输入框,输入英文描述。FLUX模型对英文提示词的支持更好。
提示词编写技巧:
- 主体描述:明确你想要什么(如:a beautiful landscape)
- 细节补充:添加风格、质量、光线等(如:ultra HD, realistic, sunset lighting)
- 负面提示:在Negative Prompt框中输入不想要的内容(如:blurry, distorted, watermark)
示例提示词:
A majestic mountain landscape at sunset, snow-capped peaks, crystal clear lake reflection, cinematic lighting, ultra detailed, 8K resolution, photorealistic
4.3.2 调整生成参数
关键参数说明:
| 参数 | 推荐值 | 作用说明 |
|---|---|---|
| Steps(推理步数) | 20-50步 | 步数越多细节越好,但时间越长。开启Turbo LoRA时可减少到10-20步 |
| Resolution(分辨率) | 1024x1024 | FLUX.1-dev支持多种分辨率,显存不足时可降低到768x768 |
| CFG Scale | 3.5-7.0 | 控制提示词跟随程度,值越高越贴近描述 |
| Sampler(采样器) | Euler a | 平衡速度和质量,新手推荐这个 |
| LoRA权重 | 0.5-1.0 | 多个LoRA时,权重总和建议不超过1.5 |
4.3.3 生成并查看结果
- 点击界面上的“Queue Prompt”按钮开始生成
- 等待进度条完成(首次生成可能较慢,需要加载模型)
- 在右侧的预览区域查看生成的图片
- 满意的话可以点击“Save”保存图片
第一次运行常见问题:
- 显存不足:降低分辨率或使用量化版模型
- 节点缺失:通过ComfyUI-Manager安装缺失的自定义节点
- 模型加载失败:检查模型文件路径是否正确
5. 进阶技巧与优化建议
掌握了基础用法后,这些技巧能让你的生成效果更上一层楼。
5.1 提示词工程进阶
好的提示词是生成好图片的关键:
# 这是一个结构化的提示词模板,你可以根据需要调整
prompt_template = """
[主体描述], [详细特征], [艺术风格], [画质要求], [其他修饰]
示例:
A cute cat wearing a hat, detailed fur, bright eyes,
in the style of studio ghibli,
4K resolution, sharp focus, cinematic lighting
"""
# 负面提示词同样重要
negative_prompt = """
blurry, distorted, ugly, bad anatomy,
watermark, signature, text,
low quality, jpeg artifacts
"""
5.2 多LoRA组合使用
Nunchaku FLUX.1-dev支持同时使用多个LoRA,实现风格混合:
- 添加LoRA节点:在工作流中复制多个LoRA Loader节点
- 设置不同权重:每个LoRA设置不同的强度(建议0.3-0.8)
- 组合策略:
- 风格LoRA + 主题LoRA(如:吉卜力风格 + 猫主题)
- 细节LoRA + 色彩LoRA(如:细节增强 + 色彩优化)
5.3 批量生成与工作流保存
提高效率的技巧:
# 使用API进行批量生成(高级用法)
import requests
import json
def batch_generate(prompts, output_dir):
"""批量生成多张图片"""
for i, prompt in enumerate(prompts):
# 构建请求数据
data = {
"prompt": prompt,
"steps": 30,
"width": 1024,
"height": 1024
}
# 发送生成请求
response = requests.post(
"http://127.0.0.1:8188/prompt",
json=data
)
# 保存结果
if response.status_code == 200:
save_image(response.content, f"{output_dir}/image_{i}.png")
5.4 性能优化
如果生成速度慢或显存不足,可以尝试:
-
使用--lowvram参数启动:
python main.py --lowvram -
启用xformers加速(如果已安装):
python main.py --force-fp16 --xformers -
调整ComfyUI设置:
- 降低预览图质量
- 关闭不必要的节点预览
- 使用CPU卸载部分计算
6. 常见问题解决
遇到问题不要慌,大多数都有解决方案:
6.1 模型加载失败
问题:启动时提示模型找不到或加载错误
解决步骤:
- 检查模型文件路径是否正确
- 确认文件完整性(重新下载)
- 检查文件权限(确保可读)
- 查看ComfyUI日志中的具体错误信息
6.2 显存不足(Out of Memory)
问题:生成时显存溢出
解决方案:
- 使用量化版模型(INT4/FP8)
- 降低生成分辨率
- 减少批处理大小(batch size)
- 关闭其他占用显存的程序
6.3 生成质量不佳
问题:图片模糊、扭曲或不符预期
排查方向:
- 提示词是否足够详细具体
- 推理步数是否足够(建议至少20步)
- CFG Scale值是否合适(3.5-7.0之间调整)
- 是否使用了合适的LoRA
6.4 工作流节点缺失
问题:加载工作流时提示缺少节点
解决方法:
- 通过ComfyUI-Manager安装缺失节点
- 手动安装对应的自定义节点
- 检查节点版本兼容性
7. 总结
通过这篇教程,你应该已经成功在ComfyUI中部署并运行了Nunchaku FLUX.1-dev模型。让我们回顾一下关键要点:
7.1 核心步骤回顾
- 环境准备:确保硬件和软件满足要求,特别是显卡和Python版本
- 插件安装:使用Comfy-CLI或手动安装Nunchaku插件
- 模型下载:按目录结构下载基础模型和FLUX.1-dev主模型
- 工作流配置:加载预定义的工作流模板
- 参数调整:根据需求设置提示词和生成参数
- 生成图片:运行并保存结果
7.2 最佳实践建议
- 从量化版开始:如果显存有限,先使用INT4或FP8版本
- 善用LoRA:合适的LoRA能显著提升生成效果
- 提示词要具体:越详细的描述,生成结果越符合预期
- 保存成功配置:找到合适的参数组合后,保存工作流以便复用
7.3 后续学习方向
掌握了基础用法后,你可以进一步探索:
- 自定义工作流:根据特定需求设计自己的工作流
- 模型微调:使用自己的数据集训练专属LoRA
- API集成:将ComfyUI集成到自己的应用中
- 性能优化:针对你的硬件配置进行深度优化
Nunchaku FLUX.1-dev是一个功能强大的文生图模型,在ComfyUI的加持下,它的潜力能得到充分发挥。现在你已经掌握了部署和使用的方法,接下来就是发挥创意的时候了。多尝试不同的提示词和参数组合,你会发现这个模型的强大之处。
记住,AI绘画既是技术也是艺术,好的工具加上你的创意,才能产生真正惊艳的作品。开始你的创作之旅吧!
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐


所有评论(0)