openclaw开源大模型部署:Nunchaku FLUX.1-dev Windows平台完整指南
本文介绍了如何在星图GPU平台上自动化部署Nunchaku FLUX.1-dev文生图镜像,快速搭建AI图像生成环境。该平台简化了复杂的配置流程,用户可便捷地利用该镜像,根据文本提示词生成高质量的AI图片,适用于创意设计、内容创作等场景。
openclaw开源大模型部署:Nunchaku FLUX.1-dev Windows平台完整指南
想用上最新的开源文生图模型Nunchaku FLUX.1-dev,但在Windows上部署ComfyUI插件和模型时,是不是被各种命令和配置搞得晕头转向?
别担心,这篇指南就是为你准备的。我会带你从零开始,一步步在Windows上搞定Nunchaku FLUX.1-dev的完整部署,让你轻松体验这个强大模型的文生图能力。
1. 环境准备:先看看你的电脑够不够格
在开始安装之前,我们先确认一下你的电脑环境是否满足要求。这就像盖房子前要先打好地基一样重要。
1.1 硬件要求
Nunchaku FLUX.1-dev对硬件有一定要求,特别是显卡:
- 显卡:必须是NVIDIA显卡,并且支持CUDA。这是硬性要求,因为模型需要GPU来加速计算。
- 显存:推荐24GB或以上。如果显存不足,后面我会告诉你怎么选择量化版本来降低显存占用。
- 内存:建议16GB或以上,确保系统运行流畅。
怎么查看自己的显卡信息?很简单,在Windows搜索框输入“设备管理器”,打开后找到“显示适配器”,就能看到你的显卡型号了。
1.2 软件要求
软件方面需要准备这些:
- Python 3.10+:这是运行ComfyUI的基础环境。
- Git:用来下载代码和插件。
- PyTorch:深度学习框架,需要安装与你的系统和显卡匹配的版本。
如果你不确定自己的Python版本,可以打开命令提示符(CMD)输入:
python --version
1.3 提前安装必要工具
在正式开始前,我们先安装一个重要的工具——huggingface_hub。这个工具能帮你快速下载模型文件。
打开命令提示符,输入:
pip install --upgrade huggingface_hub
看到“Successfully installed”就说明安装成功了。
2. Nunchaku ComfyUI插件安装部署
环境准备好了,现在我们来安装Nunchaku插件。这是连接ComfyUI和FLUX.1-dev模型的桥梁。
2.1 安装ComfyUI-nunchaku插件
我提供两种安装方法,你可以根据自己的情况选择。
方法A:用Comfy-CLI安装(最简单)
如果你喜欢一键式安装,这个方法最适合你。
首先安装ComfyUI的命令行工具:
pip install comfy-cli
然后安装ComfyUI本体(如果你已经安装过,可以跳过这一步):
comfy install
最后安装Nunchaku插件:
comfy noderegistry-install ComfyUI-nunchaku
安装完成后,把插件移动到正确的位置:
mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes
方法B:手动安装(更灵活)
如果你想自己控制安装过程,或者遇到网络问题,可以试试手动安装。
先下载ComfyUI的代码:
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
安装ComfyUI的依赖包:
pip install -r requirements.txt
进入自定义节点目录,下载Nunchaku插件:
cd custom_nodes
git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes
两种方法都能成功安装插件,选择你觉得顺手的那一种就行。
2.2 安装Nunchaku后端
插件安装好后,还需要安装后端支持。从v0.3.2版本开始,这个过程变得很简单。
插件目录里会有一个install_wheel.json文件,通过它就能一键安装或更新后端wheel包。具体操作我们会在后面启动ComfyUI时看到。
3. Nunchaku FLUX.1-dev模型使用准备
插件装好了,接下来要准备模型文件。这是整个部署过程中最关键的一步。
3.1 配置Nunchaku工作流
工作流就像是ComfyUI里的“菜谱”,告诉软件怎么一步步生成图片。Nunchaku插件自带了一些示例工作流,我们需要把它们放到正确的位置。
进入ComfyUI的根目录:
cd ComfyUI
创建工作流目录(如果目录不存在的话):
mkdir -p user/default/example_workflows
复制Nunchaku的示例工作流:
cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/
这样操作后,你在ComfyUI网页端就能看到这些工作流了。
3.2 下载模型文件
现在到了最重要的部分——下载模型文件。Nunchaku FLUX.1-dev需要两个部分的模型:基础FLUX模型和专属的FLUX.1-dev模型。
3.2.1 下载基础FLUX模型(必须安装)
基础模型包括文本编码器和VAE模型,它们是所有FLUX模型共用的组件。
先下载文本编码器模型,放到models/text_encoders目录:
hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders
hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders
然后下载VAE模型,放到models/vae目录:
hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae
如果你之前已经下载过这些模型,也可以直接使用本地文件。只需要在对应目录创建软链接指向你的模型文件就行。
3.2.2 下载Nunchaku FLUX.1-dev主模型(核心)
这是我们要用的核心模型,根据你的显卡类型选择不同的版本:
- Blackwell显卡(如RTX 50系列):使用FP4模型
- 其他NVIDIA显卡:使用INT4模型
- 显存不足:可以选择FP8量化版
以INT4版本为例,下载命令如下:
hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/
下载完成后,模型应该放在models/unet/目录下。
3.2.3 可选:下载LoRA模型
LoRA模型可以微调生成效果,让图片更符合你的需求。常用的有FLUX.1-Turbo-Alpha、Ghibsky Illustration等。
下载后放到models/loras目录。这些不是必须的,但能显著提升生成质量。
4. 启动ComfyUI并运行FLUX.1-dev文生图
所有准备工作都完成了,现在让我们启动ComfyUI,开始生成第一张图片。
4.1 启动ComfyUI
进入ComfyUI的根目录,运行启动命令:
python main.py
稍等片刻,你会看到类似这样的输出:
Starting server
To see the GUI go to: http://127.0.0.1:8188
在浏览器中打开这个地址(http://127.0.0.1:8188),就能看到ComfyUI的网页界面了。
4.2 选择Nunchaku FLUX.1-dev工作流
在ComfyUI网页端,点击右上角的“Load”按钮,选择我们之前复制的工作流文件。
重点推荐使用nunchaku-flux.1-dev.json这个工作流,它支持加载多个LoRA模型,文生图效果最好。
加载成功后,你会看到完整的工作流节点图。如果提示缺少某些节点,可以通过ComfyUI-Manager安装对应的自定义节点。
4.3 文生图参数设置与运行
现在到了最激动人心的时刻——生成你的第一张AI图片。
步骤1:输入提示词
在工作流中找到“提示词输入框”,这里输入你想要生成的图片描述。FLUX模型对英文提示词支持更好,所以建议用英文描述。
举个例子,如果你想生成一幅风景画,可以输入:
A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K
步骤2:调整参数(可选)
你可以根据需要调整一些参数:
- 推理步数:一般20-30步效果就不错了,步数越多细节越丰富,但生成时间也越长
- 分辨率:默认是1024x1024,如果显存不足可以降低到768x768
- LoRA权重:如果加载了LoRA模型,可以调整权重来控制风格强度
- 采样器:默认的采样器效果就很好,不需要改动
步骤3:生成图片
点击网页端的“Queue Prompt”按钮,开始生成图片。第一次运行可能会比较慢,因为需要加载模型到显存。
生成过程中,你可以在右下角看到进度。完成后,图片会显示在右侧的预览区。
恭喜你!你已经成功用Nunchaku FLUX.1-dev生成了第一张AI图片。
5. 关键注意事项与问题排查
在实际使用中,你可能会遇到一些问题。这里我总结了一些常见问题和注意事项,帮你少走弯路。
5.1 模型目录不能放错
这是最容易出错的地方,一定要确保模型文件放在正确的目录:
- FLUX.1-dev主模型 →
models/unet/ - LoRA模型 →
models/loras - 文本编码器 →
models/text_encoders - VAE模型 →
models/vae
如果放错了位置,ComfyUI就找不到模型,会报错。
5.2 显存适配很重要
不同版本的模型对显存的要求不同:
- FP16完整版:约33GB显存,效果最好但要求最高
- FP8量化版:约17GB显存,平衡了效果和资源消耗
- INT4/FP4量化版:显存占用最低,适合显存有限的用户
如果你的显卡显存不足,生成时会报“CUDA out of memory”错误。这时候就需要选择量化版本,或者降低生成分辨率。
5.3 显卡兼容性
不同显卡支持的模型版本不同:
- Blackwell架构显卡(RTX 50系列):只能用FP4模型
- 其他NVIDIA显卡:优先用INT4模型,兼容性最好
如果你不确定自己的显卡架构,可以在NVIDIA控制面板里查看,或者搜索你的显卡型号。
5.4 工作流依赖问题
加载工作流时,如果提示“Missing nodes”,说明缺少某些自定义节点。这时候可以:
- 通过ComfyUI-Manager安装缺失的节点
- 或者在工作流中删除用不到的节点
ComfyUI-Manager是管理插件的工具,如果还没安装,可以在ComfyUI的“Manager”菜单里找到安装方法。
5.5 推理步数设置
特别注意:如果你关闭了FLUX.1-Turbo-Alpha这个LoRA,推理步数不能低于20步,否则生成效果会很差。
这是因为Turbo LoRA能加速生成过程,关闭后就需要更多的步数来保证质量。建议保持默认设置,除非你知道自己在做什么。
6. 总结与进阶建议
通过上面的步骤,你应该已经成功在Windows上部署了Nunchaku FLUX.1-dev,并且生成了第一张图片。整个过程虽然步骤不少,但只要按顺序操作,基本上不会遇到大问题。
6.1 快速回顾
让我们简单回顾一下关键步骤:
- 环境检查:确认显卡、Python版本符合要求
- 插件安装:用Comfy-CLI或手动安装Nunchaku插件
- 模型下载:下载基础FLUX模型和FLUX.1-dev主模型
- 工作流配置:复制示例工作流到正确目录
- 启动运行:启动ComfyUI,加载工作流,输入提示词生成图片
6.2 进阶使用建议
当你熟悉了基本操作后,可以尝试这些进阶技巧:
- 混合使用多个LoRA:Nunchaku支持同时加载多个LoRA,可以混合不同风格
- 调整采样参数:尝试不同的采样器和CFG值,找到最适合你需求的组合
- 使用负面提示词:告诉模型你不想看到的内容,能有效提升生成质量
- 批量生成:一次生成多张图片,然后选择最好的那张
6.3 遇到问题怎么办
如果遇到问题,可以按这个顺序排查:
- 检查模型路径:这是最常见的问题,确保所有模型都在正确目录
- 查看错误信息:ComfyUI的控制台会输出详细的错误信息,根据提示解决问题
- 降低分辨率:如果显存不足,先尝试降低生成分辨率
- 使用量化模型:如果还是显存不足,换用INT4或FP8量化版本
- 查阅官方文档:Nunchaku和ComfyUI都有详细的文档和社区
Nunchaku FLUX.1-dev是一个功能强大的开源文生图模型,虽然在Windows上部署需要一些步骤,但一旦配置完成,你就能享受到高质量的AI图片生成体验。希望这篇指南能帮你顺利踏上AI创作之旅。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐


所有评论(0)