openclaw开源大模型部署:Nunchaku FLUX.1-dev Windows平台完整指南

想用上最新的开源文生图模型Nunchaku FLUX.1-dev,但在Windows上部署ComfyUI插件和模型时,是不是被各种命令和配置搞得晕头转向?

别担心,这篇指南就是为你准备的。我会带你从零开始,一步步在Windows上搞定Nunchaku FLUX.1-dev的完整部署,让你轻松体验这个强大模型的文生图能力。

1. 环境准备:先看看你的电脑够不够格

在开始安装之前,我们先确认一下你的电脑环境是否满足要求。这就像盖房子前要先打好地基一样重要。

1.1 硬件要求

Nunchaku FLUX.1-dev对硬件有一定要求,特别是显卡:

  • 显卡:必须是NVIDIA显卡,并且支持CUDA。这是硬性要求,因为模型需要GPU来加速计算。
  • 显存:推荐24GB或以上。如果显存不足,后面我会告诉你怎么选择量化版本来降低显存占用。
  • 内存:建议16GB或以上,确保系统运行流畅。

怎么查看自己的显卡信息?很简单,在Windows搜索框输入“设备管理器”,打开后找到“显示适配器”,就能看到你的显卡型号了。

1.2 软件要求

软件方面需要准备这些:

  • Python 3.10+:这是运行ComfyUI的基础环境。
  • Git:用来下载代码和插件。
  • PyTorch:深度学习框架,需要安装与你的系统和显卡匹配的版本。

如果你不确定自己的Python版本,可以打开命令提示符(CMD)输入:

python --version

1.3 提前安装必要工具

在正式开始前,我们先安装一个重要的工具——huggingface_hub。这个工具能帮你快速下载模型文件。

打开命令提示符,输入:

pip install --upgrade huggingface_hub

看到“Successfully installed”就说明安装成功了。

2. Nunchaku ComfyUI插件安装部署

环境准备好了,现在我们来安装Nunchaku插件。这是连接ComfyUI和FLUX.1-dev模型的桥梁。

2.1 安装ComfyUI-nunchaku插件

我提供两种安装方法,你可以根据自己的情况选择。

方法A:用Comfy-CLI安装(最简单)

如果你喜欢一键式安装,这个方法最适合你。

首先安装ComfyUI的命令行工具:

pip install comfy-cli

然后安装ComfyUI本体(如果你已经安装过,可以跳过这一步):

comfy install

最后安装Nunchaku插件:

comfy noderegistry-install ComfyUI-nunchaku

安装完成后,把插件移动到正确的位置:

mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes
方法B:手动安装(更灵活)

如果你想自己控制安装过程,或者遇到网络问题,可以试试手动安装。

先下载ComfyUI的代码:

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

安装ComfyUI的依赖包:

pip install -r requirements.txt

进入自定义节点目录,下载Nunchaku插件:

cd custom_nodes
git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes

两种方法都能成功安装插件,选择你觉得顺手的那一种就行。

2.2 安装Nunchaku后端

插件安装好后,还需要安装后端支持。从v0.3.2版本开始,这个过程变得很简单。

插件目录里会有一个install_wheel.json文件,通过它就能一键安装或更新后端wheel包。具体操作我们会在后面启动ComfyUI时看到。

3. Nunchaku FLUX.1-dev模型使用准备

插件装好了,接下来要准备模型文件。这是整个部署过程中最关键的一步。

3.1 配置Nunchaku工作流

工作流就像是ComfyUI里的“菜谱”,告诉软件怎么一步步生成图片。Nunchaku插件自带了一些示例工作流,我们需要把它们放到正确的位置。

进入ComfyUI的根目录:

cd ComfyUI

创建工作流目录(如果目录不存在的话):

mkdir -p user/default/example_workflows

复制Nunchaku的示例工作流:

cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/

这样操作后,你在ComfyUI网页端就能看到这些工作流了。

3.2 下载模型文件

现在到了最重要的部分——下载模型文件。Nunchaku FLUX.1-dev需要两个部分的模型:基础FLUX模型和专属的FLUX.1-dev模型。

3.2.1 下载基础FLUX模型(必须安装)

基础模型包括文本编码器和VAE模型,它们是所有FLUX模型共用的组件。

先下载文本编码器模型,放到models/text_encoders目录:

hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders
hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders

然后下载VAE模型,放到models/vae目录:

hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae

如果你之前已经下载过这些模型,也可以直接使用本地文件。只需要在对应目录创建软链接指向你的模型文件就行。

3.2.2 下载Nunchaku FLUX.1-dev主模型(核心)

这是我们要用的核心模型,根据你的显卡类型选择不同的版本:

  • Blackwell显卡(如RTX 50系列):使用FP4模型
  • 其他NVIDIA显卡:使用INT4模型
  • 显存不足:可以选择FP8量化版

以INT4版本为例,下载命令如下:

hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/

下载完成后,模型应该放在models/unet/目录下。

3.2.3 可选:下载LoRA模型

LoRA模型可以微调生成效果,让图片更符合你的需求。常用的有FLUX.1-Turbo-AlphaGhibsky Illustration等。

下载后放到models/loras目录。这些不是必须的,但能显著提升生成质量。

4. 启动ComfyUI并运行FLUX.1-dev文生图

所有准备工作都完成了,现在让我们启动ComfyUI,开始生成第一张图片。

4.1 启动ComfyUI

进入ComfyUI的根目录,运行启动命令:

python main.py

稍等片刻,你会看到类似这样的输出:

Starting server
To see the GUI go to: http://127.0.0.1:8188

在浏览器中打开这个地址(http://127.0.0.1:8188),就能看到ComfyUI的网页界面了。

4.2 选择Nunchaku FLUX.1-dev工作流

在ComfyUI网页端,点击右上角的“Load”按钮,选择我们之前复制的工作流文件。

重点推荐使用nunchaku-flux.1-dev.json这个工作流,它支持加载多个LoRA模型,文生图效果最好。

Nunchaku FLUX.1-dev工作流界面

加载成功后,你会看到完整的工作流节点图。如果提示缺少某些节点,可以通过ComfyUI-Manager安装对应的自定义节点。

4.3 文生图参数设置与运行

现在到了最激动人心的时刻——生成你的第一张AI图片。

步骤1:输入提示词

在工作流中找到“提示词输入框”,这里输入你想要生成的图片描述。FLUX模型对英文提示词支持更好,所以建议用英文描述。

举个例子,如果你想生成一幅风景画,可以输入:

A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K

提示词输入示例

步骤2:调整参数(可选)

你可以根据需要调整一些参数:

  • 推理步数:一般20-30步效果就不错了,步数越多细节越丰富,但生成时间也越长
  • 分辨率:默认是1024x1024,如果显存不足可以降低到768x768
  • LoRA权重:如果加载了LoRA模型,可以调整权重来控制风格强度
  • 采样器:默认的采样器效果就很好,不需要改动
步骤3:生成图片

点击网页端的“Queue Prompt”按钮,开始生成图片。第一次运行可能会比较慢,因为需要加载模型到显存。

生成过程中,你可以在右下角看到进度。完成后,图片会显示在右侧的预览区。

生成结果预览

恭喜你!你已经成功用Nunchaku FLUX.1-dev生成了第一张AI图片。

5. 关键注意事项与问题排查

在实际使用中,你可能会遇到一些问题。这里我总结了一些常见问题和注意事项,帮你少走弯路。

5.1 模型目录不能放错

这是最容易出错的地方,一定要确保模型文件放在正确的目录:

  • FLUX.1-dev主模型models/unet/
  • LoRA模型models/loras
  • 文本编码器models/text_encoders
  • VAE模型models/vae

如果放错了位置,ComfyUI就找不到模型,会报错。

5.2 显存适配很重要

不同版本的模型对显存的要求不同:

  • FP16完整版:约33GB显存,效果最好但要求最高
  • FP8量化版:约17GB显存,平衡了效果和资源消耗
  • INT4/FP4量化版:显存占用最低,适合显存有限的用户

如果你的显卡显存不足,生成时会报“CUDA out of memory”错误。这时候就需要选择量化版本,或者降低生成分辨率。

5.3 显卡兼容性

不同显卡支持的模型版本不同:

  • Blackwell架构显卡(RTX 50系列):只能用FP4模型
  • 其他NVIDIA显卡:优先用INT4模型,兼容性最好

如果你不确定自己的显卡架构,可以在NVIDIA控制面板里查看,或者搜索你的显卡型号。

5.4 工作流依赖问题

加载工作流时,如果提示“Missing nodes”,说明缺少某些自定义节点。这时候可以:

  1. 通过ComfyUI-Manager安装缺失的节点
  2. 或者在工作流中删除用不到的节点

ComfyUI-Manager是管理插件的工具,如果还没安装,可以在ComfyUI的“Manager”菜单里找到安装方法。

5.5 推理步数设置

特别注意:如果你关闭了FLUX.1-Turbo-Alpha这个LoRA,推理步数不能低于20步,否则生成效果会很差。

这是因为Turbo LoRA能加速生成过程,关闭后就需要更多的步数来保证质量。建议保持默认设置,除非你知道自己在做什么。

6. 总结与进阶建议

通过上面的步骤,你应该已经成功在Windows上部署了Nunchaku FLUX.1-dev,并且生成了第一张图片。整个过程虽然步骤不少,但只要按顺序操作,基本上不会遇到大问题。

6.1 快速回顾

让我们简单回顾一下关键步骤:

  1. 环境检查:确认显卡、Python版本符合要求
  2. 插件安装:用Comfy-CLI或手动安装Nunchaku插件
  3. 模型下载:下载基础FLUX模型和FLUX.1-dev主模型
  4. 工作流配置:复制示例工作流到正确目录
  5. 启动运行:启动ComfyUI,加载工作流,输入提示词生成图片

6.2 进阶使用建议

当你熟悉了基本操作后,可以尝试这些进阶技巧:

  • 混合使用多个LoRA:Nunchaku支持同时加载多个LoRA,可以混合不同风格
  • 调整采样参数:尝试不同的采样器和CFG值,找到最适合你需求的组合
  • 使用负面提示词:告诉模型你不想看到的内容,能有效提升生成质量
  • 批量生成:一次生成多张图片,然后选择最好的那张

6.3 遇到问题怎么办

如果遇到问题,可以按这个顺序排查:

  1. 检查模型路径:这是最常见的问题,确保所有模型都在正确目录
  2. 查看错误信息:ComfyUI的控制台会输出详细的错误信息,根据提示解决问题
  3. 降低分辨率:如果显存不足,先尝试降低生成分辨率
  4. 使用量化模型:如果还是显存不足,换用INT4或FP8量化版本
  5. 查阅官方文档:Nunchaku和ComfyUI都有详细的文档和社区

Nunchaku FLUX.1-dev是一个功能强大的开源文生图模型,虽然在Windows上部署需要一些步骤,但一旦配置完成,你就能享受到高质量的AI图片生成体验。希望这篇指南能帮你顺利踏上AI创作之旅。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐