openclaw+Nunchaku FLUX.1-dev:科研团队图像生成实验复现方案

想在自己的电脑上复现顶尖科研团队的图像生成实验吗?今天,我们就来手把手教你如何部署和使用Nunchaku FLUX.1-dev模型,在ComfyUI中实现高质量的文生图效果。这个方案源自MIT Han Lab等团队的开源项目,现在你也可以轻松体验。

1. 环境准备:确保你的电脑能跑起来

在开始之前,你需要确保电脑满足一些基本要求。别担心,我会用最简单的方式告诉你需要什么。

1.1 硬件要求

首先看显卡,这是最重要的部分:

  • 显卡:需要NVIDIA显卡,并且支持CUDA。显存越大越好,推荐24GB以上。如果你的显存不够大,后面我会告诉你怎么选择占用显存更小的版本。
  • 内存:建议16GB以上,这样运行起来会更流畅。
  • 硬盘空间:至少需要50GB可用空间,因为模型文件都比较大。

1.2 软件要求

接下来是软件环境,这些都需要提前安装好:

  1. Python 3.10或更高版本 - 这是运行所有代码的基础
  2. Git - 用来下载代码和插件
  3. PyTorch - 深度学习框架,需要安装和你的显卡匹配的版本

如果你不确定怎么安装这些,可以按照下面的步骤来:

# 先安装Python(如果你还没有的话)
# 可以从python官网下载安装包,或者用conda创建虚拟环境

# 安装Git
# Windows用户可以从git官网下载安装程序
# Linux用户可以用:sudo apt install git

# 安装PyTorch(以CUDA 12.1为例)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

1.3 必备工具

还有一个工具需要提前安装,它用来下载模型文件:

pip install --upgrade huggingface_hub

这个工具会帮你从网上下载需要的模型,省去手动下载的麻烦。

2. 安装Nunchaku插件和ComfyUI

现在我们来安装核心的软件部分。ComfyUI是一个图形化的AI工具界面,而Nunchaku是专门为FLUX模型设计的插件。

2.1 安装ComfyUI-nunchaku插件

有两种安装方法,你可以选择其中一种。

方法一:用Comfy-CLI安装(最简单)

如果你喜欢命令行操作,这个方法最省事:

# 安装ComfyUI的命令行工具
pip install comfy-cli

# 安装ComfyUI(如果已经安装过可以跳过)
comfy install

# 安装Nunchaku插件
comfy noderegistry-install ComfyUI-nunchaku

# 把插件移动到正确的位置
mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes
方法二:手动安装(更灵活)

如果你想自己控制安装过程,可以用这个方法:

# 1. 下载ComfyUI的代码
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 2. 安装依赖包
pip install -r requirements.txt

# 3. 下载Nunchaku插件
cd custom_nodes
git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes

两种方法都能成功安装,第一种更自动化,第二种让你更清楚每一步在做什么。

2.2 安装Nunchaku后端

插件安装好后,还需要安装它的“引擎”部分。从v0.3.2版本开始,这个过程变得很简单:

  1. 启动ComfyUI(后面会详细讲怎么启动)
  2. 在网页界面中找到“安装/更新后端”的选项
  3. 点击一下,系统就会自动下载和安装需要的文件

如果找不到这个选项,也可以手动安装,但通常自动的方式就够用了。

3. 准备模型文件

模型文件是生成图片的核心,我们需要下载几个不同的文件。别被文件名吓到,我会告诉你每个文件是干什么的。

3.1 配置工作流文件

工作流文件就像是做菜的食谱,告诉ComfyUI每一步该怎么做。我们先准备好这些“食谱”:

# 进入ComfyUI的文件夹
cd ComfyUI

# 创建工作流存放的目录(如果不存在的话)
mkdir -p user/default/example_workflows

# 复制Nunchaku自带的工作流示例
cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/

这样操作后,你就能在ComfyUI的网页界面里看到这些预设的工作流了。

3.2 下载基础FLUX模型(必须下载)

这部分包括两个重要的组件:文本编码器和VAE。

文本编码器的作用是把你的文字描述转换成计算机能理解的形式。我们需要下载两个文件:

# 下载CLIP文本编码器
hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders

# 下载T5文本编码器
hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders

VAE(变分自编码器)的作用是在生成过程的最后阶段,把计算机内部的数据转换成真正的图片。下载命令是:

# 下载VAE模型
hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae

如果你已经通过其他方式下载了这些文件,也可以手动把它们放到对应的文件夹里。检查一下文件是否放对了位置:

ComfyUI/models/text_encoders/
├── clip_l.safetensors
└── t5xxl_fp16.safetensors

ComfyUI/models/vae/
└── ae.safetensors

3.3 下载Nunchaku FLUX.1-dev主模型(最重要的部分)

这是生成图片的核心模型。根据你的显卡不同,需要选择不同的版本:

  • Blackwell架构显卡(比如RTX 50系列):用FP4版本
  • 其他NVIDIA显卡:用INT4版本
  • 显存不够大:可以考虑FP8版本,占用显存更少

以INT4版本为例,下载命令是:

# 下载主模型
hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/

下载完成后,这个文件应该放在ComfyUI/models/unet/目录下。

3.4 可选:下载LoRA模型(让效果更好)

LoRA是一种小型的附加模型,可以微调生成效果。比如可以让图片风格更统一,或者生成速度更快。常用的LoRA有:

  • FLUX.1-Turbo-Alpha:加快生成速度
  • Ghibsky Illustration:让图片有特定的艺术风格

下载后放在ComfyUI/models/loras/目录下。这些不是必须的,但用了之后效果通常会更好。

4. 启动和使用ComfyUI生成图片

一切准备就绪,现在可以开始生成图片了!

4.1 启动ComfyUI

打开命令行,进入ComfyUI的文件夹,然后运行:

python main.py

你会看到一些启动信息。当看到类似“Running on local URL: http://127.0.0.1:8188”这样的提示时,就说明启动成功了。

打开浏览器,输入http://127.0.0.1:8188,就能看到ComfyUI的界面了。

4.2 加载Nunchaku工作流

在ComfyUI界面里,点击右上角的“Load”按钮,然后选择我们之前准备好的工作流文件。对于文生图任务,建议使用nunchaku-flux.1-dev.json这个工作流。

Nunchaku FLUX.1-dev工作流界面

这个工作流已经预设好了所有节点和连接,你只需要调整几个参数就能生成图片。

4.3 设置参数并生成图片

现在到了最有趣的部分——输入描述,让AI帮你画图!

  1. 输入提示词:在工作流中找到标有“Prompt”的输入框,用英文描述你想生成的画面。比如:

    • A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K(美丽的山水风景)
    • A cute cat wearing glasses and reading a book, cartoon style(戴眼镜看书的小猫,卡通风格)
    • Futuristic city at night with flying cars, cyberpunk style(未来都市夜景,赛博朋克风格)

    提示词输入位置

  2. 调整参数(如果需要):

    • 推理步数:一般20-30步效果就不错了,步数越多细节越好,但时间也越长
    • 图片尺寸:默认是1024x1024,如果显存不够可以调小一些
    • LoRA权重:如果用了LoRA,可以调整它的影响强度
  3. 点击运行:找到界面上的“Queue Prompt”按钮,点击它就开始生成图片了。

等待一会儿(时间取决于你的显卡和设置的步数),就能在右侧看到生成的图片了!

生成结果示例

5. 使用技巧和注意事项

为了让你的使用体验更好,这里有一些实用的建议:

5.1 模型文件存放位置要正确

这是最容易出错的地方,再强调一遍:

  • 主模型放在models/unet/文件夹
  • LoRA模型放在models/loras/文件夹
  • 文本编码器放在models/text_encoders/文件夹
  • VAE模型放在models/vae/文件夹

如果放错了位置,ComfyUI就找不到这些文件,自然也就无法生成图片。

5.2 根据显存选择合适版本

如果你的显存不够大,生成图片时可能会报错。这时候可以:

  1. 使用量化版本模型(INT4或FP8版本占用显存更少)
  2. 降低生成图片的分辨率(比如从1024x1024降到768x768)
  3. 减少推理步数(但不要低于20步,否则效果会变差)

5.3 提示词写作技巧

FLUX模型对英文提示词理解更好,写提示词时可以参考这些技巧:

  • 具体描述:不要说“一只狗”,而要说“一只金色的拉布拉多犬在草地上奔跑”
  • 添加风格词:比如“photorealistic”(照片般真实)、“anime style”(动漫风格)、“oil painting”(油画风格)
  • 控制画面:用“close-up”(特写)、“wide shot”(广角)、“from above”(俯视)等词控制构图
  • 调整质量:添加“8K”、“ultra detailed”、“best quality”等词提升画质

5.4 常见问题解决

如果在使用过程中遇到问题,可以尝试以下方法:

问题1:启动时提示缺少节点

  • 解决方法:通过ComfyUI-Manager安装缺少的自定义节点

问题2:生成图片很慢

  • 可能原因:推理步数设置太高,或者图片尺寸太大
  • 解决方法:适当降低步数或分辨率

问题3:图片质量不理想

  • 可能原因:提示词不够具体,或者推理步数太少
  • 解决方法:优化提示词描述,增加推理步数到25-30步

问题4:显存不足报错

  • 解决方法:换用量化版模型,或者降低生成参数

6. 总结

通过上面的步骤,你应该已经成功在ComfyUI中部署并运行了Nunchaku FLUX.1-dev模型。这个方案让你能够复现科研团队的图像生成实验,用上最新的AI绘画技术。

整个过程可以总结为几个关键点:

  1. 环境准备:确保硬件和软件都满足要求
  2. 安装部署:正确安装ComfyUI和Nunchaku插件
  3. 模型下载:下载所有必要的模型文件并放到正确位置
  4. 启动使用:加载工作流,输入提示词,生成图片

FLUX.1-dev模型在图像质量、细节表现和风格控制方面都有不错的表现。虽然部署过程稍微复杂一些,但一旦设置完成,后续使用就非常方便了。

如果你在操作过程中遇到任何问题,或者想探索更多的AI图像生成可能性,这个方案提供了一个很好的起点。从简单的风景画到复杂的概念设计,都可以尝试用这个工具来实现。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐