丹摩征文活动|FLUX.1 & ComfyUI:双重力量,快速完成部署与使用!
丹摩征文活动 | FLUX.1 & ComfyUI:双重力量,快速完成部署与使用! FLUX.1进化史 黑森林实验室最新推出的图像生成模型FLUX.1,为不同用户群体量身定制了三款版本,满足多样化的图像创作需求。 FLUX.1-pro版本,专为企业级用户打造,以其卓越的性能和图像生成能力,成为行业领先之选。它在提示词识别、视觉质量提升、细节展现和输出多样性方面均表现卓越,尤其适合追求高效率
丹摩征文活动 | FLUX.1 & ComfyUI:双重力量,快速完成部署与使用!
FLUX.1进化史
黑森林实验室最新推出的图像生成模型FLUX.1,为不同用户群体量身定制了三款版本,满足多样化的图像创作需求。
FLUX.1-pro版本,专为企业级用户打造,以其卓越的性能和图像生成能力,成为行业领先之选。它在提示词识别、视觉质量提升、细节展现和输出多样性方面均表现卓越,尤其适合追求高效率图像生成的企业用户。企业用户可通过官方API接入此版本,并享受定制化服务体验。
FLUX.1-dev版本,基于FLUX.1-pro开发,开源但限制商业用途。它继承了高精度的提示词识别能力,并在效率上进行了优化,是开发者进行研究和开发的理想选择。
FLUX.1-schnell版本,面向个人用户和本地开发者的开源且可商用版本,遵循Apache 2.0许可协议。它以快速的生成速度和低内存占用为特点,非常适合资源受限的环境。
这三款版本的FLUX.1,不仅展现了黑森林实验室在图像生成领域的技术实力,也为AI艺术创作和商业应用提供了更多可能性。
部署流程
使用丹摩来部署,进入控制台-GPU云实例,点击创建实例:
当您准备设置新的计算实例时,请先确定计费模式。对于短期项目,可以选择灵活的按需付费或日套餐;而长期项目,则推荐包月计费方案。
对于初次用户,建议配置如下:
- 计费方式:按需计费
- GPU配置:1个单位
- 型号推荐:NVIDIA GeForce RTX 4090,这款GPU拥有60GB的内存和24GB的显存,足以满足LLaMA3.1 8B版本至少16G显存的需求。
考虑到FLUX.1模型的存储需求,虽然每个实例都配备了50GB的硬盘空间,但建议将其扩展至150GB,以确保充足的存储空间。这样的配置将为您提供一个高效且经济的计算环境。
继续选择安装的镜像,平台提供了一些基础镜像供快速启动,镜像中安装了对应的基础环境和框架,可通过勾选来筛选框架,这里筛选PyTorch,选择PyTorch 2.4.0。
为保证安全登录,创建密钥对,输入自定义的名称,然后选择自动创建并将创建好的私钥保存的自己电脑中,以便后续本地连接使用。
创建好密钥对后,选择刚刚创建好的密钥对,并点击立即创建,等待一段时间后即可启动成功!
部署实例
接下来将基于平台提供的JupyterLab工具,演示fp16版本的部署流程。 启动JupyterLab,并创建终端:
部署ComfyUI
在终端中执行以下命令克隆ComfyUI代码:
# github官方代码仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
# gitCode-github加速计划代码仓库
git clone https://gitcode.com/gh_mirrors/co/ComfyUI.git
克隆完成后可看到如下目录:
终端进入/root/workspace/ComfyUI
目录,执行以下命令,安装ComfyUI需要的依赖:
cd ComfyUI/
pip install -r requirements.txt --ignore-installed
执行以下命令,启动ComfyUI:
python main.py --listen
看到服务成功启动,说明ComfyUI部署成功!
部署FLUX.1
推荐您阅读ComfyUI官方使用FLUX.1示例,以下是基于丹摩平台的部署教程,平台已预制FLUX.1相关资源,您可通过内网高速下载:
# 下载完整FLUX.1-dev模型
wget http://file.s3/damodel-openfile/FLUX.1/FLUX.1-dev.tar
# 下载完整FLUX.1-schnell模型
wget http://file.s3/damodel-openfile/FLUX.1/FLUX.1-dev.tar
# 下载完整Clip模型
wget http://file.s3/damodel-openfile/FLUX.1/flux_text_encoders.tar
此处以FLUX.1-dev为例演示,首先下载完整FLUX.1-dev模型:
wget http://file.s3/damodel-openfile/FLUX.1/FLUX.1-dev.tar
解压文件:
tar -xf FLUX.1-dev.tar
解压后完成后可看到如下目录:
为了确保ComfyUI能够顺利运行,需要将特定的文件放置在正确的路径下。请将大型模型文件flux1-dev.safetensors
复制到/root/workspace/ComfyUI/models/unet/
目录。同样,vae模型文件ae.safetensors
应被移动到/root/workspace/ComfyUI/models/vae/
路径下。这样操作后,ComfyUI便能正确识别并加载这些模型文件。
# 进入解压后的文件夹
cd /root/workspace/FLUX.1-dev
# 移动文件
mv flux1-dev.safetensors /root/workspace/ComfyUI/models/unet/
mv ae.safetensors /root/workspace/ComfyUI/models/vae/
接下来下载完整Clip模型:
# 进入JupyterLab根目录
cd /root/workspace
# 下载文件
wget http://file.s3/damodel-openfile/FLUX.1/flux_text_encoders.tar
解压文件:
tar -xf flux_text_encoders.tar
解压后完成后可看到如下目录:
把其中的一些文件移至ComfyUI指定目录:
# 进入解压后的文件夹
cd /root/workspace/flux_text_encoders
# 移动文件
mv clip_l.safetensors /root/workspace/ComfyUI/models/clip/
mv t5xxl_fp16.safetensors /root/workspace/ComfyUI/models/clip/
使用流程
终端进入ComfyUI目录,执行以下命令,启动ComfyUI:
cd /root/workspace/ComfyUI
python main.py --listen
启动成功,host为0.0.0.0
,端口为8188
:
Starting server
To see the GUI go to: http://0.0.0.0:8188
利用丹摩平台的端口映射功能,您可以将内部网络端口映射到公共网络上。只需进入丹摩的“GPU云实例管理”页面,选择“操作”菜单下的“更多”,然后点击“访问控制”来设置。这样,您就能轻松实现内网到公网的端口映射,提高网络访问的便捷性。
点击添加端口,添加服务对应端口:
添加成功后,通过访问链接即即可打开ComfyUI交互界面:
展示效果
端口:
[外链图片转存中...(img-LIlTVlij-1731394587860)]
添加成功后,通过访问链接即即可打开ComfyUI交互界面:
[外链图片转存中...(img-ZpH3wx4s-1731394587860)]
展示效果
[外链图片转存中...(img-y2AdXa1x-1731394587860)]
更多推荐
所有评论(0)