乐于分享
好东西不私藏

FLUX 扩图完整教程:从安装到出图,手把手带你搭建

FLUX 扩图完整教程:从安装到出图,手把手带你搭建

FLUX 扩图完整教程:从安装到出图,手把手带你搭建

你是不是也遇到过这样的困扰:想要快速编辑图片,但传统工具太慢?想要高质量生成图像,但效果总是不理想?

今天给你带来一套完整的 FLUX 扩图工作流教程,手把手教你搭建一个专业级的 AI 图像处理系统。这套工作流结合了 Flux2 Klein 快速编辑模型和 SDXL 高质量生成模型,让你既能快速处理,又能保证质量。

这套工作流能帮你做什么?

  • 快速编辑图像,几秒钟就能完成
  • 生成 1024x1024 高分辨率图片
  • 精确控制生成过程,想要什么效果就能做出什么效果
  • 自动抠图处理背景,省去手动操作的麻烦

整个工作流包含 91 个节点,116 个连接,听起来复杂,但跟着这篇教程走,你会发现其实很简单。

这套工作流适合谁用?

如果你是设计师或内容创作者

你可以用它来:

  • 快速生成创意素材
  • 批量制作设计元素
  • 给图片换风格

如果你做电商或营销

你可以用它来:

  • 处理产品图片
  • 制作广告素材
  • 生成营销内容

如果你是 AI 爱好者

你可以用它来:

  • 学习 AI 图像生成技术
  • 创作个人作品
  • 做技术实验

开始前的准备工作

你的电脑需要满足这些条件

  • ComfyUI 版本: v0.9.2 或更高
  • Python 版本3.10 以上
  • 显存: 建议 12GB 以上(最低 8GB,需要开启 lowvram 模式)
  • 硬盘空间: 至少 30GB,用来存放模型文件
  • 操作系统: Windows 10/11、Linux 或 macOS 都可以

第一步:安装必需的插件

ComfyUI-ControlNet-Auxiliary 插件

这个插件是用来提取图像控制信息的,比如姿态、边缘、深度等。

安装方法:

bash
cd ComfyUI/custom_nodesgit clone https://github.com/Fannovel16/comfyui_controlnet_aux.gitcd comfyui_controlnet_auxpip install -r requirements.txt

怎么确认安装成功?

重启 ComfyUI 后,在节点列表里搜索 "DWPreprocessor" 或 "ControlNet",如果能找到就说明装好了。

第二步:下载模型文件

这一步很重要,模型文件是整个工作流的核心。你需要下载以下几个模型:

主模型文件

juggernautXL_juggXIByRundiffusion.safetensors

  • 文件名: juggernautXL_juggXIByRundiffusion.safetensors
  • 去哪里下载: Hugging Face、Civitai 或 ModelScope,搜索模型名称就能找到
  • 放在哪里: ComfyUI/models/checkpoints/ 目录

FLUX1/flux1-dev-fp8.safetensors

  • 文件名: FLUX1/flux1-dev-fp8.safetensors
  • 去哪里下载: Hugging Face、Civitai 或 ModelScope
  • 放在哪里: ComfyUI/models/checkpoints/ 目录

ControlNet 模型

SDXL/controlnet-union-sdxl-1.0/diffusion_pytorch_model_promax.safetensors

  • 文件名: SDXL/controlnet-union-sdxl-1.0/diffusion_pytorch_model_promax.safetensors
  • 去哪里下载: Hugging Face、Civitai 或 ModelScope
  • 放在哪里: ComfyUI/models/controlnet/ 目录

放大模型

4xFaceUpDAT.pth

  • 文件名: 4xFaceUpDAT.pth
  • 去哪里下载: Hugging Face、Civitai 或 ModelScope
  • 放在哪里: ComfyUI/models/upscale_models/ 目录

4x-UltraSharp.pth

  • 文件名: 4x-UltraSharp.pth
  • 去哪里下载: Hugging Face、Civitai 或 ModelScope
  • 放在哪里: ComfyUI/models/upscale_models/ 目录

工作流节点配置详解

这套工作流一共有 91 个节点,听起来很多,但其实可以分成几大类,每一类负责不同的功能。

核心节点配置清单

节点ID节点类型功能说明类别
1LoadImage从磁盘加载图像模型加载
14CheckpointLoaderSimple加载 SDXL 检查点模型模型加载
31CheckpointLoaderSimple加载 FLUX 检查点模型模型加载
21ControlNetLoader加载 ControlNet 控制模型模型加载
19ControlNetApplyAdvancedControlNet 高级控制控制模型
24KSamplerSDXL 采样器采样器
35KSamplerFLUX 采样器采样器
166KSampler细节优化采样器采样器
25VAEDecodeSDXL VAE 解码器VAE编解码
36VAEDecodeFLUX VAE 解码器VAE编解码
175VAEDecode细节优化 VAE 解码器VAE编解码

关键节点参数配置

FluxGuidance 节点 (#38)

这个节点控制 FLUX 模型的引导强度。

  • 参数值: 3.5
  • 作用: 控制生成结果对提示词的遵循程度

SDXLEmptyLatentSizePicker+ 节点 (#59)

这个节点设置图像尺寸。

  • 尺寸: 1088x960 (1.13 宽高比)
  • 批次大小: 1
  • 起始索引: 0

KSampler 采样器节点

工作流中有 3 个采样器,分别负责不同阶段:

SDXL 采样器 (#24)

  • 随机种子: 460103653384879
  • 采样步数: 30
  • 控制模式: fixed

FLUX 采样器 (#35)

  • 随机种子: 531509771172899
  • 采样步数: 30
  • 控制模式: fixed

细节优化采样器 (#166)

  • 随机种子: 531509771172897
  • 采样步数: 20
  • 控制模式: fixed

节点连接关系详解

这部分是整个工作流的核心,116 个连接把 91 个节点串联起来,形成完整的数据处理流程。

数据流向总览

整个工作流的数据流向可以分成三个阶段:

第一阶段:模型加载和图像输入

text
节点#1(LoadImage) → 加载原始图像节点#14(CheckpointLoaderSimple) → 加载 SDXL 模型节点#31(CheckpointLoaderSimple) → 加载 FLUX 模型节点#21(ControlNetLoader) → 加载 ControlNet 模型

第二阶段:图像处理和生成

text
SDXL 处理流程:节点#16/17(CLIPTextEncode) → 编码提示词节点#19(ControlNetApplyAdvanced) → 应用 ControlNet 控制节点#24(KSampler) → SDXL 采样生成节点#25(VAEDecode) → 解码输出图像FLUX 处理流程:节点#32/33(CLIPTextEncode) → 编码提示词节点#38(FluxGuidance) → 应用 FLUX 引导节点#35(KSampler) → FLUX 采样生成节点#36(VAEDecode) → 解码输出图像

第三阶段:细节优化和输出

text
节点#171(ImageUpscaleWithModel) → 使用模型放大图像节点#173(ImageScaleBy) → 缩放图像节点#166(KSampler) → 细节优化采样节点#175(VAEDecode) → 最终解码输出

关键节点连接详情

SDXL 生成流程连接

起始节点连接类型目标节点数据类型
#14 CheckpointLoaderSimpleMODEL →#24 KSamplerMODEL
#14 CheckpointLoaderSimpleCLIP →#16 CLIPTextEncodeCLIP
#14 CheckpointLoaderSimpleCLIP →#17 CLIPTextEncodeCLIP
#16 CLIPTextEncodeCONDITIONING →#19 ControlNetApplyAdvancedpositive
#17 CLIPTextEncodeCONDITIONING →#19 ControlNetApplyAdvancednegative
#19 ControlNetApplyAdvancedCONDITIONING →#24 KSamplerpositive
#24 KSamplerLATENT →#25 VAEDecodesamples
#14 CheckpointLoaderSimpleVAE →#25 VAEDecodevae

FLUX 生成流程连接

起始节点连接类型目标节点数据类型
#31 CheckpointLoaderSimpleMODEL →#49 Power Lora Loadermodel
#49 Power Lora LoaderMODEL →#35 KSamplermodel
#49 Power Lora LoaderCLIP →#32 CLIPTextEncodeclip
#49 Power Lora LoaderCLIP →#33 CLIPTextEncodeclip
#32 CLIPTextEncodeCONDITIONING →#38 FluxGuidanceconditioning
#38 FluxGuidanceCONDITIONING →#35 KSamplerpositive
#33 CLIPTextEncodeCONDITIONING →#35 KSamplernegative
#35 KSamplerLATENT →#36 VAEDecodesamples
#31 CheckpointLoaderSimpleVAE →#36 VAEDecodevae

连接验证清单

在使用工作流前,你需要检查这些连接:

1. 模型加载节点检查

  • 确保所有模型加载节点的输出都连接到了后续节点
  • 检查模型文件路径是否正确

2. 文本编码节点检查

  • 确保 CLIP 输入已连接到模型加载器的 CLIP 输出
  • 检查提示词是否正确输入

3. 采样器节点检查

  • 确保 model、positive、negative、latent_image 输入都已连接
  • 检查采样参数设置是否合理

4. VAE 节点检查

  • 确保 VAE 编解码节点的 vae 输入已连接
  • 检查 VAE 模型是否正确加载

5. 输出节点检查

  • 确保最终的输出节点已连接
  • 检查输出路径设置

验证方法

  1. 在 ComfyUI 中加载工作流
  2. 检查是否有红色的错误提示
  3. 确认所有节点都显示为绿色(已连接)
  4. 点击 "Queue Prompt" 测试运行

常见连接问题

节点显示红色怎么办?

  • 原因: 输入连接缺失或数据类型不匹配
  • 解决: 检查该节点的所有必需输入是否已连接

数据类型不匹配怎么办?

  • 原因: 连接的输出和输入数据类型不兼容
  • 解决: 确认连接的数据类型是否正确(如 MODEL、CLIP、VAE、IMAGE 等)

出现循环依赖怎么办?

  • 原因: 节点之间形成了循环连接
  • 解决: 检查连接路径,确保数据流向是单向的

实战操作指南

第一步:准备输入素材

图片要求:

  • 格式: PNG、JPG 或 WEBP
  • 推荐分辨率: 1024x1024 或根据模型要求
  • 图片质量: 清晰、光线充足
  • 放置路径: ComfyUI/input/ 目录

第二步:调整提示词

正面提示词怎么写?

描述你想要生成的内容,建议按这个结构来写:

text
[主体描述] + [风格描述] + [质量关键词] + [细节描述]

举个例子:

text
high quality, detailed, professional, 8k, ultra detailed, masterpiece

负面提示词怎么写?

描述你不想要的内容:

text
blurry, low quality, distorted, deformed, bad anatomy, watermark, text, ugly

第三步:设置关键参数

采样器参数设置:

  • steps: 20-30(推荐 25)
  • cfg: 7-9(推荐 7.5)
  • denoise: 0.7-0.8(根据需求调整)
  • sampler_name: euler_a 或 dpmpp_2m

第四步:执行生成

  1. 确认所有参数设置正确
  2. 检查所有节点连接完整
  3. 点击 "Queue Prompt" 按钮
  4. 等待生成完成
  5. 查看输出结果(保存在 ComfyUI/output/ 目录)

批量处理技巧

如果你需要批量生成:

  1. 修改提示词或参数
  2. 多次点击 "Queue Prompt"
  3. 任务会依次排队执行

参数调优技巧

Steps(采样步数)调优

这个参数控制什么?

控制生成质量和速度。

推荐值: 20-30

怎么调?

  • 15-20: 快速预览,质量略低
  • 20-25(推荐): 正常质量,速度适中
  • 30-40: 高质量,但速度较慢

CFG Scale(提示词引导强度)调优

这个参数控制什么?

控制生成结果对提示词的遵循程度。

推荐值: 7-9

怎么调?

  • 6-7: 生成结果更自然,但可能偏离提示词
  • 7-8(推荐): 平衡自然度和提示词遵循度
  • 9-12: 严格遵循提示词,但可能过度饱和

Denoise(降噪强度)调优

这个参数控制什么?

控制生成图像与原图的相似度(img2img 模式)。

推荐值: 0.7-0.8

怎么调?

  • 0.5-0.6: 保留更多原图细节
  • 0.7-0.8(推荐): 平衡效果
  • 0.85-0.95: 强烈的生成效果

提示词技巧

正面提示词结构:

text
[主体] + [风格] + [质量词] + [细节]

举个例子:

text
beautiful landscape, sunset, mountains, high quality, detailed, 8k, professional photography, vibrant colors

提示词权重调整:

使用括号增强关键词权重:

text
(关键词:1.2) - 增强权重(关键词:0.8) - 降低权重

性能优化

显存不够怎么办?

如果你的显卡只有 8GB 显存:

bash
python main.py --lowvram

如果你的显卡有 12GB 以上显存,用默认设置就可以。

想要更快的生成速度?

  1. 减少采样步数
  2. 使用更快的采样器(euler_a)
  3. 启用 xformers 加速:
bash
pip install xformerspython main.py --use-xformers

常见问题解答

工作流加载后提示节点连接错误怎么办?

解决方法:

  1. 检查所有必需的插件是否已安装
  2. 确认模型文件是否已下载到正确路径
  3. 重启 ComfyUI 并重新加载工作流
  4. 检查节点之间的连接是否完整

生成结果不理想怎么办?

解决方法:

  1. 调整提示词,使描述更具体
  2. 提高 CFG Scale 值(7→8)
  3. 增加采样步数(25→30)
  4. 检查输入图片质量
  5. 尝试不同的随机种子

显存不足怎么办?

解决方法:

  1. 启用 lowvram 模式: python main.py --lowvram
  2. 降低图像分辨率
  3. 减少批处理数量
  4. 关闭其他占用显存的程序

生成速度太慢怎么办?

解决方法:

  1. 减少采样步数(30→20)
  2. 使用更快的采样器(euler_a)
  3. 启用 xformers 加速
  4. 升级显卡硬件

插件安装失败怎么办?

解决方法:

  1. 检查 Python 版本(需要 3.10+)
  2. 手动安装依赖: pip install -r requirements.txt
  3. 查看插件的 GitHub Issues 页面
  4. 更新 ComfyUI 到最新版本

如何批量处理多张图片?

解决方法:

  1. 使用 Load Image Batch 节点
  2. 编写 Python 脚本调用 ComfyUI API
  3. 多次点击 "Queue Prompt" 排队处理

生成的图片在哪里?

生成的图片默认保存在 ComfyUI/output/ 目录下,文件名包含时间戳和节点 ID。

如何保存工作流?

  1. 点击右上角的 "Save" 按钮
  2. 选择保存位置
  3. 文件会保存为 .json 格式

总结

这套 FLUX 扩图工作流结合了 Flux2 Klein 快速编辑模型和 SDXL 高质量生成模型,能够实现高质量、高效率的图像处理。

核心优势:

  • 高质量输出: 采用先进的 AI 模型,确保生成质量
  • 灵活配置: 支持多种参数调整和自定义设置
  • 易于使用: 清晰的节点结构,简单的操作流程
  • 性能优化: 支持多种性能优化选项
  • 完整文档: 提供详细的使用指南和参数说明

适合这些人使用:

  • 设计师和艺术家
  • 内容创作者
  • 电商从业者
  • AI 技术爱好者
  • 学习者和研究者

后续可以优化的方向:

  • 添加更多控制选项
  • 优化生成速度
  • 支持更多模型
  • 增强批量处理能力
  • 提供更多预设模板
═════════

如果你在使用过程中遇到问题,可以在评论区留言,我会尽快回复。如果这篇教程对你

有帮助,欢迎点赞转发,让更多人看到!

关注并私信「FLux扩图」,我把完整的工作流发给你。