FLUX 扩图完整教程:从安装到出图,手把手带你搭建
你是不是也遇到过这样的困扰:想要快速编辑图片,但传统工具太慢?想要高质量生成图像,但效果总是不理想?
今天给你带来一套完整的 FLUX 扩图工作流教程,手把手教你搭建一个专业级的 AI 图像处理系统。这套工作流结合了 Flux2 Klein 快速编辑模型和 SDXL 高质量生成模型,让你既能快速处理,又能保证质量。
这套工作流能帮你做什么?
- 快速编辑图像,几秒钟就能完成
- 生成 1024x1024 高分辨率图片
- 精确控制生成过程,想要什么效果就能做出什么效果
- 自动抠图处理背景,省去手动操作的麻烦
整个工作流包含 91 个节点,116 个连接,听起来复杂,但跟着这篇教程走,你会发现其实很简单。
这套工作流适合谁用?
如果你是设计师或内容创作者
你可以用它来:
- 快速生成创意素材
- 批量制作设计元素
- 给图片换风格
如果你做电商或营销
你可以用它来:
- 处理产品图片
- 制作广告素材
- 生成营销内容
如果你是 AI 爱好者
你可以用它来:
- 学习 AI 图像生成技术
- 创作个人作品
- 做技术实验
开始前的准备工作
你的电脑需要满足这些条件
- ComfyUI 版本: v0.9.2 或更高
- Python 版本: 3.10 以上
- 显存: 建议 12GB 以上(最低 8GB,需要开启 lowvram 模式)
- 硬盘空间: 至少 30GB,用来存放模型文件
- 操作系统: Windows 10/11、Linux 或 macOS 都可以
第一步:安装必需的插件
ComfyUI-ControlNet-Auxiliary 插件
这个插件是用来提取图像控制信息的,比如姿态、边缘、深度等。
安装方法:
bash cd ComfyUI/custom_nodesgit clone https://github.com/Fannovel16/comfyui_controlnet_aux.gitcd comfyui_controlnet_auxpip install -r requirements.txt
怎么确认安装成功?
重启 ComfyUI 后,在节点列表里搜索 "DWPreprocessor" 或 "ControlNet",如果能找到就说明装好了。
第二步:下载模型文件
这一步很重要,模型文件是整个工作流的核心。你需要下载以下几个模型:
主模型文件
juggernautXL_juggXIByRundiffusion.safetensors
- 文件名:
juggernautXL_juggXIByRundiffusion.safetensors - 去哪里下载: Hugging Face、Civitai 或 ModelScope,搜索模型名称就能找到
- 放在哪里:
ComfyUI/models/checkpoints/目录
FLUX1/flux1-dev-fp8.safetensors
- 文件名:
FLUX1/flux1-dev-fp8.safetensors - 去哪里下载: Hugging Face、Civitai 或 ModelScope
- 放在哪里:
ComfyUI/models/checkpoints/目录
ControlNet 模型
SDXL/controlnet-union-sdxl-1.0/diffusion_pytorch_model_promax.safetensors
- 文件名:
SDXL/controlnet-union-sdxl-1.0/diffusion_pytorch_model_promax.safetensors - 去哪里下载: Hugging Face、Civitai 或 ModelScope
- 放在哪里:
ComfyUI/models/controlnet/目录
放大模型
4xFaceUpDAT.pth
- 文件名:
4xFaceUpDAT.pth - 去哪里下载: Hugging Face、Civitai 或 ModelScope
- 放在哪里:
ComfyUI/models/upscale_models/目录
4x-UltraSharp.pth
- 文件名:
4x-UltraSharp.pth - 去哪里下载: Hugging Face、Civitai 或 ModelScope
- 放在哪里:
ComfyUI/models/upscale_models/目录
工作流节点配置详解
这套工作流一共有 91 个节点,听起来很多,但其实可以分成几大类,每一类负责不同的功能。
核心节点配置清单
| 节点ID | 节点类型 | 功能说明 | 类别 |
|---|---|---|---|
| 1 | LoadImage | 从磁盘加载图像 | 模型加载 |
| 14 | CheckpointLoaderSimple | 加载 SDXL 检查点模型 | 模型加载 |
| 31 | CheckpointLoaderSimple | 加载 FLUX 检查点模型 | 模型加载 |
| 21 | ControlNetLoader | 加载 ControlNet 控制模型 | 模型加载 |
| 19 | ControlNetApplyAdvanced | ControlNet 高级控制 | 控制模型 |
| 24 | KSampler | SDXL 采样器 | 采样器 |
| 35 | KSampler | FLUX 采样器 | 采样器 |
| 166 | KSampler | 细节优化采样器 | 采样器 |
| 25 | VAEDecode | SDXL VAE 解码器 | VAE编解码 |
| 36 | VAEDecode | FLUX VAE 解码器 | VAE编解码 |
| 175 | VAEDecode | 细节优化 VAE 解码器 | VAE编解码 |
关键节点参数配置
FluxGuidance 节点 (#38)
这个节点控制 FLUX 模型的引导强度。
- 参数值: 3.5
- 作用: 控制生成结果对提示词的遵循程度
SDXLEmptyLatentSizePicker+ 节点 (#59)
这个节点设置图像尺寸。
- 尺寸: 1088x960 (1.13 宽高比)
- 批次大小: 1
- 起始索引: 0
KSampler 采样器节点
工作流中有 3 个采样器,分别负责不同阶段:
SDXL 采样器 (#24)
- 随机种子: 460103653384879
- 采样步数: 30
- 控制模式: fixed
FLUX 采样器 (#35)
- 随机种子: 531509771172899
- 采样步数: 30
- 控制模式: fixed
细节优化采样器 (#166)
- 随机种子: 531509771172897
- 采样步数: 20
- 控制模式: fixed
节点连接关系详解
这部分是整个工作流的核心,116 个连接把 91 个节点串联起来,形成完整的数据处理流程。
数据流向总览
整个工作流的数据流向可以分成三个阶段:
第一阶段:模型加载和图像输入
text 节点#1(LoadImage) → 加载原始图像节点#14(CheckpointLoaderSimple) → 加载 SDXL 模型节点#31(CheckpointLoaderSimple) → 加载 FLUX 模型节点#21(ControlNetLoader) → 加载 ControlNet 模型
第二阶段:图像处理和生成
text SDXL 处理流程:节点#16/17(CLIPTextEncode) → 编码提示词节点#19(ControlNetApplyAdvanced) → 应用 ControlNet 控制节点#24(KSampler) → SDXL 采样生成节点#25(VAEDecode) → 解码输出图像FLUX 处理流程:节点#32/33(CLIPTextEncode) → 编码提示词节点#38(FluxGuidance) → 应用 FLUX 引导节点#35(KSampler) → FLUX 采样生成节点#36(VAEDecode) → 解码输出图像
第三阶段:细节优化和输出
text 节点#171(ImageUpscaleWithModel) → 使用模型放大图像节点#173(ImageScaleBy) → 缩放图像节点#166(KSampler) → 细节优化采样节点#175(VAEDecode) → 最终解码输出
关键节点连接详情
SDXL 生成流程连接
| 起始节点 | 连接类型 | 目标节点 | 数据类型 |
|---|---|---|---|
| #14 CheckpointLoaderSimple | MODEL → | #24 KSampler | MODEL |
| #14 CheckpointLoaderSimple | CLIP → | #16 CLIPTextEncode | CLIP |
| #14 CheckpointLoaderSimple | CLIP → | #17 CLIPTextEncode | CLIP |
| #16 CLIPTextEncode | CONDITIONING → | #19 ControlNetApplyAdvanced | positive |
| #17 CLIPTextEncode | CONDITIONING → | #19 ControlNetApplyAdvanced | negative |
| #19 ControlNetApplyAdvanced | CONDITIONING → | #24 KSampler | positive |
| #24 KSampler | LATENT → | #25 VAEDecode | samples |
| #14 CheckpointLoaderSimple | VAE → | #25 VAEDecode | vae |
FLUX 生成流程连接
| 起始节点 | 连接类型 | 目标节点 | 数据类型 |
|---|---|---|---|
| #31 CheckpointLoaderSimple | MODEL → | #49 Power Lora Loader | model |
| #49 Power Lora Loader | MODEL → | #35 KSampler | model |
| #49 Power Lora Loader | CLIP → | #32 CLIPTextEncode | clip |
| #49 Power Lora Loader | CLIP → | #33 CLIPTextEncode | clip |
| #32 CLIPTextEncode | CONDITIONING → | #38 FluxGuidance | conditioning |
| #38 FluxGuidance | CONDITIONING → | #35 KSampler | positive |
| #33 CLIPTextEncode | CONDITIONING → | #35 KSampler | negative |
| #35 KSampler | LATENT → | #36 VAEDecode | samples |
| #31 CheckpointLoaderSimple | VAE → | #36 VAEDecode | vae |
连接验证清单
在使用工作流前,你需要检查这些连接:
1. 模型加载节点检查
- 确保所有模型加载节点的输出都连接到了后续节点
- 检查模型文件路径是否正确
2. 文本编码节点检查
- 确保 CLIP 输入已连接到模型加载器的 CLIP 输出
- 检查提示词是否正确输入
3. 采样器节点检查
- 确保 model、positive、negative、latent_image 输入都已连接
- 检查采样参数设置是否合理
4. VAE 节点检查
- 确保 VAE 编解码节点的 vae 输入已连接
- 检查 VAE 模型是否正确加载
5. 输出节点检查
- 确保最终的输出节点已连接
- 检查输出路径设置
验证方法
- 在 ComfyUI 中加载工作流
- 检查是否有红色的错误提示
- 确认所有节点都显示为绿色(已连接)
- 点击 "Queue Prompt" 测试运行
常见连接问题
节点显示红色怎么办?
- 原因: 输入连接缺失或数据类型不匹配
- 解决: 检查该节点的所有必需输入是否已连接
数据类型不匹配怎么办?
- 原因: 连接的输出和输入数据类型不兼容
- 解决: 确认连接的数据类型是否正确(如 MODEL、CLIP、VAE、IMAGE 等)
出现循环依赖怎么办?
- 原因: 节点之间形成了循环连接
- 解决: 检查连接路径,确保数据流向是单向的
实战操作指南
第一步:准备输入素材
图片要求:
- 格式: PNG、JPG 或 WEBP
- 推荐分辨率: 1024x1024 或根据模型要求
- 图片质量: 清晰、光线充足
- 放置路径:
ComfyUI/input/目录
第二步:调整提示词
正面提示词怎么写?
描述你想要生成的内容,建议按这个结构来写:
text [主体描述] + [风格描述] + [质量关键词] + [细节描述]
举个例子:
text high quality, detailed, professional, 8k, ultra detailed, masterpiece
负面提示词怎么写?
描述你不想要的内容:
text blurry, low quality, distorted, deformed, bad anatomy, watermark, text, ugly
第三步:设置关键参数
采样器参数设置:
- steps: 20-30(推荐 25)
- cfg: 7-9(推荐 7.5)
- denoise: 0.7-0.8(根据需求调整)
- sampler_name: euler_a 或 dpmpp_2m
第四步:执行生成
- 确认所有参数设置正确
- 检查所有节点连接完整
- 点击 "Queue Prompt" 按钮
- 等待生成完成
- 查看输出结果(保存在
ComfyUI/output/目录)
批量处理技巧
如果你需要批量生成:
- 修改提示词或参数
- 多次点击 "Queue Prompt"
- 任务会依次排队执行
参数调优技巧
Steps(采样步数)调优
这个参数控制什么?
控制生成质量和速度。
推荐值: 20-30
怎么调?
- 15-20: 快速预览,质量略低
- 20-25(推荐): 正常质量,速度适中
- 30-40: 高质量,但速度较慢
CFG Scale(提示词引导强度)调优
这个参数控制什么?
控制生成结果对提示词的遵循程度。
推荐值: 7-9
怎么调?
- 6-7: 生成结果更自然,但可能偏离提示词
- 7-8(推荐): 平衡自然度和提示词遵循度
- 9-12: 严格遵循提示词,但可能过度饱和
Denoise(降噪强度)调优
这个参数控制什么?
控制生成图像与原图的相似度(img2img 模式)。
推荐值: 0.7-0.8
怎么调?
- 0.5-0.6: 保留更多原图细节
- 0.7-0.8(推荐): 平衡效果
- 0.85-0.95: 强烈的生成效果
提示词技巧
正面提示词结构:
text [主体] + [风格] + [质量词] + [细节]
举个例子:
text beautiful landscape, sunset, mountains, high quality, detailed, 8k, professional photography, vibrant colors
提示词权重调整:
使用括号增强关键词权重:
text (关键词:1.2) - 增强权重(关键词:0.8) - 降低权重
性能优化
显存不够怎么办?
如果你的显卡只有 8GB 显存:
bash python main.py --lowvram
如果你的显卡有 12GB 以上显存,用默认设置就可以。
想要更快的生成速度?
- 减少采样步数
- 使用更快的采样器(euler_a)
- 启用 xformers 加速:
bash pip install xformerspython main.py --use-xformers
常见问题解答
工作流加载后提示节点连接错误怎么办?
解决方法:
- 检查所有必需的插件是否已安装
- 确认模型文件是否已下载到正确路径
- 重启 ComfyUI 并重新加载工作流
- 检查节点之间的连接是否完整
生成结果不理想怎么办?
解决方法:
- 调整提示词,使描述更具体
- 提高 CFG Scale 值(7→8)
- 增加采样步数(25→30)
- 检查输入图片质量
- 尝试不同的随机种子
显存不足怎么办?
解决方法:
- 启用 lowvram 模式:
python main.py --lowvram - 降低图像分辨率
- 减少批处理数量
- 关闭其他占用显存的程序
生成速度太慢怎么办?
解决方法:
- 减少采样步数(30→20)
- 使用更快的采样器(euler_a)
- 启用 xformers 加速
- 升级显卡硬件
插件安装失败怎么办?
解决方法:
- 检查 Python 版本(需要 3.10+)
- 手动安装依赖:
pip install -r requirements.txt - 查看插件的 GitHub Issues 页面
- 更新 ComfyUI 到最新版本
如何批量处理多张图片?
解决方法:
- 使用 Load Image Batch 节点
- 编写 Python 脚本调用 ComfyUI API
- 多次点击 "Queue Prompt" 排队处理
生成的图片在哪里?
生成的图片默认保存在 ComfyUI/output/ 目录下,文件名包含时间戳和节点 ID。
如何保存工作流?
- 点击右上角的 "Save" 按钮
- 选择保存位置
- 文件会保存为
.json格式
总结
这套 FLUX 扩图工作流结合了 Flux2 Klein 快速编辑模型和 SDXL 高质量生成模型,能够实现高质量、高效率的图像处理。
核心优势:
- 高质量输出: 采用先进的 AI 模型,确保生成质量
- 灵活配置: 支持多种参数调整和自定义设置
- 易于使用: 清晰的节点结构,简单的操作流程
- 性能优化: 支持多种性能优化选项
- 完整文档: 提供详细的使用指南和参数说明
适合这些人使用:
- 设计师和艺术家
- 内容创作者
- 电商从业者
- AI 技术爱好者
- 学习者和研究者
后续可以优化的方向:
- 添加更多控制选项
- 优化生成速度
- 支持更多模型
- 增强批量处理能力
- 提供更多预设模板
如果你在使用过程中遇到问题,可以在评论区留言,我会尽快回复。如果这篇教程对你
有帮助,欢迎点赞转发,让更多人看到!
关注并私信「FLux扩图」,我把完整的工作流发给你。
夜雨聆风