ComfyUI 完全开源节点式生成式工作流

ComfyUI 是最强大的开源节点式生成 AI 应用程序。它是一个基于节点的界面和推理引擎,用户可以通过连接不同节点来组合各种 AI 模型和操作,实现高度可定制和可控的内容生成。

核心特点:

  • ✅ 完全开源,可本地运行
  • ✅ 节点式工作流,灵活性极高
  • ✅ 支持多种 GPU(NVIDIA、AMD、Intel、Apple Silicon)
  • ✅ 丰富的自定义节点生态
  • ✅ 支持 ControlNet、LoRA、VAE 等扩展

系统要求

支持的操作系统

  • Windows
  • Linux
  • macOS(支持 Apple Silicon M 系列芯片)

Python 版本

  • Python 3.13(推荐)
  • Python 3.12(备选)
  • Python 3.14(部分自定义节点可能有问题)

硬件支持

硬件类型说明
NVIDIA GPU安装 PyTorch CUDA 13.0(推荐)
AMD GPU (Linux)ROCm 6.4 或 7.1
AMD GPU (RDNA 3/3.5/4)RX 7000/9000 系列,实验性支持
Intel GPUArc 系列,原生 PyTorch XPU 支持
Apple SiliconM1/M2/M3/M4 系列,Metal 加速
CPU使用 --cpu 参数(较慢)

浏览器要求

  • Google Chrome 143+(推荐)
  • 早期版本可能有视觉问题

安装方式

方式一:ComfyUI Desktop(推荐新手)

适用系统: Windows、macOS (ARM)

特点: 独立安装包,开箱即用

下载地址: https://github.com/Comfy-Org/desktop

方式二:ComfyUI Portable(Windows 便携版)

适用系统: Windows only

特点: 集成独立 Python 环境,完全便携,始终使用最新版本

下载地址: https://github.com/comfyanonymous/ComfyUI/releases

方式三:手动安装

适用: 所有系统和 GPU 类型

步骤:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
# 1. 克隆仓库
git clone https://github.com/comfyanonymous/ComfyUI

# 2. 进入目录
cd ComfyUI

# 3. 安装 PyTorch(根据你的 GPU 选择)
# NVIDIA:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu130

# 4. 安装依赖
pip install -r requirements.txt

# 5. 启动
python main.py

快速上手:第一次生成图像

步骤 1:启动 ComfyUI

启动后自动打开浏览器界面:http://127.0.0.1:8188

步骤 2:加载默认工作流

方法 A:从模板加载

  1. 点击右下角 Fit View 按钮
  2. 点击侧边栏 文件夹图标(Workflows)
  3. 点击 Browse example workflows
  4. 选择 Image Generation

方法 B:从图片加载

  • 将 ComfyUI 生成的图片拖入界面即可加载其工作流

步骤 3:安装模型

模型存放位置:ComfyUI/models/checkpoints/

推荐入门模型:

安装方式:

  1. 自动下载:点击节点上的 Download 按钮
  2. ComfyUI Manager:Manager → Model Manager → 搜索安装
  3. 手动下载:从 HuggingFace 下载后放入 models/checkpoints/ 目录

步骤 4:生成图像

  1. 在 Load Checkpoint 节点选择模型
  2. 修改 CLIP Text Encoder 中的提示词
  3. 点击 Queue 或按 Ctrl + Enter 生成

核心概念

文生图流程

1
2
3
纯高斯噪声 → 迭代去噪 → 中间潜在表示 → 最终生成图像
文本提示词 → CLIP 编码器 → 语义向量 → 指导去噪

关键概念

概念说明
Latent Space(潜在空间)扩散模型工作的抽象数据空间,降低计算复杂度
Pixel Space(像素空间)最终图像的存储空间
Checkpoint包含 MODEL (UNet)、CLIP、VAE 的模型文件
UNet负责噪声预测和图像生成的核心模型
CLIP文本编码器,将提示词转为模型可理解的向量
VAE变分自编码器,在像素空间和潜在空间之间转换

节点详解

A. Load Checkpoint(加载模型)

输出:

  • MODEL (UNet) - 扩散模型
  • CLIP - 文本编码器
  • VAE - 图像编解码器

B. Empty Latent Image(空白潜在图像)

定义画布大小,决定最终图像尺寸

参数:

  • width / height - 图像尺寸
  • batch_size - 批量生成数量

C. CLIP Text Encoder(文本编码器)

编码提示词:

  • Positive - 正向提示词(想要的元素)
  • Negative - 负向提示词(不想要的元素)

D. KSampler(采样器 - 核心)

参数详解:

参数说明建议值
seed随机种子控制随机性
steps去噪迭代次数20-30
cfg提示词引导强度7-8
sampler_name采样算法euler、dpmpp_2m
scheduler调度器normal、karras
denoise去噪强度1.0(完整生成)

E. VAE Decode(VAE 解码)

将潜在空间图像转换为像素空间图像

F. Save Image(保存图像)

预览并保存图像到 ComfyUI/output/ 目录


提示词技巧

SD1.5 提示词原则

  1. ✅ 尽量使用英文
  2. ✅ 用英文逗号 , 分隔
  3. ✅ 使用短语而非长句
  4. ✅ 描述要具体
  5. ✅ 使用权重语法 (keyword:1.2) 增强关键词
  6. ✅ 使用质量词 masterpiece, best quality, 4k

示例提示词

动漫风格:

Positive:

1
2
3
anime style, 1girl with long pink hair, cherry blossom background, 
studio ghibli aesthetic, soft lighting, intricate details,
masterpiece, best quality, 4k

Negative:

1
low quality, blurry, deformed hands, extra fingers

写实风格:

Positive:

1
2
3
4
(ultra realistic portrait:1.3), (elegant woman in crimson silk dress:1.2),
full body, soft cinematic lighting, (golden hour:1.2),
(fujifilm XT4:1.1), shallow depth of field,
(skin texture details:1.3), (film grain:1.1)

Negative:

1
deformed, cartoon, anime, doll, plastic skin, overexposed, blurry, extra fingers

常用快捷键

快捷键功能
Ctrl + Enter运行工作流
Ctrl + Shift + Enter运行工作流(不等待)
Double Click添加节点搜索
Ctrl + C/V复制/粘贴节点
Delete/Backspace删除选中节点
R刷新节点定义和模型列表
Space + Drag平移画布
Ctrl + Scroll缩放画布

资源链接

官方资源

模型资源

扩展插件

插件说明
ComfyUI Manager节点和模型管理器(必装)
ControlNet精确控制图像生成
AnimateDiff视频生成
IPAdapter图像风格迁移

📎 来源

原文链接: https://www.17you.com/tool/comfyui-node-graph-ai-image-generation/ 已复制!
脚本编程和自动化工具

寻找技术支持帮助和技术合伙人一起搞事。

请点击联系我


相关内容