【AI学习-comfyUI学习-SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流-各个部分学习-第四节】

【AI学习-comfyUI学习-SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流-各个部分学习-第四节】

1,前言2,说明1,SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流2,整体功能3,节点说明
3,流程(1)调用模块1)整个模块部分
(2)输出 提示词(3)模型加载(4)生成图片

4,模块介绍1,CLIP文本编码SDXL2,ComfyUI 的核心采样器节点3,SDXL风格化提示词(高级)
5,细节部分6,使用的工作流7,总结

1,前言

最近,学习comfyUI,这也是AI的一部分,想将相关学习到的东西尽可能记录下来。

2,说明

1,SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流

使用 SDXL 模型(如 Juggernaut XL),通过“风格化提示词节点”快速生成特定风格(如赛博朋克、复古、写实等)的图像。

2,整体功能

本身是一个 文生图(text-to-image) 工作流,用 SDXL 模型 Juggernaut 来生成图片。
在这个例子里,prompt 是「beautiful scenery nature glass bottle landscape, purple galaxy bottle」,
所以整个流程的任务是——

生成一张装有紫色银河的玻璃瓶、风景场景风格的图片。

3,节点说明

区域 节点名 作用
① Checkpoint加载器 #1
SDXL_Juggernaut.safetensors
加载主模型(高质量 SDXL 写实风格)。
② SDXL风格化提示词节点 #2
SDXL风格化提示词(高级)
管理正负提示词、风格选项;你目前的风格设为
base
③ CLIP文本编码节点 #3 #5
CLIP文本编码SDXL
把文字提示转换成语义向量,供模型理解。
④ 空Latent #4 定义潜空间(图像尺寸 1024×1024),相当于生成的“画布”。
⑤ K采样器 #6 执行采样过程,生成潜空间图像。参数如步数 20、CFG 8 控制细节与风格强度。
⑥ VAE解码 #7 把潜空间图解码成可视图像。
⑦ 预览与保存 #8 #9 预览输出并保存最终结果。

3,流程

(1)调用模块

1)整个模块部分

这回整个模块都可以截截图下了

(2)输出 提示词

如下是输入提示词


beautiful scenery nature glass bottle landscape, , purple galaxy bottle,


(3)模型加载

图片[1] - 【AI学习-comfyUI学习-SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流-各个部分学习-第四节】 - 宋马

(4)生成图片

4,模块介绍

1,CLIP文本编码SDXL

图片[2] - 【AI学习-comfyUI学习-SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流-各个部分学习-第四节】 - 宋马
这个节点的功能是:

把输入的提示词(prompt / text)转化成模型能理解的语义向量。

换句话说,它是“文字 → 向量”的翻译器。
在 SDXL 模型中,这一步比 SD1.5 复杂得多,因为 SDXL 使用了 双 CLIP 编码器结构(CLIP-G + CLIP-L),以便更精细地理解文字、构图和风格。

参数名 默认值 含义 详细说明
宽度(width) 1024 图像生成宽度 CLIP 在 SDXL 中需要知道目标图像的分辨率,以便对构图相关词(如“wide view”“portrait”)进行空间语义编码。建议与生成分辨率一致。
高度(height) 1024 图像生成高度 同理,CLIP-L(Large)会用此信息调整构图理解,比如横构图 vs 竖构图。
裁剪宽度(crop_w) 0 图像裁剪偏移(水平) 如果要让模型生成“局部视角”或裁剪效果,可以调整这项。例如设为 256 表示偏右裁剪。一般保持 0。
裁剪高度(crop_h) 0 图像裁剪偏移(垂直) 控制垂直方向的裁剪中心。默认 0 即居中。
目标宽度(target_w) 1024 输出目标宽度 与“宽度”含义相近,供第二层 CLIP-L 模块使用;建议保持与生成分辨率一致。
目标高度(target_h) 1024 输出目标高度 与“高度”一致,保持匹配即可。
text_g(正向提示词输入口) 输入文字给 CLIP-G 编码器 CLIP-G 是 SDXL 的全局语义理解模块,负责把整体风格、主题、内容编码进 latent。
text_l(正向提示词输入口) 输入文字给 CLIP-L 编码器 CLIP-L 是局部细节理解模块,强化具体对象(如“细节”“光影”“背景”)。

2,ComfyUI 的核心采样器节点

图片[3] - 【AI学习-comfyUI学习-SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流-各个部分学习-第四节】 - 宋马
K采样器(高级)(即 KSampler Advanced)。
这是整个 图像生成的主引擎,决定画面的清晰度、风格强度、随机性和一致性。
下面我给你讲得非常系统(适合你这种懂得在调节点的用户)。
简单说:

它是 Stable Diffusion 模型在“降噪还原图像”的过程中控制“采样步数、随机性、提示影响力”等的模块。

一句话解释:
🌀 它控制 AI 绘画过程的“速度、方向和信念”。

参数名 默认值 含义 调整建议
模型(Model) 接入模型(来自 Checkpoint) 一定要接同体系的模型(SD1.5 / SDXL / Flux)
正面条件(Positive Cond) 正向提示词向量 通常来自 CLIP 编码器(描述想要的画面)
负面条件(Negative Cond) 负向提示词向量 压制不希望出现的内容(模糊、畸形等)
Latent 初始潜空间(通常来自“空Latent”或“VAE编码”) 控制生成尺寸与初始结构

3,SDXL风格化提示词(高级)

图片[4] - 【AI学习-comfyUI学习-SDXL 风格化提示词节点包(Style Prompt Node Pack) 工作流-各个部分学习-第四节】 - 宋马
这是一个对 SDXL 模型的 Prompt 进行自动结构化、风格融合的“智能提示词节点”,
也是目前 最强的文字输入控制节点之一,比单纯的 CLIP 文本编码器更灵活。

简单理解:

它帮你把提示词(Prompt)分配给 SDXL 的双 CLIP 通道(Big-G / L),
同时自动加上风格标签(Style)、负面词和结构化控制。

也就是说,这个节点相当于一个“Prompt 管理器 + 风格模板器”,
让你可以一边输入词,一边自动匹配适合 SDXL 的语义结构。

区域 参数 / 插口 作用 说明
🟢 正面条件 Big-G / L 输出端 连接到 “CLIP文本编码SDXL” 的输入端 生成 正向提示向量(G:全局风格;L:局部细节)
🟢 负面条件 Big-G / L 输出端 同上 生成 负向提示向量(控制不要出现的元素)

5,细节部分

暂无

6,使用的工作流

https://download.csdn.net/download/qq_22146161/92260138

7,总结

这也算各一个开始吧,我也在学习摸索中。

© 版权声明
THE END
如果内容对您有所帮助,就支持一下吧!
点赞0 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容