赞
踩
(1)记录基础工作流节点功能
(2)测试参数表现(部分)
使用大模型:SDXL --StableDiffusion,内置有clip和vae模型
输出:
model:对潜空间模型去噪
clip:对prompt进行编码
vae:对潜空间图像编码+解码
clip模型对prompt进行编码,stop_at_clip_layer控制选择我们需要的一层编码信息,引导模型扩散
输入正/反向提示词
对潜空间噪声图像逐步去噪
seed:噪声生成使用的随机数种子 **种子数有上限**
control_after_generate:产生种子后的控制方式,具体有:fixed(固定种子)、increment(每次+1)、decrement(每次-1)、randomize(随机)
steps:去噪步长
cfg:prompt对最终结果会产生多大的影响(默认就差不多,看需求)
sampler_name:不同的采样器(默认的就差不多)
scheduler:不同的调度器(默认的就差不多)
denoise:去噪幅度/重绘幅度(最大也就1, 默认的就是1, 蛮不错的)
--denoise = 0:不添加噪声
--denoise = 1:完全随机噪声
生成纯噪声的潜空间图像,并设置比例
【注】SD1.0 SD1.5常用512*512,SDXL SD turbo等常用1024*1024
将潜空间图像解码到像素级图像
注:samples接收的是经过ksampler采样处理后的潜空间图像
大部分ckpt自带vae,直接用ckpt输出的vae即可
预览图片啦
同vae decode, 增加了控制瓦片大小的参数(pic 1024, tile_size 512, 分成了四个)
加载图片, comfyui源图放在工程文件的input路径
图片右键菜单,选择 open in MaskEditor
颜色反转
原图上下左右加边框,蒙版部分加羽化参数
输出image和mask, mask配合mask to image 节点,将mask转为图像
将mask转为图像
指定vae模型
通过指定的vae模型对图像进行编码,添加mask
通过指定基础算法对图像进行调整
(算法一般图片影响不大,看需求)
(1)控制stop_at_clip_layer = -1 / -2
(2)ksampler 固定种子且种子数相同
输出图片不同(左-1, 右-2)
(左-5 右-8)
种子太随机了,感觉推荐的就不错,测试了一下步长,有限范围内会增加一些细节(但时间变久),看具体需求改吧
输出图片(左:steps 20; 右:steps 200)
(左:steps 20; 右:steps 1000)
1、crop 裁剪测试(左 disable,右 center,均使用nearest-exact算法)
反差色效果
黄色即扩充的边框(左),配合添加vae 编码解码,修改边框(右)
----记录,后续继续补充2.0
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。