save changes
This commit is contained in:
@ -57,7 +57,7 @@
|
||||
},
|
||||
"7": {
|
||||
"inputs": {
|
||||
"seed": 920668017513581,
|
||||
"seed": 936152772258115,
|
||||
"steps": 8,
|
||||
"cfg": 1,
|
||||
"sampler_name": "euler",
|
||||
@ -76,8 +76,8 @@
|
||||
0
|
||||
],
|
||||
"latent_image": [
|
||||
"11",
|
||||
6
|
||||
"28",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "KSampler",
|
||||
@ -163,11 +163,11 @@
|
||||
0
|
||||
],
|
||||
"image1": [
|
||||
"23",
|
||||
"30",
|
||||
0
|
||||
],
|
||||
"image2": [
|
||||
"24",
|
||||
"27",
|
||||
0
|
||||
]
|
||||
},
|
||||
@ -178,20 +178,41 @@
|
||||
},
|
||||
"14": {
|
||||
"inputs": {
|
||||
"image": "f81662775bd0e7950e4794933ef4b3d973fbb9c2db397c8b46809797954d0074.png"
|
||||
"image": "model_outfit_location_1760043932148.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
"title": "load base image"
|
||||
}
|
||||
},
|
||||
"15": {
|
||||
"19": {
|
||||
"inputs": {
|
||||
"image": "monster_554.png"
|
||||
"rgthree_comparer": {
|
||||
"images": [
|
||||
{
|
||||
"name": "A",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_dxzmg_00211_.png&type=temp&subfolder=&rand=0.09499077981761894"
|
||||
},
|
||||
{
|
||||
"name": "B",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_dxzmg_00212_.png&type=temp&subfolder=&rand=0.21125213225471684"
|
||||
}
|
||||
]
|
||||
},
|
||||
"image_a": [
|
||||
"11",
|
||||
1
|
||||
],
|
||||
"image_b": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"class_type": "Image Comparer (rgthree)",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
"title": "Image Comparer (rgthree)"
|
||||
}
|
||||
},
|
||||
"20": {
|
||||
@ -209,7 +230,7 @@
|
||||
},
|
||||
"21": {
|
||||
"inputs": {
|
||||
"value": "只提取图2中的怪物,怪物站在图1的女生身后,使用图1的背景,并调整怪物的光线以符合图1。\n\n\n\n\n\n\n"
|
||||
"value": "请将图2中的模特处理成手持图1中包包的照片。"
|
||||
},
|
||||
"class_type": "PrimitiveStringMultiline",
|
||||
"_meta": {
|
||||
@ -231,17 +252,65 @@
|
||||
},
|
||||
"23": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"width": 720,
|
||||
"height": 1280,
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
},
|
||||
"24": {
|
||||
"inputs": {
|
||||
"vae_name": "sdxl_vae.safetensors"
|
||||
},
|
||||
"class_type": "VAELoader",
|
||||
"_meta": {
|
||||
"title": "Load VAE"
|
||||
}
|
||||
},
|
||||
"25": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"23",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"24",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"26": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"25",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"27": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"26",
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "stretch",
|
||||
"pad_color": "0, 0, 0",
|
||||
"keep_proportion": "resize",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
@ -255,24 +324,49 @@
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"24": {
|
||||
"28": {
|
||||
"inputs": {
|
||||
"pixels": [
|
||||
"27",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEEncode",
|
||||
"_meta": {
|
||||
"title": "VAE Encode"
|
||||
}
|
||||
},
|
||||
"29": {
|
||||
"inputs": {
|
||||
"image": "handbag_1760043932148.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "load reference image"
|
||||
}
|
||||
},
|
||||
"30": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"25",
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"26",
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "stretch",
|
||||
"pad_color": "0, 0, 0",
|
||||
"keep_proportion": "resize",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
"image": [
|
||||
"15",
|
||||
"29",
|
||||
0
|
||||
]
|
||||
},
|
||||
@ -281,20 +375,20 @@
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"25": {
|
||||
"31": {
|
||||
"inputs": {
|
||||
"Number": "1280"
|
||||
"Value": 720
|
||||
},
|
||||
"class_type": "Int",
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "width"
|
||||
}
|
||||
},
|
||||
"26": {
|
||||
"32": {
|
||||
"inputs": {
|
||||
"Number": "720"
|
||||
"Value": 1280
|
||||
},
|
||||
"class_type": "Int",
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "height"
|
||||
}
|
||||
|
||||
444
src/comfyworkflows/edit_image_2_qwen_empty.json
Normal file
444
src/comfyworkflows/edit_image_2_qwen_empty.json
Normal file
@ -0,0 +1,444 @@
|
||||
{
|
||||
"1": {
|
||||
"inputs": {
|
||||
"unet_name": "qwen_image_edit_2509_fp8_e4m3fn.safetensors",
|
||||
"weight_dtype": "default"
|
||||
},
|
||||
"class_type": "UNETLoader",
|
||||
"_meta": {
|
||||
"title": "Load Diffusion Model"
|
||||
}
|
||||
},
|
||||
"2": {
|
||||
"inputs": {
|
||||
"clip_name": "qwen_2.5_vl_7b_fp8_scaled.safetensors",
|
||||
"type": "qwen_image",
|
||||
"device": "default"
|
||||
},
|
||||
"class_type": "CLIPLoader",
|
||||
"_meta": {
|
||||
"title": "Load CLIP"
|
||||
}
|
||||
},
|
||||
"3": {
|
||||
"inputs": {
|
||||
"vae_name": "qwen_image_vae.safetensors"
|
||||
},
|
||||
"class_type": "VAELoader",
|
||||
"_meta": {
|
||||
"title": "Load VAE"
|
||||
}
|
||||
},
|
||||
"4": {
|
||||
"inputs": {
|
||||
"lora_name": "Qwen-Image-Lightning-8steps-V2.0.safetensors",
|
||||
"strength_model": 1,
|
||||
"model": [
|
||||
"1",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LoraLoaderModelOnly",
|
||||
"_meta": {
|
||||
"title": "LoraLoaderModelOnly"
|
||||
}
|
||||
},
|
||||
"5": {
|
||||
"inputs": {
|
||||
"conditioning": [
|
||||
"11",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ConditioningZeroOut",
|
||||
"_meta": {
|
||||
"title": "ConditioningZeroOut"
|
||||
}
|
||||
},
|
||||
"7": {
|
||||
"inputs": {
|
||||
"seed": 38026585691397,
|
||||
"steps": 8,
|
||||
"cfg": 1,
|
||||
"sampler_name": "euler",
|
||||
"scheduler": "beta",
|
||||
"denoise": 1,
|
||||
"model": [
|
||||
"4",
|
||||
0
|
||||
],
|
||||
"positive": [
|
||||
"11",
|
||||
0
|
||||
],
|
||||
"negative": [
|
||||
"5",
|
||||
0
|
||||
],
|
||||
"latent_image": [
|
||||
"36",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "KSampler",
|
||||
"_meta": {
|
||||
"title": "KSampler"
|
||||
}
|
||||
},
|
||||
"8": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"7",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"9": {
|
||||
"inputs": {
|
||||
"font_file": "Alibaba-PuHuiTi-Heavy.ttf",
|
||||
"font_size": 40,
|
||||
"border": 32,
|
||||
"color_theme": "light",
|
||||
"reel_1": [
|
||||
"10",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LayerUtility: ImageReelComposit",
|
||||
"_meta": {
|
||||
"title": "LayerUtility: Image Reel Composit"
|
||||
}
|
||||
},
|
||||
"10": {
|
||||
"inputs": {
|
||||
"image1_text": "Original image",
|
||||
"image2_text": "Reference",
|
||||
"image3_text": "Result",
|
||||
"image4_text": "image4",
|
||||
"reel_height": 512,
|
||||
"border": 32,
|
||||
"image1": [
|
||||
"11",
|
||||
1
|
||||
],
|
||||
"image2": [
|
||||
"11",
|
||||
2
|
||||
],
|
||||
"image3": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LayerUtility: ImageReel",
|
||||
"_meta": {
|
||||
"title": "LayerUtility: Image Reel"
|
||||
}
|
||||
},
|
||||
"11": {
|
||||
"inputs": {
|
||||
"prompt": [
|
||||
"21",
|
||||
0
|
||||
],
|
||||
"enable_resize": false,
|
||||
"enable_vl_resize": false,
|
||||
"upscale_method": "lanczos",
|
||||
"crop": "disabled",
|
||||
"instruction": "<|im_start|>system\nDescribe the key features of the input image (color, shape, size, texture, objects, background), then explain how the user's text instruction should alter or modify the image. Generate a new image that meets the user's requirements while maintaining consistency with the original input where appropriate.<|im_end|>\n<|im_start|>user\n{}<|im_end|>\n<|im_start|>assistant\n",
|
||||
"clip": [
|
||||
"2",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
],
|
||||
"image1": [
|
||||
"27",
|
||||
0
|
||||
],
|
||||
"image2": [
|
||||
"33",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "TextEncodeQwenImageEditPlus_lrzjason",
|
||||
"_meta": {
|
||||
"title": "TextEncodeQwenImageEditPlus 小志Jason(xiaozhijason)"
|
||||
}
|
||||
},
|
||||
"14": {
|
||||
"inputs": {
|
||||
"image": "model_1760082843769.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "load base image"
|
||||
}
|
||||
},
|
||||
"19": {
|
||||
"inputs": {
|
||||
"rgthree_comparer": {
|
||||
"images": [
|
||||
{
|
||||
"name": "A",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_uoazy_00279_.png&type=temp&subfolder=&rand=0.4405150352070387"
|
||||
},
|
||||
{
|
||||
"name": "B",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_uoazy_00280_.png&type=temp&subfolder=&rand=0.9388629603648289"
|
||||
}
|
||||
]
|
||||
},
|
||||
"image_a": [
|
||||
"11",
|
||||
1
|
||||
],
|
||||
"image_b": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "Image Comparer (rgthree)",
|
||||
"_meta": {
|
||||
"title": "Image Comparer (rgthree)"
|
||||
}
|
||||
},
|
||||
"20": {
|
||||
"inputs": {
|
||||
"filename_prefix": "combined",
|
||||
"images": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
},
|
||||
"21": {
|
||||
"inputs": {
|
||||
"value": "以图像2为基础,生成一张女性肖像照片。她穿着一件黑色薄纱长袖上衣,一条光滑的皮革及膝裙,和勃艮第色的尖头靴子,手提一个深红色的手提包。场景改为极简主义风格的客厅,摆放着中性的沙发、镜面墙饰、盆栽植物和浅色地板,营造出明亮而宽敞的美感。"
|
||||
},
|
||||
"class_type": "PrimitiveStringMultiline",
|
||||
"_meta": {
|
||||
"title": "String (Multiline)"
|
||||
}
|
||||
},
|
||||
"22": {
|
||||
"inputs": {
|
||||
"filename_prefix": "ComfyUI",
|
||||
"images": [
|
||||
"9",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
},
|
||||
"23": {
|
||||
"inputs": {
|
||||
"width": 720,
|
||||
"height": 1280,
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
},
|
||||
"24": {
|
||||
"inputs": {
|
||||
"vae_name": "sdxl_vae.safetensors"
|
||||
},
|
||||
"class_type": "VAELoader",
|
||||
"_meta": {
|
||||
"title": "Load VAE"
|
||||
}
|
||||
},
|
||||
"25": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"23",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"24",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"26": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"25",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"27": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "resize",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
"image": [
|
||||
"14",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageResizeKJv2",
|
||||
"_meta": {
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"28": {
|
||||
"inputs": {
|
||||
"pixels": [
|
||||
"27",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEEncode",
|
||||
"_meta": {
|
||||
"title": "VAE Encode"
|
||||
}
|
||||
},
|
||||
"29": {
|
||||
"inputs": {
|
||||
"image": "pose_1760082843769.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "load reference image"
|
||||
}
|
||||
},
|
||||
"30": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "resize",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
"image": [
|
||||
"29",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageResizeKJv2",
|
||||
"_meta": {
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"31": {
|
||||
"inputs": {
|
||||
"Value": 720
|
||||
},
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "width"
|
||||
}
|
||||
},
|
||||
"32": {
|
||||
"inputs": {
|
||||
"Value": 1280
|
||||
},
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "height"
|
||||
}
|
||||
},
|
||||
"33": {
|
||||
"inputs": {
|
||||
"detect_hand": "enable",
|
||||
"detect_body": "enable",
|
||||
"detect_face": "enable",
|
||||
"resolution": 512,
|
||||
"bbox_detector": "yolox_l.onnx",
|
||||
"pose_estimator": "dw-ll_ucoco_384_bs5.torchscript.pt",
|
||||
"scale_stick_for_xinsr_cn": "disable",
|
||||
"image": [
|
||||
"30",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "DWPreprocessor",
|
||||
"_meta": {
|
||||
"title": "DWPose Estimator"
|
||||
}
|
||||
},
|
||||
"35": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"33",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"36": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
}
|
||||
}
|
||||
396
src/comfyworkflows/edit_image_2_qwen_handbag.json
Normal file
396
src/comfyworkflows/edit_image_2_qwen_handbag.json
Normal file
@ -0,0 +1,396 @@
|
||||
{
|
||||
"1": {
|
||||
"inputs": {
|
||||
"unet_name": "qwen_image_edit_2509_fp8_e4m3fn.safetensors",
|
||||
"weight_dtype": "default"
|
||||
},
|
||||
"class_type": "UNETLoader",
|
||||
"_meta": {
|
||||
"title": "Load Diffusion Model"
|
||||
}
|
||||
},
|
||||
"2": {
|
||||
"inputs": {
|
||||
"clip_name": "qwen_2.5_vl_7b_fp8_scaled.safetensors",
|
||||
"type": "qwen_image",
|
||||
"device": "default"
|
||||
},
|
||||
"class_type": "CLIPLoader",
|
||||
"_meta": {
|
||||
"title": "Load CLIP"
|
||||
}
|
||||
},
|
||||
"3": {
|
||||
"inputs": {
|
||||
"vae_name": "qwen_image_vae.safetensors"
|
||||
},
|
||||
"class_type": "VAELoader",
|
||||
"_meta": {
|
||||
"title": "Load VAE"
|
||||
}
|
||||
},
|
||||
"4": {
|
||||
"inputs": {
|
||||
"lora_name": "Qwen-Image-Lightning-8steps-V2.0.safetensors",
|
||||
"strength_model": 1,
|
||||
"model": [
|
||||
"1",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LoraLoaderModelOnly",
|
||||
"_meta": {
|
||||
"title": "LoraLoaderModelOnly"
|
||||
}
|
||||
},
|
||||
"5": {
|
||||
"inputs": {
|
||||
"conditioning": [
|
||||
"11",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ConditioningZeroOut",
|
||||
"_meta": {
|
||||
"title": "ConditioningZeroOut"
|
||||
}
|
||||
},
|
||||
"7": {
|
||||
"inputs": {
|
||||
"seed": 323591075024702,
|
||||
"steps": 8,
|
||||
"cfg": 1,
|
||||
"sampler_name": "euler",
|
||||
"scheduler": "beta",
|
||||
"denoise": 1,
|
||||
"model": [
|
||||
"4",
|
||||
0
|
||||
],
|
||||
"positive": [
|
||||
"11",
|
||||
0
|
||||
],
|
||||
"negative": [
|
||||
"5",
|
||||
0
|
||||
],
|
||||
"latent_image": [
|
||||
"28",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "KSampler",
|
||||
"_meta": {
|
||||
"title": "KSampler"
|
||||
}
|
||||
},
|
||||
"8": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"7",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"9": {
|
||||
"inputs": {
|
||||
"font_file": "Alibaba-PuHuiTi-Heavy.ttf",
|
||||
"font_size": 40,
|
||||
"border": 32,
|
||||
"color_theme": "light",
|
||||
"reel_1": [
|
||||
"10",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LayerUtility: ImageReelComposit",
|
||||
"_meta": {
|
||||
"title": "LayerUtility: Image Reel Composit"
|
||||
}
|
||||
},
|
||||
"10": {
|
||||
"inputs": {
|
||||
"image1_text": "Original image",
|
||||
"image2_text": "Reference",
|
||||
"image3_text": "Result",
|
||||
"image4_text": "image4",
|
||||
"reel_height": 512,
|
||||
"border": 32,
|
||||
"image1": [
|
||||
"11",
|
||||
1
|
||||
],
|
||||
"image2": [
|
||||
"11",
|
||||
2
|
||||
],
|
||||
"image3": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LayerUtility: ImageReel",
|
||||
"_meta": {
|
||||
"title": "LayerUtility: Image Reel"
|
||||
}
|
||||
},
|
||||
"11": {
|
||||
"inputs": {
|
||||
"prompt": [
|
||||
"21",
|
||||
0
|
||||
],
|
||||
"enable_resize": true,
|
||||
"enable_vl_resize": true,
|
||||
"upscale_method": "lanczos",
|
||||
"crop": "disabled",
|
||||
"instruction": "<|im_start|>system\nDescribe the key features of the input image (color, shape, size, texture, objects, background), then explain how the user's text instruction should alter or modify the image. Generate a new image that meets the user's requirements while maintaining consistency with the original input where appropriate.<|im_end|>\n<|im_start|>user\n{}<|im_end|>\n<|im_start|>assistant\n",
|
||||
"clip": [
|
||||
"2",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
],
|
||||
"image1": [
|
||||
"27",
|
||||
0
|
||||
],
|
||||
"image2": [
|
||||
"30",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "TextEncodeQwenImageEditPlus_lrzjason",
|
||||
"_meta": {
|
||||
"title": "TextEncodeQwenImageEditPlus 小志Jason(xiaozhijason)"
|
||||
}
|
||||
},
|
||||
"14": {
|
||||
"inputs": {
|
||||
"image": "model_outfit_location_handbag1_1760085003312.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
}
|
||||
},
|
||||
"19": {
|
||||
"inputs": {
|
||||
"rgthree_comparer": {
|
||||
"images": [
|
||||
{
|
||||
"name": "A",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_uoazy_00305_.png&type=temp&subfolder=&rand=0.5408789951924671"
|
||||
},
|
||||
{
|
||||
"name": "B",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_uoazy_00306_.png&type=temp&subfolder=&rand=0.2425856190711294"
|
||||
}
|
||||
]
|
||||
},
|
||||
"image_a": [
|
||||
"11",
|
||||
1
|
||||
],
|
||||
"image_b": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "Image Comparer (rgthree)",
|
||||
"_meta": {
|
||||
"title": "Image Comparer (rgthree)"
|
||||
}
|
||||
},
|
||||
"20": {
|
||||
"inputs": {
|
||||
"filename_prefix": "combined",
|
||||
"images": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
},
|
||||
"21": {
|
||||
"inputs": {
|
||||
"value": "请将图2中的女性修改成把图1的包背在肩上。"
|
||||
},
|
||||
"class_type": "PrimitiveStringMultiline",
|
||||
"_meta": {
|
||||
"title": "String (Multiline)"
|
||||
}
|
||||
},
|
||||
"22": {
|
||||
"inputs": {
|
||||
"filename_prefix": "ComfyUI",
|
||||
"images": [
|
||||
"9",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
},
|
||||
"23": {
|
||||
"inputs": {
|
||||
"width": 720,
|
||||
"height": 1280,
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
},
|
||||
"24": {
|
||||
"inputs": {
|
||||
"vae_name": "sdxl_vae.safetensors"
|
||||
},
|
||||
"class_type": "VAELoader",
|
||||
"_meta": {
|
||||
"title": "Load VAE"
|
||||
}
|
||||
},
|
||||
"25": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"23",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"24",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"26": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"25",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"27": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "crop",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
"image": [
|
||||
"14",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageResizeKJv2",
|
||||
"_meta": {
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"28": {
|
||||
"inputs": {
|
||||
"pixels": [
|
||||
"27",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEEncode",
|
||||
"_meta": {
|
||||
"title": "VAE Encode"
|
||||
}
|
||||
},
|
||||
"29": {
|
||||
"inputs": {
|
||||
"image": "handbag_1760085003312.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
}
|
||||
},
|
||||
"30": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "crop",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
"image": [
|
||||
"29",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageResizeKJv2",
|
||||
"_meta": {
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"31": {
|
||||
"inputs": {
|
||||
"Value": 720
|
||||
},
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "width"
|
||||
}
|
||||
},
|
||||
"32": {
|
||||
"inputs": {
|
||||
"Value": 1280
|
||||
},
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "height"
|
||||
}
|
||||
}
|
||||
}
|
||||
444
src/comfyworkflows/edit_image_2_qwen_pose.json
Normal file
444
src/comfyworkflows/edit_image_2_qwen_pose.json
Normal file
@ -0,0 +1,444 @@
|
||||
{
|
||||
"1": {
|
||||
"inputs": {
|
||||
"unet_name": "qwen_image_edit_2509_fp8_e4m3fn.safetensors",
|
||||
"weight_dtype": "default"
|
||||
},
|
||||
"class_type": "UNETLoader",
|
||||
"_meta": {
|
||||
"title": "Load Diffusion Model"
|
||||
}
|
||||
},
|
||||
"2": {
|
||||
"inputs": {
|
||||
"clip_name": "qwen_2.5_vl_7b_fp8_scaled.safetensors",
|
||||
"type": "qwen_image",
|
||||
"device": "default"
|
||||
},
|
||||
"class_type": "CLIPLoader",
|
||||
"_meta": {
|
||||
"title": "Load CLIP"
|
||||
}
|
||||
},
|
||||
"3": {
|
||||
"inputs": {
|
||||
"vae_name": "qwen_image_vae.safetensors"
|
||||
},
|
||||
"class_type": "VAELoader",
|
||||
"_meta": {
|
||||
"title": "Load VAE"
|
||||
}
|
||||
},
|
||||
"4": {
|
||||
"inputs": {
|
||||
"lora_name": "Qwen-Image-Lightning-8steps-V2.0.safetensors",
|
||||
"strength_model": 1,
|
||||
"model": [
|
||||
"1",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LoraLoaderModelOnly",
|
||||
"_meta": {
|
||||
"title": "LoraLoaderModelOnly"
|
||||
}
|
||||
},
|
||||
"5": {
|
||||
"inputs": {
|
||||
"conditioning": [
|
||||
"11",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ConditioningZeroOut",
|
||||
"_meta": {
|
||||
"title": "ConditioningZeroOut"
|
||||
}
|
||||
},
|
||||
"7": {
|
||||
"inputs": {
|
||||
"seed": 38026585691397,
|
||||
"steps": 8,
|
||||
"cfg": 1,
|
||||
"sampler_name": "euler",
|
||||
"scheduler": "beta",
|
||||
"denoise": 1,
|
||||
"model": [
|
||||
"4",
|
||||
0
|
||||
],
|
||||
"positive": [
|
||||
"11",
|
||||
0
|
||||
],
|
||||
"negative": [
|
||||
"5",
|
||||
0
|
||||
],
|
||||
"latent_image": [
|
||||
"36",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "KSampler",
|
||||
"_meta": {
|
||||
"title": "KSampler"
|
||||
}
|
||||
},
|
||||
"8": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"7",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"9": {
|
||||
"inputs": {
|
||||
"font_file": "Alibaba-PuHuiTi-Heavy.ttf",
|
||||
"font_size": 40,
|
||||
"border": 32,
|
||||
"color_theme": "light",
|
||||
"reel_1": [
|
||||
"10",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LayerUtility: ImageReelComposit",
|
||||
"_meta": {
|
||||
"title": "LayerUtility: Image Reel Composit"
|
||||
}
|
||||
},
|
||||
"10": {
|
||||
"inputs": {
|
||||
"image1_text": "Original image",
|
||||
"image2_text": "Reference",
|
||||
"image3_text": "Result",
|
||||
"image4_text": "image4",
|
||||
"reel_height": 512,
|
||||
"border": 32,
|
||||
"image1": [
|
||||
"11",
|
||||
1
|
||||
],
|
||||
"image2": [
|
||||
"11",
|
||||
2
|
||||
],
|
||||
"image3": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "LayerUtility: ImageReel",
|
||||
"_meta": {
|
||||
"title": "LayerUtility: Image Reel"
|
||||
}
|
||||
},
|
||||
"11": {
|
||||
"inputs": {
|
||||
"prompt": [
|
||||
"21",
|
||||
0
|
||||
],
|
||||
"enable_resize": false,
|
||||
"enable_vl_resize": false,
|
||||
"upscale_method": "lanczos",
|
||||
"crop": "disabled",
|
||||
"instruction": "<|im_start|>system\nDescribe the key features of the input image (color, shape, size, texture, objects, background), then explain how the user's text instruction should alter or modify the image. Generate a new image that meets the user's requirements while maintaining consistency with the original input where appropriate.<|im_end|>\n<|im_start|>user\n{}<|im_end|>\n<|im_start|>assistant\n",
|
||||
"clip": [
|
||||
"2",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
],
|
||||
"image1": [
|
||||
"27",
|
||||
0
|
||||
],
|
||||
"image2": [
|
||||
"33",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "TextEncodeQwenImageEditPlus_lrzjason",
|
||||
"_meta": {
|
||||
"title": "TextEncodeQwenImageEditPlus 小志Jason(xiaozhijason)"
|
||||
}
|
||||
},
|
||||
"14": {
|
||||
"inputs": {
|
||||
"image": "model_1760082843769.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "load base image"
|
||||
}
|
||||
},
|
||||
"19": {
|
||||
"inputs": {
|
||||
"rgthree_comparer": {
|
||||
"images": [
|
||||
{
|
||||
"name": "A",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_uoazy_00279_.png&type=temp&subfolder=&rand=0.4405150352070387"
|
||||
},
|
||||
{
|
||||
"name": "B",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_uoazy_00280_.png&type=temp&subfolder=&rand=0.9388629603648289"
|
||||
}
|
||||
]
|
||||
},
|
||||
"image_a": [
|
||||
"11",
|
||||
1
|
||||
],
|
||||
"image_b": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "Image Comparer (rgthree)",
|
||||
"_meta": {
|
||||
"title": "Image Comparer (rgthree)"
|
||||
}
|
||||
},
|
||||
"20": {
|
||||
"inputs": {
|
||||
"filename_prefix": "combined",
|
||||
"images": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
},
|
||||
"21": {
|
||||
"inputs": {
|
||||
"value": "以图像2为基础,生成一张女性肖像照片。她穿着一件黑色薄纱长袖上衣,一条光滑的皮革及膝裙,和勃艮第色的尖头靴子,手提一个深红色的手提包。场景改为极简主义风格的客厅,摆放着中性的沙发、镜面墙饰、盆栽植物和浅色地板,营造出明亮而宽敞的美感。"
|
||||
},
|
||||
"class_type": "PrimitiveStringMultiline",
|
||||
"_meta": {
|
||||
"title": "String (Multiline)"
|
||||
}
|
||||
},
|
||||
"22": {
|
||||
"inputs": {
|
||||
"filename_prefix": "ComfyUI",
|
||||
"images": [
|
||||
"9",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
},
|
||||
"23": {
|
||||
"inputs": {
|
||||
"width": 720,
|
||||
"height": 1280,
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
},
|
||||
"24": {
|
||||
"inputs": {
|
||||
"vae_name": "sdxl_vae.safetensors"
|
||||
},
|
||||
"class_type": "VAELoader",
|
||||
"_meta": {
|
||||
"title": "Load VAE"
|
||||
}
|
||||
},
|
||||
"25": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"23",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"24",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"26": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"25",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"27": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "resize",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
"image": [
|
||||
"14",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageResizeKJv2",
|
||||
"_meta": {
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"28": {
|
||||
"inputs": {
|
||||
"pixels": [
|
||||
"27",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "VAEEncode",
|
||||
"_meta": {
|
||||
"title": "VAE Encode"
|
||||
}
|
||||
},
|
||||
"29": {
|
||||
"inputs": {
|
||||
"image": "pose_1760082843769.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "load reference image"
|
||||
}
|
||||
},
|
||||
"30": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"upscale_method": "nearest-exact",
|
||||
"keep_proportion": "resize",
|
||||
"pad_color": "192,192,192",
|
||||
"crop_position": "center",
|
||||
"divisible_by": 2,
|
||||
"device": "cpu",
|
||||
"image": [
|
||||
"29",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageResizeKJv2",
|
||||
"_meta": {
|
||||
"title": "Resize Image v2"
|
||||
}
|
||||
},
|
||||
"31": {
|
||||
"inputs": {
|
||||
"Value": 720
|
||||
},
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "width"
|
||||
}
|
||||
},
|
||||
"32": {
|
||||
"inputs": {
|
||||
"Value": 1280
|
||||
},
|
||||
"class_type": "DF_Integer",
|
||||
"_meta": {
|
||||
"title": "height"
|
||||
}
|
||||
},
|
||||
"33": {
|
||||
"inputs": {
|
||||
"detect_hand": "enable",
|
||||
"detect_body": "enable",
|
||||
"detect_face": "enable",
|
||||
"resolution": 512,
|
||||
"bbox_detector": "yolox_l.onnx",
|
||||
"pose_estimator": "dw-ll_ucoco_384_bs5.torchscript.pt",
|
||||
"scale_stick_for_xinsr_cn": "disable",
|
||||
"image": [
|
||||
"30",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "DWPreprocessor",
|
||||
"_meta": {
|
||||
"title": "DWPose Estimator"
|
||||
}
|
||||
},
|
||||
"35": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"33",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"36": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"31",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"32",
|
||||
0
|
||||
],
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
}
|
||||
}
|
||||
111
src/comfyworkflows/facerestore_upscale.json
Normal file
111
src/comfyworkflows/facerestore_upscale.json
Normal file
@ -0,0 +1,111 @@
|
||||
{
|
||||
"1": {
|
||||
"inputs": {
|
||||
"image": "model_outfit_location_handbag3_1760086053609.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
}
|
||||
},
|
||||
"2": {
|
||||
"inputs": {
|
||||
"enabled": true,
|
||||
"swap_model": "inswapper_128.onnx",
|
||||
"facedetection": "YOLOv5l",
|
||||
"face_restore_model": "GPEN-BFR-1024.onnx",
|
||||
"face_restore_visibility": 0.5200000000000001,
|
||||
"codeformer_weight": 0.5,
|
||||
"detect_gender_input": "no",
|
||||
"detect_gender_source": "no",
|
||||
"input_faces_index": "0",
|
||||
"source_faces_index": "0",
|
||||
"console_log_level": 1,
|
||||
"input_image": [
|
||||
"6",
|
||||
0
|
||||
],
|
||||
"source_image": [
|
||||
"3",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ReActorFaceSwap",
|
||||
"_meta": {
|
||||
"title": "ReActor 🌌 Fast Face Swap"
|
||||
}
|
||||
},
|
||||
"3": {
|
||||
"inputs": {
|
||||
"image": "outfit_1760086053609.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
}
|
||||
},
|
||||
"4": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"2",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"6": {
|
||||
"inputs": {
|
||||
"resize_to": "4k",
|
||||
"images": [
|
||||
"1",
|
||||
0
|
||||
],
|
||||
"upscaler_trt_model": [
|
||||
"8",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "UpscalerTensorrt",
|
||||
"_meta": {
|
||||
"title": "Upscaler Tensorrt ⚡"
|
||||
}
|
||||
},
|
||||
"7": {
|
||||
"inputs": {
|
||||
"images": [
|
||||
"6",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "PreviewImage",
|
||||
"_meta": {
|
||||
"title": "Preview Image"
|
||||
}
|
||||
},
|
||||
"8": {
|
||||
"inputs": {
|
||||
"model": "4x-UltraSharp",
|
||||
"precision": "fp16"
|
||||
},
|
||||
"class_type": "LoadUpscalerTensorrtModel",
|
||||
"_meta": {
|
||||
"title": "Load Upscale Tensorrt Model"
|
||||
}
|
||||
},
|
||||
"9": {
|
||||
"inputs": {
|
||||
"filename_prefix": "upscaled",
|
||||
"images": [
|
||||
"2",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
}
|
||||
}
|
||||
388
src/comfyworkflows/upscale.json
Normal file
388
src/comfyworkflows/upscale.json
Normal file
@ -0,0 +1,388 @@
|
||||
{
|
||||
"4": {
|
||||
"inputs": {
|
||||
"ckpt_name": "dreamshaperXL_v21TurboDPMSDE.safetensors"
|
||||
},
|
||||
"class_type": "CheckpointLoaderSimple",
|
||||
"_meta": {
|
||||
"title": "Load Checkpoint"
|
||||
}
|
||||
},
|
||||
"12": {
|
||||
"inputs": {
|
||||
"seed": 302411063911982,
|
||||
"steps": 8,
|
||||
"cfg": 2,
|
||||
"sampler_name": "dpmpp_sde",
|
||||
"scheduler": "karras",
|
||||
"denoise": 1,
|
||||
"model": [
|
||||
"4",
|
||||
0
|
||||
],
|
||||
"positive": [
|
||||
"65",
|
||||
0
|
||||
],
|
||||
"negative": [
|
||||
"69",
|
||||
0
|
||||
],
|
||||
"latent_image": [
|
||||
"13",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "KSampler",
|
||||
"_meta": {
|
||||
"title": "KSampler"
|
||||
}
|
||||
},
|
||||
"13": {
|
||||
"inputs": {
|
||||
"width": 1216,
|
||||
"height": 832,
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
},
|
||||
"16": {
|
||||
"inputs": {
|
||||
"samples": [
|
||||
"12",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"4",
|
||||
2
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecode",
|
||||
"_meta": {
|
||||
"title": "VAE Decode"
|
||||
}
|
||||
},
|
||||
"36": {
|
||||
"inputs": {
|
||||
"method": "Mixture of Diffusers",
|
||||
"tile_width": 1024,
|
||||
"tile_height": 1024,
|
||||
"tile_overlap": 32,
|
||||
"tile_batch_size": 8,
|
||||
"model": [
|
||||
"4",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "TiledDiffusion",
|
||||
"_meta": {
|
||||
"title": "Tiled Diffusion"
|
||||
}
|
||||
},
|
||||
"51": {
|
||||
"inputs": {
|
||||
"tile_size": 1024,
|
||||
"fast": false,
|
||||
"samples": [
|
||||
"80",
|
||||
0
|
||||
],
|
||||
"vae": [
|
||||
"4",
|
||||
2
|
||||
]
|
||||
},
|
||||
"class_type": "VAEDecodeTiled_TiledDiffusion",
|
||||
"_meta": {
|
||||
"title": "Tiled VAE Decode"
|
||||
}
|
||||
},
|
||||
"65": {
|
||||
"inputs": {
|
||||
"text": "photo of a high end sports car",
|
||||
"clip": [
|
||||
"4",
|
||||
1
|
||||
]
|
||||
},
|
||||
"class_type": "CLIPTextEncode",
|
||||
"_meta": {
|
||||
"title": "CLIP Text Encode (Prompt)"
|
||||
}
|
||||
},
|
||||
"69": {
|
||||
"inputs": {
|
||||
"text": "text, watermark, (film grain, noise:1.2)",
|
||||
"clip": [
|
||||
"4",
|
||||
1
|
||||
]
|
||||
},
|
||||
"class_type": "CLIPTextEncode",
|
||||
"_meta": {
|
||||
"title": "CLIP Text Encode (Prompt)"
|
||||
}
|
||||
},
|
||||
"80": {
|
||||
"inputs": {
|
||||
"seed": 105566927616764,
|
||||
"steps": 4,
|
||||
"cfg": 2,
|
||||
"sampler_name": "dpmpp_sde",
|
||||
"scheduler": "karras",
|
||||
"denoise": 1,
|
||||
"model": [
|
||||
"36",
|
||||
0
|
||||
],
|
||||
"positive": [
|
||||
"141",
|
||||
0
|
||||
],
|
||||
"negative": [
|
||||
"141",
|
||||
1
|
||||
],
|
||||
"latent_image": [
|
||||
"84",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "KSampler",
|
||||
"_meta": {
|
||||
"title": "KSampler"
|
||||
}
|
||||
},
|
||||
"84": {
|
||||
"inputs": {
|
||||
"width": [
|
||||
"106",
|
||||
0
|
||||
],
|
||||
"height": [
|
||||
"107",
|
||||
0
|
||||
],
|
||||
"batch_size": 1
|
||||
},
|
||||
"class_type": "EmptyLatentImage",
|
||||
"_meta": {
|
||||
"title": "Empty Latent Image"
|
||||
}
|
||||
},
|
||||
"105": {
|
||||
"inputs": {
|
||||
"image": [
|
||||
"115",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "GetImageSizeAndCount",
|
||||
"_meta": {
|
||||
"title": "Get Image Size & Count"
|
||||
}
|
||||
},
|
||||
"106": {
|
||||
"inputs": {
|
||||
"value": "a*b",
|
||||
"a": [
|
||||
"105",
|
||||
1
|
||||
],
|
||||
"b": [
|
||||
"117",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SimpleMath+",
|
||||
"_meta": {
|
||||
"title": "🔧 Simple Math"
|
||||
}
|
||||
},
|
||||
"107": {
|
||||
"inputs": {
|
||||
"value": "a*b",
|
||||
"a": [
|
||||
"105",
|
||||
2
|
||||
],
|
||||
"b": [
|
||||
"117",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SimpleMath+",
|
||||
"_meta": {
|
||||
"title": "🔧 Simple Math"
|
||||
}
|
||||
},
|
||||
"111": {
|
||||
"inputs": {
|
||||
"image": "model_outfit_location_handbag1_1760092227085.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
}
|
||||
},
|
||||
"115": {
|
||||
"inputs": {
|
||||
"any_01": [
|
||||
"111",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "Any Switch (rgthree)",
|
||||
"_meta": {
|
||||
"title": "Any Switch (rgthree)"
|
||||
}
|
||||
},
|
||||
"117": {
|
||||
"inputs": {
|
||||
"value": 4.000000000000001
|
||||
},
|
||||
"class_type": "FloatConstant",
|
||||
"_meta": {
|
||||
"title": "Float Constant"
|
||||
}
|
||||
},
|
||||
"133": {
|
||||
"inputs": {
|
||||
"rgthree_comparer": {
|
||||
"images": [
|
||||
{
|
||||
"name": "A",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_ybqmm_00009_.png&type=temp&subfolder=&rand=0.02707950499627365"
|
||||
},
|
||||
{
|
||||
"name": "B",
|
||||
"selected": true,
|
||||
"url": "/api/view?filename=rgthree.compare._temp_ybqmm_00010_.png&type=temp&subfolder=&rand=0.18690183070180255"
|
||||
}
|
||||
]
|
||||
},
|
||||
"image_a": [
|
||||
"115",
|
||||
0
|
||||
],
|
||||
"image_b": [
|
||||
"149",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "Image Comparer (rgthree)",
|
||||
"_meta": {
|
||||
"title": "Image Comparer (rgthree)"
|
||||
}
|
||||
},
|
||||
"141": {
|
||||
"inputs": {
|
||||
"strength": 0.65,
|
||||
"start_percent": 0,
|
||||
"end_percent": 0.9,
|
||||
"positive": [
|
||||
"65",
|
||||
0
|
||||
],
|
||||
"negative": [
|
||||
"69",
|
||||
0
|
||||
],
|
||||
"control_net": [
|
||||
"142",
|
||||
0
|
||||
],
|
||||
"image": [
|
||||
"115",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ACN_AdvancedControlNetApply",
|
||||
"_meta": {
|
||||
"title": "Apply Advanced ControlNet 🛂🅐🅒🅝"
|
||||
}
|
||||
},
|
||||
"142": {
|
||||
"inputs": {
|
||||
"control_net_name": "xinsircontrolnet-tile-sdxl-1.0.safetensors"
|
||||
},
|
||||
"class_type": "ControlNetLoaderAdvanced",
|
||||
"_meta": {
|
||||
"title": "Load Advanced ControlNet Model 🛂🅐🅒🅝"
|
||||
}
|
||||
},
|
||||
"148": {
|
||||
"inputs": {
|
||||
"color_space": "LAB",
|
||||
"factor": 0.8,
|
||||
"device": "auto",
|
||||
"batch_size": 0,
|
||||
"image": [
|
||||
"51",
|
||||
0
|
||||
],
|
||||
"reference": [
|
||||
"115",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageColorMatch+",
|
||||
"_meta": {
|
||||
"title": "🔧 Image Color Match"
|
||||
}
|
||||
},
|
||||
"149": {
|
||||
"inputs": {
|
||||
"sharpen_radius": 1,
|
||||
"sigma": 1,
|
||||
"alpha": 0.05,
|
||||
"image": [
|
||||
"148",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "ImageSharpen",
|
||||
"_meta": {
|
||||
"title": "Image Sharpen"
|
||||
}
|
||||
},
|
||||
"154": {
|
||||
"inputs": {
|
||||
"filename_prefix": "Upscaled",
|
||||
"images": [
|
||||
"149",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
},
|
||||
"165": {
|
||||
"inputs": {
|
||||
"image": "model_outfit_location_handbag1_1760092227085.png"
|
||||
},
|
||||
"class_type": "LoadImage",
|
||||
"_meta": {
|
||||
"title": "Load Image"
|
||||
}
|
||||
},
|
||||
"166": {
|
||||
"inputs": {
|
||||
"filename_prefix": "upscaled",
|
||||
"images": [
|
||||
"149",
|
||||
0
|
||||
]
|
||||
},
|
||||
"class_type": "SaveImage",
|
||||
"_meta": {
|
||||
"title": "Save Image"
|
||||
}
|
||||
}
|
||||
}
|
||||
Reference in New Issue
Block a user