193 lines
4.2 KiB
JSON
193 lines
4.2 KiB
JSON
{
|
|
"1": {
|
|
"inputs": {
|
|
"clip_name1": "clip_l.safetensors",
|
|
"clip_name2": "t5xxl_fp16.safetensors",
|
|
"type": "flux",
|
|
"device": "default"
|
|
},
|
|
"class_type": "DualCLIPLoader",
|
|
"_meta": {
|
|
"title": "DualCLIPLoader"
|
|
}
|
|
},
|
|
"2": {
|
|
"inputs": {
|
|
"unet_name": "flux1-krea-dev_fp8_scaled.safetensors",
|
|
"weight_dtype": "default"
|
|
},
|
|
"class_type": "UNETLoader",
|
|
"_meta": {
|
|
"title": "Load Diffusion Model"
|
|
}
|
|
},
|
|
"3": {
|
|
"inputs": {
|
|
"width": 720,
|
|
"height": 1280,
|
|
"batch_size": 1
|
|
},
|
|
"class_type": "EmptySD3LatentImage",
|
|
"_meta": {
|
|
"title": "EmptySD3LatentImage"
|
|
}
|
|
},
|
|
"4": {
|
|
"inputs": {
|
|
"seed": 844515265883614,
|
|
"steps": 20,
|
|
"cfg": 1,
|
|
"sampler_name": "euler",
|
|
"scheduler": "simple",
|
|
"denoise": 1,
|
|
"model": [
|
|
"2",
|
|
0
|
|
],
|
|
"positive": [
|
|
"11",
|
|
0
|
|
],
|
|
"negative": [
|
|
"5",
|
|
0
|
|
],
|
|
"latent_image": [
|
|
"3",
|
|
0
|
|
]
|
|
},
|
|
"class_type": "KSampler",
|
|
"_meta": {
|
|
"title": "KSampler"
|
|
}
|
|
},
|
|
"5": {
|
|
"inputs": {
|
|
"conditioning": [
|
|
"14",
|
|
0
|
|
]
|
|
},
|
|
"class_type": "ConditioningZeroOut",
|
|
"_meta": {
|
|
"title": "ConditioningZeroOut"
|
|
}
|
|
},
|
|
"6": {
|
|
"inputs": {
|
|
"samples": [
|
|
"4",
|
|
0
|
|
],
|
|
"vae": [
|
|
"12",
|
|
0
|
|
]
|
|
},
|
|
"class_type": "VAEDecode",
|
|
"_meta": {
|
|
"title": "VAE Decode"
|
|
}
|
|
},
|
|
"8": {
|
|
"inputs": {
|
|
"style_model_name": "flux1-redux-dev.safetensors"
|
|
},
|
|
"class_type": "StyleModelLoader",
|
|
"_meta": {
|
|
"title": "Load Style Model"
|
|
}
|
|
},
|
|
"9": {
|
|
"inputs": {
|
|
"crop": "center",
|
|
"clip_vision": [
|
|
"10",
|
|
0
|
|
],
|
|
"image": [
|
|
"13",
|
|
0
|
|
]
|
|
},
|
|
"class_type": "CLIPVisionEncode",
|
|
"_meta": {
|
|
"title": "CLIP Vision Encode"
|
|
}
|
|
},
|
|
"10": {
|
|
"inputs": {
|
|
"clip_name": "sigclip_vision_patch14_384.safetensors"
|
|
},
|
|
"class_type": "CLIPVisionLoader",
|
|
"_meta": {
|
|
"title": "Load CLIP Vision"
|
|
}
|
|
},
|
|
"11": {
|
|
"inputs": {
|
|
"strength": 0.6000000000000001,
|
|
"conditioning": [
|
|
"14",
|
|
0
|
|
],
|
|
"style_model": [
|
|
"8",
|
|
0
|
|
],
|
|
"clip_vision_output": [
|
|
"9",
|
|
0
|
|
]
|
|
},
|
|
"class_type": "ApplyStyleModelAdjust",
|
|
"_meta": {
|
|
"title": "Apply Style Model (Adjusted)"
|
|
}
|
|
},
|
|
"12": {
|
|
"inputs": {
|
|
"vae_name": "ae.safetensors"
|
|
},
|
|
"class_type": "VAELoader",
|
|
"_meta": {
|
|
"title": "Load VAE"
|
|
}
|
|
},
|
|
"13": {
|
|
"inputs": {
|
|
"image": "7a103725df2576b79c7306f0d3050991.jpg"
|
|
},
|
|
"class_type": "LoadImage",
|
|
"_meta": {
|
|
"title": "Load Image 1"
|
|
}
|
|
},
|
|
"14": {
|
|
"inputs": {
|
|
"text": "scify movie scene",
|
|
"clip": [
|
|
"1",
|
|
0
|
|
]
|
|
},
|
|
"class_type": "CLIPTextEncode",
|
|
"_meta": {
|
|
"title": "CLIP Text Encode (Prompt)"
|
|
}
|
|
},
|
|
"15": {
|
|
"inputs": {
|
|
"filename_prefix": "STYLEDVIDEOMAKER",
|
|
"images": [
|
|
"6",
|
|
0
|
|
]
|
|
},
|
|
"class_type": "SaveImage",
|
|
"_meta": {
|
|
"title": "Save Image"
|
|
}
|
|
}
|
|
} |