阿里云通义万相2.2视频生成模型在ComfyUI中的官方使用指南
模型类型 | 模型名称 | 参数量 | 主要功能 | 模型仓库 |
---|---|---|---|---|
混合模型 | Wan2.2-TI2V-5B | 5B | 支持文本生成视频和图像生成视频的混合版本,单一模型满足两大核心任务需求 | 🤗 Wan2.2-TI2V-5B |
图生视频 | Wan2.2-I2V-A14B | 14B | 将静态图像转换为动态视频,保持内容一致性和流畅的动态过程 | 🤗 Wan2.2-I2V-A14B |
文生视频 | Wan2.2-T2V-A14B | 14B | 从文本描述生成高质量视频,具备影视级美学控制和精准语义遵循 | 🤗 Wan2.2-T2V-A14B |
工作流
-> 浏览模板
-> 视频
找到 “Wan2.2 5B video generation” 以加载工作流
下载 JSON 格式工作流
Load Diffusion Model
节点加载了 wan2.2_ti2v_5B_fp16.safetensors
模型Load CLIP
节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors
模型Load VAE
节点加载了 wan2.2_vae.safetensors
模型Load image
节点来上传图片Wan22ImageToVideoLatent
你可以进行尺寸的设置调整,和视频总帧数 length
调整5
的 CLIP Text Encoder
节点中进行修改Run
按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车)
来执行视频生成工作流
-> 浏览模板
-> 视频
找到 “Wan2.2 14B T2V”
或者更新你的 ComfyUI 到最新版本后,下载下面的工作流并拖入 ComfyUI 以加载工作流
下载 JSON 格式工作流
Load Diffusion Model
节点加载了 wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors
模型Load Diffusion Model
节点加载了 wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors
模型Load CLIP
节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors
模型Load VAE
节点加载了 wan_2.1_vae.safetensors
模型EmptyHunyuanLatentVideo
你可以进行尺寸的设置调整,和视频总帧数 length
调整6
的 CLIP Text Encoder
节点中进行修改Run
按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车)
来执行视频生成工作流
-> 浏览模板
-> 视频
找到 “Wan2.2 14B I2V” 以加载工作流
或者更新你的 ComfyUI 到最新版本后,下载下面的工作流并拖入 ComfyUI 以加载工作流
下载 JSON 格式工作流
你可以使用下面的图片作为输入Load Diffusion Model
节点加载了 wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors
模型Load Diffusion Model
节点加载了 wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors
模型Load CLIP
节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors
模型Load VAE
节点加载了 wan_2.1_vae.safetensors
模型Load Image
节点上传作为起始帧的图像6
的 CLIP Text Encoder
节点中进行修改EmptyHunyuanLatentVideo
你可以进行尺寸的设置调整,和视频总帧数 length
调整Run
按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车)
来执行视频生成