模型亮点
- 双模式功能:单一架构支持动画和角色替换功能
- 高级身体运动控制:使用空间对齐的骨架信号来精确复制身体动作。
- 精确的运动和表情:准确重现参考视频中的动作和面部表情。
- 自然的环境集成:将替换的角色与原始视频环境无缝融合。
- 流畅的长视频生成:迭代生成确保在扩展视频中保持一致的运动和视觉流畅性。
ComfyOrg Wan2.2 Animate 直播回放
请确保你的 ComfyUI 已经更新。本指南里的工作流可以在 ComfyUI 的工作流模板中找到。如果找不到,可能是 ComfyUI 没有更新。如果加载工作流时有节点缺失,可能原因有:
- 你用的不是最新开发版(nightly)。
- 你用的是稳定版或桌面版(没有包含最新的更新)。
- 启动时有些节点导入失败。
Wan2.2 Animate ComfyUI 原生工作流
1. 下载工作流文件
下载以下工作流文件并将其拖入 ComfyUI 以加载工作流。下载工作流
下载以下素材作为输入: 参考图像:
2. 模型链接
diffusion_models- Wan2_2-Animate-14B_fp8_e4m3fn_scaled_KJ.safetensors 这是来自 Kijai 仓库的模型
- wan2.2_animate_14B_bf16.safetensors 原始模型权重
- lightx2v_I2V_14B_480p_cfg_step_distill_rank64_bf16.safetensors 这是一个 4 步的加速 lora
3. 安装自定义节点
下载以下工作流文件并将其拖入 ComfyUI 以加载工作流,如果你已安装 ComfyUI-Manager,你可以直接点击Install missing nodes
按钮来安装缺失的节点。
我们需要安装以下自定义节点:
如果你不知道如何安装自定义节点,请参阅 如何安装自定义节点
4. 工作流说明
Wan2.2 animate 有两种模式:Mix 和 Move- Mix:使用参考图像中的角色替换视频中的角色
- Move:使用输入视频中的角色动作和表情控制使参考图像进行类似的动作或表情(类似于 Wan2.2 Fun Control)
4.1 Mix 模式

- 如果你是第一次运行此工作流,请使用较小的尺寸进行视频生成,以防你没有足够的显存运行工作流,由于
WanAnimateToVideo
的限制,视频的宽度或高度应为 16 的倍数。 - 确保所有模型都已正确加载
- 如需要,更新提示词
- 上传参考图像,此图像中的角色将是目标角色
- 你可以使用我们提供的视频作为首次输入视频,comfyui_controlnet_aux 中的 DWPose Estimator 节点将预处理输入视频以生成姿态和面部控制视频
Points Editor
来自 KJNodes,默认情况下此节点不会加载输入视频的第一帧,你需要运行一次工作流或手动上传第一帧- 在
Points Editor
节点下方,我们添加了关于此节点如何工作以及如何编辑的说明,请参阅它
- 在
- 对于 “Video Extend” 组,它是为了扩展输出视频长度
- 每个
Video Extend
将扩展另外 77 帧(约 4.8125 秒) - 如果你的输入视频少于 5 秒,你可能不需要它
- 如果你想扩展更长的时间,你需要多次复制和粘贴,你需要将上一个 Video Extend 的
batch_images
链接到下一个,同时将上一个 Video Extend 的video_frame_offset
链接到下一个
- 每个
- 点击
Run
按钮或使用快捷键Ctrl(cmd) + Enter
来执行视频生成
4.2 Move 模式
我们在 Wan2.2 animate 工作流中使用了 子图,以下是切换到 Move 模式的方法:
Video Sampling and output(Subgraph)
节点断开 background_video
和 character_mask
输入。