Wan2.1 Video 系列为阿里巴巴于 2025年2月开源的视频生成模型,其开源协议为 Apache 2.0,提供 14B(140亿参数)和 1.3B(13亿参数)两个版本,覆盖文生视频(T2V)、图生视频(I2V)等多项任务。 该模型不仅在性能上超越现有开源模型,更重要的是其轻量级版本仅需 8GB 显存即可运行,大大降低了使用门槛。

Wan2.1 ComfyUI 原生(native)工作流示例

模型安装

本篇指南涉及的所有模型你都可以在这里找到, 下面是本篇示例中将会使用到的共用的模型,你可以提前进行下载:

Text encoders 选择一个版本进行下载,

VAE

CLIP Vision

文件保存位置

ComfyUI/
├── models/
│   ├── diffusion_models/
│   ├── ...                  # 我们在对应的工作流中进行补充说明
│   ├── text_encoders/
│   │   └─── umt5_xxl_fp8_e4m3fn_scaled.safetensors
│   └── vae/
│   │   └──  wan_2.1_vae.safetensors
│   └── clip_vision/
│       └──  clip_vision_h.safetensors   

对于 diffusion 模型,我们在本篇示例中将使用 fp16 精度的模型,因为我们发现相对于 bf16 的版本 fp16 版本的效果更好,如果你需要其它精度的版本,请访问这里进行下载

Wan2.1 文生视频工作流

在开始工作流前请下载 wan2.1_t2v_1.3B_fp16.safetensors,并保存到 ComfyUI/models/diffusion_models/ 目录下。

如果你需要其它的 t2v 精度版本,请访问这里进行下载

1. 工作流文件下载

下载下面的文件,并拖入 ComfyUI 以加载对应的工作流

2. 按流程完成工作流运行

  1. 确保Load Diffusion Model节点加载了 wan2.1_t2v_1.3B_fp16.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. (可选)可以在EmptyHunyuanLatentVideo 节点设置了视频的尺寸,如果有需要你可以修改
  5. (可选)如果你需要修改提示词(正向及负向)请在序号5CLIP Text Encoder 节点中进行修改
  6. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成

Wan2.1 图生视频工作流

由于 Wan Video 将 480P 和 720P 的模型分开 ,所以在本篇中我们将需要分别对两中清晰度的视频做出示例,除了对应模型不同之外,他们还有些许的参数差异

480P 版本

1. 工作流及输入图片

下载下面的图片,并拖入 ComfyUI 中来加载对应的工作流

我们将使用下面的图片作为输入:

2. 模型下载

请下载wan2.1_i2v_480p_14B_fp16.safetensors,并保存到 ComfyUI/models/diffusion_models/ 目录下

3. 按步骤完成工作流的运行

  1. 确保Load Diffusion Model节点加载了 wan2.1_i2v_480p_14B_fp16.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. 确保Load CLIP Vision节点加载了 clip_vision_h.safetensors 模型
  5. Load Image节点中上传我们提供的输入图片
  6. (可选)在CLIP Text Encoder节点中输入你想要生成的视频描述内容,
  7. (可选)在WanImageToVideo 节点中设置了视频的尺寸,如果有需要你可以修改
  8. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成

720P 版本

1. 工作流及输入图片

下载下面的图片,并拖入 ComfyUI 中来加载对应的工作流

我们将使用下面的图片作为输入:

2. 模型下载

请下载wan2.1_i2v_720p_14B_fp16.safetensors,并保存到 ComfyUI/models/diffusion_models/ 目录下

3. 按步骤完成工作流的运行

  1. 确保Load Diffusion Model节点加载了 wan2.1_i2v_720p_14B_fp16.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. 确保Load CLIP Vision节点加载了 clip_vision_h.safetensors 模型
  5. Load Image节点中上传我们提供的输入图片
  6. (可选)在CLIP Text Encoder节点中输入你想要生成的视频描述内容,
  7. (可选)在WanImageToVideo 节点中设置了视频的尺寸,如果有需要你可以修改
  8. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成