ATI(Any Trajectory Instruction) 是由字节跳动团队提出的可控视频生成框架。ATI 基于 Wan2.1 实现,支持通过任意轨迹指令对视频中的物体、局部区域及摄像机运动进行统一控制。 项目地址:https://github.com/bytedance/ATI

主要特性

  • 统一运动控制:支持物体、局部、摄像机等多种运动类型的轨迹控制。
  • 交互式轨迹编辑器:可视化工具,用户可在图片上自由绘制、编辑运动轨迹。
  • 兼容 Wan2.1:基于 Wan2.1 官方实现,环境和模型结构兼容。
  • 丰富的可视化工具:支持输入轨迹、输出视频及轨迹可视化。

WAN ATI 轨迹控制工作流示例

如果在加载下面的工作流文件时,你发现存在节点缺失,可能是因为以下情况:
  1. 你使用的 ComfyUI 版本不是最新的开发(nightly)版本。
  2. 你使用的 ComfyUI 版本是稳定(release)版本或桌面版(desktop)版本(不包含最新的功能更新)。
  3. 你使用的 ComfyUI 版本是最新的 commit 版本,但在启动过程中部分节点导入失败了。
请先确保你已经成功更新 ComfyUI 到最新的开发(nightly)版本, 请查看:如何更新 ComfyUI 部分了解如何更新 ComfyUI。

1. 工作流下载

下载下面的视频并拖入 ComfyUI 中,以加载对应的工作流 我们将使用下面的素材作为输入: v2v-input

2. 模型下载

如果你没有成功下载工作流中的模型文件,可以尝试使用下面的链接手动下载 Diffusion Model VAE Text encoders Chose one of following model clip_vision File save location
ComfyUI/
├───📂 models/
│   ├───📂 diffusion_models/
│   │   └───Wan2_1-I2V-ATI-14B_fp8_e4m3fn.safetensors
│   ├───📂 text_encoders/
│   │   └─── umt5_xxl_fp8_e4m3fn_scaled.safetensors # or other version
│   ├───📂 clip_vision/
│   │   └─── clip_vision_h.safetensors
│   └───📂 vae/
│       └──  wan_2.1_vae.safetensors

3. 按步骤完成工作流的运行

工作流步骤图 请参照图片序号进行逐步确认,来保证对应工作流的顺利运行
  1. 确保Load Diffusion Model节点加载了 Wan2_1-I2V-ATI-14B_fp8_e4m3fn.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. 确保Load CLIP Vision节点加载了 clip_vision_h.safetensors 模型
  5. Load Image 节点上传提供的输入图片
  6. 轨迹编辑: 目前 ComfyUI 中还未有对应的轨迹编辑器,你可以使用下面的链接来完成轨迹编辑
  7. 如果你需要修改提示词(正向及负向)请在序号5CLIP Text Encoder 节点中进行修改
  8. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成