メインコンテンツへスキップ
Wan-Move は、アリババの通義実験室(Tongyi Lab)によって開発された、運動制御可能な動画生成フレームワークです。入力画像上でポイントのトラジェクトリ(軌跡)を指定することで、生成された動画内の物体の運動を制御でき、画像から動画への生成をより正確かつ制御可能にします。 主な特徴
  • 高品質な 5 秒 480p 運動制御:細粒度の運動制御性を備えた 5 秒間、480p の動画を生成します
  • 潜在トラジェクトリガイダンス:トラジェクトリに沿って最初のフレームの特徴を伝播させることで、運動条件を表現します
  • 細粒度のポイントレベル制御:物体の運動は高密度のポイントトラジェクトリで表現され、正確な領域レベルの制御を可能にします
  • アーキテクチャの変更不要:追加の運動モジュールなしで Wan-I2V-14B にシームレスに統合されます
関連リンク

Wan-Move 画像から動画へのワークフロー

JSON ワークフローファイルをダウンロード

ComfyUI Cloud で実行

Make sure your ComfyUI is updated.Workflows in this guide can be found in the Workflow Templates. If you can’t find them in the template, your ComfyUI may be outdated. (Desktop version’s update will delay sometime)If nodes are missing when loading a workflow, possible reasons:
  1. You are not using the latest ComfyUI version (Nightly version)
  2. Some nodes failed to import at startup

モデルリンク

text_encoders clip_vision loras diffusion_models vae モデル保存場所
📂 ComfyUI/
├── 📂 models/
│   ├── 📂 text_encoders/
│   │      └── umt5_xxl_fp8_e4m3fn_scaled.safetensors
│   ├── 📂 clip_vision/
│   │      └── clip_vision_h.safetensors
│   ├── 📂 loras/
│   │      └── lightx2v_I2V_14B_480p_cfg_step_distill_rank64_bf16.safetensors
│   ├── 📂 diffusion_models/
│   │      └── Wan21-WanMove_fp8_scaled_e4m3fn_KJ.safetensors
│   └── 📂 vae/
│          └── wan_2.1_vae.safetensors