跳转到主要内容
Seedance 2.0 可以将文本、图像、视频和音频转化为高质量视频,支持同步音频、角色一致性和电影级摄像机控制。该模型现已在 ComfyUI 中可用。
使用 API 节点需要保证你已经正常登录,并在受许可的网络环境下使用,请参考API 节点总览部分文档来了解使用 API 节点的具体使用要求。
请确保你的 ComfyUI 已经更新。本指南里的工作流可以在 ComfyUI 的工作流模板中找到。如果找不到,可能是 ComfyUI 没有更新。如果加载工作流时有节点缺失,可能原因有:
  1. 你用的不是最新开发版(nightly)。
  2. 你用的是稳定版或桌面版(没有包含最新的更新)。
  3. 启动时有些节点导入失败。

可用工作流

  • 文本生成视频 — 通过文本提示生成视频
  • 参考生成视频 — 使用参考图像、视频或音频来引导生成
  • 首尾帧生成视频 — 提供起始帧和结束帧,生成中间过渡视频
写实角色参考功能即将推出。注册抢先体验,发布时将第一时间通知您。

模型优势

多模态参考生成

支持最多 9 张参考图像、3 个参考视频和 3 个参考音频文件。模型会综合所有参考素材,生成一个连贯的输出。物体细节、纹理、视觉风格、音色和角色特征在整个生成过程中保持一致。
  • 视频参考 — 上传一个片段,模型将复制其摄像机运动、动作编排、剪辑节奏和视觉效果
  • 音频参考 — 模型在音素级别将视觉与音乐、对话或音效同步,支持多种语言和方言
  • 图像参考 — 锁定角色身份、产品外观和风格一致性。面部、服装和材质纹理在整个视频中保持稳定

精准定向视频编辑

直接编辑现有视频内容,无需从头重新生成。
  • 主体替换 — 在现有片段中替换角色,同时保持原始运动、摄像机工作和构图不变
  • 对象级编辑 — 添加、移除或更改场景中的特定元素,视频的其余部分保持不变
  • 修复 — 通过上下文感知生成重建现有视频的区域,保持时间连贯性和视觉一致性

无缝视频扩展

将短片段转化为更长的序列,保持自然的连续性。
  • 视频延伸 — 向前扩展任何片段。角色外观、光线和运动与现有素材平滑融合
  • 前置场景生成 — 生成引入现有片段的素材,有效地向后扩展视频以构建叙事背景
  • 插值补全 — 在两个独立片段之间生成过渡画面,尊重两个端点的视觉和时间逻辑

开始使用

在 Comfy Cloud 上试用

在 Comfy Cloud 中打开 Seedance 2.0
  1. 将 ComfyUI 更新到最新版本,或访问 Comfy Cloud
  2. 在节点库中找到 Seedance 2.0 节点,或从模板中加载 Seedance 2.0 模板
  3. 将节点拖放到画布上即可开始创作