VOID(Video Object Inpainting and Deletion)是 Netflix 开源的一款强大的视频修复模型,基于 CogVideoX 架构。它采用两阶段扩散 pipeline,能够从视频中移除物体并以时间连贯的内容填补空缺。 VOID 不仅能移除物体本身,还能移除物体对场景造成的所有物理交互影响——不仅仅是阴影和反射等次要效果,还包括物体被移除后其他物体的物理运动。例如,如果移除一个拿着吉他的人,VOID 会自动处理人对吉他的影响,让吉他自然掉落。 VOID 在 ComfyUI 中获得原生支持(PR #13403),完整模型权重基于 Apache 2.0 协议 发布。 VOID 模型 - GitHub | 论文 (arXiv) | 🤗 Diffusers Pipeline 处理前(左)— 原始视频中的滑雪者。处理后(右)— 移除滑雪者后的输出结果。VOID 在移除物体的同时保持了自然的运动、光照和画面连贯性。Documentation Index
Fetch the complete documentation index at: https://docs.comfy.org/llms.txt
Use this file to discover all available pages before exploring further.
核心优势
- 交互感知移除 — 不仅移除物体本身,还移除物体对场景造成的所有物理交互(阴影、反射、掉落物体等)
- 真正的物体移除,而非单帧修补 — 在整个片段中生成连贯的运动和光照
- 双阶段优化 — Pass 2 提供了更优的时间稳定性(更少的抖动和闪烁),尤其适用于长片段或纹理复杂的背景
限制: 模糊的遮罩、杂乱的运动或占据画面大部分的物体可能仍会产生不理想的结果——提示词无法修正根本的分割错误。
VOID 视频修复工作流
1. 工作流文件下载
请更新你的 ComfyUI 到最新版本,并通过菜单工作流 -> 浏览模板 找到 Utility 类别下的 “VOID: Video Inpainting”。
下载 JSON 格式工作流
Download workflow
在 Comfy Cloud 中运行
Open in cloud
2. 手动下载模型
所有模型均托管在 Comfy-Org VOID 模型仓库。 扩散模型 — 核心的两阶段修复模型:- void_pass2.safetensors — 精炼阶段,时间稳定性更佳
- void_pass1.safetensors — 主要阶段
3. 使用工作流
输入参数:- 源视频 — 通过
Load Video节点加载视频(放入 ComfyUIinput/文件夹) - 正向提示词(修复填充) — 描述移除物体之后的场景。关注剩余内容和画面效果,而非被移除的物体
- 示例:
empty kitchen counter, daylight, tiles visible
- 示例:
- 负向提示词 — 可选的防伪影词表,可以留空
- SAM3 目标提示词 — 简短的要遮罩移除的对象描述。SAM3 通过语义理解为目标物体创建分割遮罩
- 示例:
person in blue jacket、red cup on table - SAM3 提示词上限为 32 个 token,多个目标用逗号分隔,用
:N指定每个提示检测的物体数量:eye:2, window panels:4
- 示例:
| 提示词 | 作用 |
|---|---|
| SAM3 目标 | 移除什么(SAM3 通过语义分割创建遮罩) |
| 正向(修复) | 如何填补空洞 |
了解 Subgraph
本工作流使用了 Subgraph 节点来实现模块化的视频处理。查阅 Subgraph 文档了解如何自定义和扩展工作流。
补充说明
- 遮罩质量至关重要 — 围绕目标物体的清晰紧致的遮罩能产生最佳效果
- 提示词写作技巧 — 描述移除后场景应自然呈现的样子,而非描述移除本身
- 负向提示词 仅在你看到反复出现的缺陷时使用(水印、模糊、多余肢体等)
- 双阶段工作流 — 模板会自动运行 Pass 1 然后 Pass 2;测试时也可以仅运行 Pass 1 以加快迭代