メインコンテンツへスキップ
Seedance 2.0 実在人物カバー Seedance 2.0 実在人物 はComfyUI内で直接利用できます。ワークフローで人物ポートレートをアップロードし、1回の本人確認(ライブネス)を完了すると、ComfyUIを離れずに同一人物の一貫したアイデンティティと自然な表情を保った動画を生成できます。 ComfyUIの実在人物サポートにより、バーチャルキャラクターに限らず、Seedance 2.0の高いコントロール性とネイティブな音声同期を実在人物にも拡張できます。既存のSeedance 2.0ワークフローと同じノードベースの操作で、クリップ全体の人物同一性と演技の一貫性を維持します。
APIノードを使用するには、正しくログインしていることと、許可されたネットワーク環境で使用していることを確認する必要があります。APIノードの使用に必要な具体的な要件については、ドキュメントの「APIノードの概要」セクションをご参照ください。
ComfyUI が最新版に更新されていることを確認してください。このガイドで紹介するワークフローは、ワークフローテンプレートから入手できます。
テンプレート内に該当のワークフローが見つからない場合、ComfyUI のバージョンが古くなっている可能性があります。(デスクトップ版の更新は若干遅れることがあります)
ワークフローを読み込んだ際にノードが欠落している場合の主な原因:
  1. 最新の ComfyUI(Nightly 版)を使用していない
  2. 起動時に一部のノードのインポートに失敗している

動画ガイド

本人確認フローと、Seedance 2.0 実在人物向け2つのワークフローをComfyUIで最初から最後まで実行する手順を動画で確認できます。

何が違うのか

  • 実在人物 + 映画的コントロール — 人物の自然さを保ちながら、カメラ移動、ライティング、シーン変化を演出
  • アイデンティティ一貫性 — 顔の特徴や全体の外観がモーションやカメラワーク、トランジションでも安定
  • ネイティブ音声同期 — 映像と音声(セリフ、環境音、音楽)を同時生成し、口元や表情の同期がより安定
  • マルチリファレンス指示 — テキストに加え、最大 9枚の画像3本の動画3本の音声 を組み合わせて見た目・動き・リズムを固定

ComfyUIでの本人確認(ライブネス)フロー

Seedance 2.0で実在人物を生成するには、事前に本人確認(ライブネス)が必要です。なりすましや無断での肖像利用を防ぐための仕組みで、ByteDance側で処理され、形成されつつあるAI透明性規制にも準拠しています。フロー全体はComfyUIの ByteDance Create Image/Video Asset ノードから開始でき、本人確認はスマホまたはブラウザで短時間だけ行います。 Group IDとAsset IDを生成するByteDance Create Image/Video Assetノード

初回実行(本人確認が必要)

  1. ComfyUIで ByteDance Create Image/Video Asset ノードをワークフローに追加し、人物ポートレートをアップロード
  2. ワークフローを実行 — ByteDanceからの本人確認リンクがComfyUIに返ります
  3. リンクをスマホまたはブラウザで開き、本人確認(通常1分以内)を完了
  4. 確認完了後にComfyUIへ戻ると、ノード出力に検証済みアセットが含まれます

本人確認フローのスクリーンショット

Step 1 — アップロードして実行し、本人確認を開始 ポートレートをアップロードして実行し、ライブネス確認を開始 Step 2 — 本人確認リンクを取得 ワークフロー実行により、ブラウザで開く本人確認リンクが返されます Step 3 — H5ページで本人確認を完了 H5の本人確認ページでカメラを使用して認証し、完了後に戻ります Step 4 — ComfyUIに戻り、IDを保存(追加クレジットなし) 認証完了後、ComfyUIでAsset IDとGroup IDが作成され、以降のノードで利用できます(追加クレジットなし) 本人確認が通ると、下流のSeedance 2.0動画ノードで利用できる2つのIDが得られます。
  • Group ID — 検証済み人物を表します。後で再本人確認せずに同一人物を使うため、保存しておいてください
  • Asset ID — この画像(または動画)アセット自体を表します。Seedance 2.0動画生成ノードへ接続して、検証済み人物の動画を生成できます。複数ワークフローで再利用可能です

次回以降のアップロード(本人確認なし)

  1. ComfyUIで ByteDance Create Image/Video Asset ノードに、同じ人物の新しい画像または動画をアップロード
  2. 保存済みの Group ID をノードに入力
  3. 実行時にByteDanceが顔特徴を初回検証と照合
  4. 一致すれば、新アセットは自動的に有効化されComfyUIに返り、Seedance 2.0動画生成にそのまま利用できます

既存のGroup IDで本人確認をスキップ

初回は本人確認が必要ですが、同一人物の素材を追加する際に Group ID を入力し、同一人物として認識されればライブネス確認をスキップできます。 既存のGroup IDを再利用し、同一人物と認識されれば本人確認を省略

利用可能なワークフロー

ComfyUIにはSeedance 2.0 実在人物向けのテンプレートが2つ用意されています。どちらも ByteDance Create Image/Video Asset ノードをSeedance 2.0動画生成ノードへ接続し、1回の実行で「検証 + 生成」を完結できます。

Seedance 2.0 実在人物 Reference-to-Video(R2V)

検証済みのポートレート(オプションで追加の参照画像/動画/音声)を用いて、実在人物のアイデンティティ一貫性を保ったSeedance 2.0動画を生成します。

Seedance 2.0 実在人物 R2V ワークフロー

Reference-to-Videoワークフローファイルを取得します。

Seedance 2.0 実在人物 First-Last-Frame-to-Video(FLF2V)

検証済みの開始フレームと終了フレームを指定し、実在人物のアイデンティティを保ちながら間の動画を生成します。

Seedance 2.0 実在人物 FLF2V ワークフロー

First-Last-Frame-to-Videoワークフローファイルを取得します。