メインコンテンツへスキップ
Seedance 2.0は、テキスト、画像、動画、音声から同期音声、一貫したキャラクター、映画的カメラコントロールを備えた高品質動画を生成します。このモデルはComfyUI内で利用可能です。
APIノードを使用するには、正しくログインしていることと、許可されたネットワーク環境で使用していることを確認する必要があります。APIノードの使用に必要な具体的な要件については、ドキュメントの「APIノードの概要」セクションをご参照ください。
ComfyUI が最新版に更新されていることを確認してください。このガイドで紹介するワークフローは、ワークフローテンプレートから入手できます。
テンプレート内に該当のワークフローが見つからない場合、ComfyUI のバージョンが古くなっている可能性があります。(デスクトップ版の更新は若干遅れることがあります)
ワークフローを読み込んだ際にノードが欠落している場合の主な原因:
  1. 最新の ComfyUI(Nightly 版)を使用していない
  2. 起動時に一部のノードのインポートに失敗している

利用可能なワークフロー

  • テキストから動画 — テキストプロンプトから動画を生成
  • リファレンスから動画 — 参照画像、動画、または音声を使用して生成をガイド
  • 最初と最後のフレームから動画 — 開始フレームと終了フレームを指定して、その間の動画を生成
リアリズムキャラクターリファレンス機能は近日公開予定です。早期アクセスに登録して、リリース時に通知を受け取りましょう。

モデルの強み

マルチモーダルリファレンスベース生成

最大9枚の参照画像、3つの参照動画、3つの参照音声ファイルを追加できます。モデルはすべてのリファレンスを活用して、一貫した出力を生成します。オブジェクトの詳細、テクスチャ、ビジュアルスタイル、音色、キャラクター特徴が生成全体を通じて維持されます。
  • 動画リファレンス — クリップをアップロードすると、モデルがカメラの動き、アクション振付、編集リズム、ビジュアルエフェクトを再現します
  • 音声リファレンス — モデルは音素レベルでビジュアルを音楽、セリフ、効果音に同期させ、複数の言語と方言をサポートします
  • 画像リファレンス — キャラクターのアイデンティティ、製品の外観、スタイルの一貫性を固定します。顔、衣服、素材のテクスチャが動画全体で安定します

精密なターゲット動画編集

既存の動画コンテンツをゼロから再生成せずに直接編集できます。
  • 被写体の置換 — 既存のクリップ内のキャラクターを、元のモーション、カメラワーク、構図を維持したまま入れ替え
  • オブジェクトレベル編集 — シーン内の特定の要素を追加、削除、変更します。動画の残りの部分はそのまま維持されます
  • インペインティング — 時間的一貫性と視覚的一貫性を維持するコンテキスト認識生成で、既存動画の領域を再構築します

シームレスな動画拡張

短いクリップを自然な連続性を持つ長いシーケンスに変換します。
  • 動画延長 — 任意のクリップを時間的に前方に延長します。キャラクターの外観、照明、モーションが既存の映像とスムーズにブレンドされます
  • 先行シーン生成 — 既存のクリップに繋がる映像を生成し、ナラティブコンテキストを構築するために動画を後方に延長します
  • 補間完成 — 2つの別々のクリップの間を、両端のビジュアルと時間的ロジックを尊重した生成中間映像でブリッジします

はじめに

Comfy Cloudで試す

Comfy CloudでSeedance 2.0を開く
  1. ComfyUIを最新バージョンに更新するか、Comfy Cloudにアクセスします
  2. ノードライブラリでSeedance 2.0ノードを見つけるか、テンプレートからSeedance 2.0テンプレートをロードします
  3. ノードをキャンバスにドロップして作成を開始します