メインコンテンツへスキップ
このドキュメンテーションは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください!GitHub で編集
HunyuanImageToVideo ノードは、混元(Hunyuan)動画モデルを用いて画像を動画の潜在表現(latent representation)に変換します。このノードは条件付け入力と任意の開始画像を受け取り、動画生成モデルによる後続処理が可能な動画潜在表現を生成します。また、開始画像が動画生成プロセスに与える影響を制御するため、複数のガイドタイプ(guidance types)をサポートしています。

入力

パラメーターデータ型必須範囲説明
positiveCONDITIONINGはい-動画生成をガイドするための正方向の条件付け入力
vaeVAEはい-画像を潜在空間へエンコードする際に使用される VAE モデル
widthINTはい16 ~ MAX_RESOLUTION出力動画の幅(ピクセル単位、デフォルト:848、ステップ:16)
heightINTはい16 ~ MAX_RESOLUTION出力動画の高さ(ピクセル単位、デフォルト:480、ステップ:16)
lengthINTはい1 ~ MAX_RESOLUTION出力動画のフレーム数(デフォルト:53、ステップ:4)
batch_sizeINTはい1 ~ 4096同時に生成する動画の数(デフォルト:1)
guidance_typeCOMBOはい”v1 (concat)"
"v2 (replace)"
"custom”
開始画像を動画生成に組み込む方法
start_imageIMAGEいいえ-動画生成を初期化するための任意の開始画像
注意: start_image が指定された場合、選択された guidance_type に応じて、以下の異なるガイド方式が適用されます。
  • 「v1 (concat)」:画像の潜在表現を動画の潜在表現と連結(concatenate)します。
  • 「v2 (replace)」:動画の初期フレームを画像の潜在表現で置き換えます。
  • 「custom」:画像を参照用の潜在表現としてガイドに使用します。

出力

出力名データ型説明
positiveCONDITIONINGstart_image が指定された場合、画像によるガイドが適用された修正済みの正方向条件付け
latentLATENT動画生成モデルによる後続処理が可能な動画の潜在表現