このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください!GitHub で編集するTextEncodeHunyuanVideo_ImageToVideo ノードは、テキストプロンプトと画像埋め込み(エンベディング)を組み合わせることで、動画生成用の条件付けデータ(コンディショニング・データ)を作成します。このノードでは CLIP モデルを用いて、テキスト入力および CLIP ビジョン出力から得られる視覚情報を処理し、指定された「画像インターリーブ設定」に従って、これら二つの情報源を統合したトークンを生成します。
入力
| パラメーター | データ型 | 必須 | 範囲 | 説明 |
|---|---|---|---|---|
clip | CLIP | はい | - | トークン化およびエンコーディングに使用される CLIP モデル |
clip_vision_output | CLIP_VISION_OUTPUT | はい | - | 画像の文脈情報を提供する、CLIP ビジョンモデルからの視覚的埋め込み(エンベディング) |
prompt | STRING | はい | - | 動画生成をガイドするテキスト記述。複数行入力および動的プロンプトに対応しています |
image_interleave | INT | はい | 1–512 | 画像とテキストプロンプトのどちらがより強く影響を与えるかを制御するパラメーター。数値が大きいほど、テキストプロンプトの影響が強くなります。(デフォルト:2) |
出力
| 出力名 | データ型 | 説明 |
|---|---|---|
CONDITIONING | CONDITIONING | 動画生成に用いる、テキストおよび画像情報を統合した条件付けデータ |