メインコンテンツへスキップ
このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください!GitHub で編集する
TextEncodeHunyuanVideo_ImageToVideo ノードは、テキストプロンプトと画像埋め込み(エンベディング)を組み合わせることで、動画生成用の条件付けデータ(コンディショニング・データ)を作成します。このノードでは CLIP モデルを用いて、テキスト入力および CLIP ビジョン出力から得られる視覚情報を処理し、指定された「画像インターリーブ設定」に従って、これら二つの情報源を統合したトークンを生成します。

入力

パラメーターデータ型必須範囲説明
clipCLIPはい-トークン化およびエンコーディングに使用される CLIP モデル
clip_vision_outputCLIP_VISION_OUTPUTはい-画像の文脈情報を提供する、CLIP ビジョンモデルからの視覚的埋め込み(エンベディング)
promptSTRINGはい-動画生成をガイドするテキスト記述。複数行入力および動的プロンプトに対応しています
image_interleaveINTはい1–512画像とテキストプロンプトのどちらがより強く影響を与えるかを制御するパラメーター。数値が大きいほど、テキストプロンプトの影響が強くなります。(デフォルト:2)

出力

出力名データ型説明
CONDITIONINGCONDITIONING動画生成に用いる、テキストおよび画像情報を統合した条件付けデータ