メインコンテンツへスキップ
このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください!GitHub で編集
CLIP Text Encode for Lumina2 ノードは、CLIP モデルを用いてシステムプロンプトとユーザー・プロンプトをエンコードし、拡散モデルが特定の画像を生成する際のガイドとして利用可能な埋め込みベクトル(embedding)を生成します。このノードでは、あらかじめ定義されたシステムプロンプトとユーザーが指定したカスタムテキスト・プロンプトを組み合わせ、CLIP モデルを通じて処理することで、画像生成に用いる条件付けデータ(conditioning data)を作成します。

入力

パラメーターデータ型入力タイプデフォルト値範囲説明
system_promptSTRINGCOMBO-"superior", "alignment"Lumina2 では、2 種類のシステムプロンプトが提供されています。
Superior: テキストプロンプトまたはユーザー・プロンプトに基づき、卓越した画像・テキスト対応度(image-text alignment)を実現した高品質な画像を生成するよう設計されたアシスタントです。
Alignment: テキストプロンプトに基づき、最高レベルの画像・テキスト対応度を実現した高品質な画像を生成するよう設計されたアシスタントです。
user_promptSTRINGSTRING--エンコード対象のテキストです。
clipCLIPCLIP--テキストのエンコードに使用される CLIP モデルです。
注意: clip 入力は必須であり、None を指定することはできません。clip 入力が無効な場合、ノードはエラーを発生させ、「チェックポイントに有効な CLIP モデルまたはテキストエンコーダーが含まれていない可能性があります」というメッセージを表示します。

出力

出力名データ型説明
CONDITIONINGCONDITIONING拡散モデルの制御に用いられる、テキストを埋め込んだ条件付けデータです。