メインコンテンツへスキップ
このノードは、主に CLIP テキストエンコーダー・モデルを独立して読み込むために使用されます。
モデルファイルは以下のパスから自動検出されます:
  • ComfyUI/models/text_encoders/
  • ComfyUI/models/clip/
ComfyUI を起動した後にモデルを保存した場合、最新のモデルファイルパス一覧を取得するには、ComfyUI のフロントエンドを再読み込みする必要があります。
サポートされるモデル形式:
  • .ckpt
  • .pt
  • .pt2
  • .bin
  • .pth
  • .safetensors
  • .pkl
  • .sft
最新のモデルファイル読み込みに関する詳細については、folder_paths をご参照ください。

入力

パラメーターデータ型説明
clip_nameCOMBO[STRING]読み込む CLIP モデルの名前を指定します。この名前は、事前に定義されたディレクトリ構造内においてモデルファイルを特定するために使用されます。
typeCOMBO[STRING]読み込む CLIP モデルの種類を決定します。ComfyUI が対応するモデル数が増えるにつれて、新たな種類が追加されていきます。詳細については、node.py 内の CLIPLoader クラス定義をご確認ください。
deviceCOMBO[STRING]CLIP モデルを読み込むデバイスを選択します。default を選択すると GPU 上で実行され、CPU を選択すると CPU 上への強制読み込みが行われます。

デバイス選択オプションの解説

「default」を選択すべきケース:
  • 十分な GPU メモリが確保されている場合
  • 最高のパフォーマンスを求める場合
  • メモリ使用量をシステムが自動的に最適化するようにしたい場合
「cpu」を選択すべきケース:
  • GPU メモリが不足している場合
  • 他のモデル(例:UNet)のために GPU メモリを確保したい場合
  • VRAM が少ない環境で実行する場合
  • デバッグや特殊な用途が必要な場合
パフォーマンスへの影響 CPU 上での実行は GPU と比較して大幅に遅くなりますが、他のより重要なモデルコンポーネント(例:UNet)に貴重な GPU メモリを割り当てることができます。メモリが制限された環境では、CLIP モデルを CPU 上で実行することは、一般的な最適化戦略です。

サポートされるモデルとエンコーダーの組み合わせ

モデルタイプ対応するエンコーダー
stable_diffusionclip-l
stable_cascadeclip-g
sd3t5 xxl / clip-g / clip-l
stable_audiot5 base
mochit5 xxl
cosmosold t5 xxl
lumina2gemma 2 2B
wanumt5 xxl
ComfyUI の更新に伴い、これらの組み合わせは今後拡充される可能性があります。詳細については、node.py 内の CLIPLoader クラス定義をご参照ください。

出力

パラメーターデータ型説明
clipCLIP読み込まれた CLIP モデル。ダウンストリームタスクやその後の処理にすぐに利用可能です。

補足情報

CLIP モデルは、ComfyUI においてテキストエンコーダーとしての中核的な役割を果たしており、テキストプロンプトを拡散モデルが理解可能な数値表現へと変換する機能を担います。言い換えれば、CLIP モデルは「翻訳者」とも言え、ユーザーの入力テキストを大規模モデルが理解できる言語へと翻訳する役割を果たします。ただし、異なるアーキテクチャのモデル間ではそれぞれ固有の「方言(=エンコーディング方式)」が存在するため、テキストエンコーディング処理を正しく完了させるには、モデルごとに適切な CLIP エンコーダーが必要となります。