メインコンテンツへスキップ
CLIPMergeSimple は、2つの CLIP テキストエンコーダーモデルを指定された比率に基づいて統合するための高度なモデル統合ノードです。 このノードは、指定された比率に基づいて2つの CLIP モデルを統合することに特化しており、両者の特性を効果的に融合します。具体的には、位置ID(.position_ids)やロジットスケール(.logit_scale)などの特定のコンポーネントを除外した上で、一方のモデルのキーパッチを他方のモデルに選択的に適用することで、両方の元モデルの特徴を統合したハイブリッドモデルを生成します。

入力

パラメーターデータ型説明
clip1CLIP統合対象となる最初の CLIP モデルです。統合処理におけるベースモデルとして機能します。
clip2CLIP統合対象となる2番目の CLIP モデルです。指定された比率に基づき、位置IDおよびロジットスケールを除くそのキーパッチが、最初のモデルに適用されます。
ratioFLOAT範囲 0.0 - 1.0 の値で、2番目のモデルから1番目のモデルへ統合される特徴の割合を決定します。比率が 1.0 の場合、2番目のモデルの特徴を完全に採用し、0.0 の場合は1番目のモデルの特徴のみを保持します。

出力

パラメーターデータ型説明
clipCLIP指定された比率に従って2つの入力モデルの特徴を統合した、結果として得られる統合済み CLIP モデルです。

統合メカニズムの詳細

統合アルゴリズム

このノードは、2つのモデルを重み付き平均により統合します:
  1. ベースモデルのクローン作成: 最初に clip1 をベースモデルとしてクローンします
  2. パッチの取得: clip2 からすべてのキーパッチを取得します
  3. 特殊キーのフィルタリング: .position_ids.logit_scale で終わるキーはスキップします
  4. 重み付き統合の適用: 公式 (1.0 - ratio) * clip1 + ratio * clip2 を用いて統合を行います

ratio パラメーターの説明

  • ratio = 0.0: clip1 を完全に使用し、clip2 は無視されます
  • ratio = 0.5: それぞれのモデルから50%ずつ寄与します
  • ratio = 1.0: clip2 を完全に使用し、clip1 は無視されます

主な使用例

  1. モデルスタイルの融合: 異なるデータで学習された CLIP モデルの特性を組み合わせる
  2. パフォーマンス最適化: 異なるモデルの長所と短所をバランスよく活用する
  3. 実験的研究: 異なる CLIP エンコーダーの組み合わせを探索・検証する