このドキュメンテーションは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください!GitHub で編集CLIPAttentionMultiply ノードは、自己注意層の異なる構成要素に乗算係数を適用することで、CLIP モデル内の注意機構(アテンション・メカニズム)を調整することを可能にします。具体的には、CLIP モデルの注意機構におけるクエリ(query)、キー(key)、バリュー(value)、および出力プロジェクションの重みとバイアスを変更します。この実験的なノードは、指定されたスケーリング係数を適用した入力 CLIP モデルの変更済みコピーを作成します。
入力
| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 |
|---|---|---|---|---|---|
clip | CLIP | 必須 | - | - | 変更対象の CLIP モデル |
q | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | クエリ投影の重みおよびバイアスに対する乗算係数 |
k | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | キー投影の重みおよびバイアスに対する乗算係数 |
v | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | バリュー投影の重みおよびバイアスに対する乗算係数 |
out | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | 出力プロジェクションの重みおよびバイアスに対する乗算係数 |
出力
| 出力名 | データ型 | 説明 |
|---|---|---|
CLIP | CLIP | 指定された注意機構スケーリング係数を適用した変更済み CLIP モデルを返します |