メインコンテンツへスキップ
このドキュメンテーションは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください!GitHub で編集
CLIPAttentionMultiply ノードは、自己注意層の異なる構成要素に乗算係数を適用することで、CLIP モデル内の注意機構(アテンション・メカニズム)を調整することを可能にします。具体的には、CLIP モデルの注意機構におけるクエリ(query)、キー(key)、バリュー(value)、および出力プロジェクションの重みとバイアスを変更します。この実験的なノードは、指定されたスケーリング係数を適用した入力 CLIP モデルの変更済みコピーを作成します。

入力

パラメーターデータ型入力タイプデフォルト値範囲説明
clipCLIP必須--変更対象の CLIP モデル
qFLOAT必須1.00.0 – 10.0クエリ投影の重みおよびバイアスに対する乗算係数
kFLOAT必須1.00.0 – 10.0キー投影の重みおよびバイアスに対する乗算係数
vFLOAT必須1.00.0 – 10.0バリュー投影の重みおよびバイアスに対する乗算係数
outFLOAT必須1.00.0 – 10.0出力プロジェクションの重みおよびバイアスに対する乗算係数

出力

出力名データ型説明
CLIPCLIP指定された注意機構スケーリング係数を適用した変更済み CLIP モデルを返します