このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! GitHub で編集UNetSelfAttentionMultiply ノードは、UNet モデル内の自己注意機構(self-attention)におけるクエリ(query)、キー(key)、バリュー(value)、および出力(output)の各コンポーネントに乗算係数を適用します。これにより、注意計算の異なる部分のスケーリングを調整し、注意重みがモデルの挙動に与える影響を実験的に検討できます。
入力
| パラメーター | データ型 | 必須 | 範囲 | 説明 |
|---|---|---|---|---|
model | MODEL | はい | - | 注意スケーリング係数を適用する UNet モデル |
q | FLOAT | いいえ | 0.0 - 10.0 | クエリコンポーネントの乗算係数(デフォルト: 1.0) |
k | FLOAT | いいえ | 0.0 - 10.0 | キーコンポーネントの乗算係数(デフォルト: 1.0) |
v | FLOAT | いいえ | 0.0 - 10.0 | バリューコンポーネントの乗算係数(デフォルト: 1.0) |
out | FLOAT | いいえ | 0.0 - 10.0 | 出力コンポーネントの乗算係数(デフォルト: 1.0) |
出力
| 出力名 | データ型 | 説明 |
|---|---|---|
MODEL | MODEL | 注意コンポーネントがスケーリングされた UNet モデル |