メインコンテンツへスキップ
このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! GitHub で編集
UNetSelfAttentionMultiply ノードは、UNet モデル内の自己注意機構(self-attention)におけるクエリ(query)、キー(key)、バリュー(value)、および出力(output)の各コンポーネントに乗算係数を適用します。これにより、注意計算の異なる部分のスケーリングを調整し、注意重みがモデルの挙動に与える影響を実験的に検討できます。

入力

パラメーターデータ型必須範囲説明
modelMODELはい-注意スケーリング係数を適用する UNet モデル
qFLOATいいえ0.0 - 10.0クエリコンポーネントの乗算係数(デフォルト: 1.0)
kFLOATいいえ0.0 - 10.0キーコンポーネントの乗算係数(デフォルト: 1.0)
vFLOATいいえ0.0 - 10.0バリューコンポーネントの乗算係数(デフォルト: 1.0)
outFLOATいいえ0.0 - 10.0出力コンポーネントの乗算係数(デフォルト: 1.0)

出力

出力名データ型説明
MODELMODEL注意コンポーネントがスケーリングされた UNet モデル