現在、
Server Config 設定メニューはデスクトップ版にのみ存在し、他のバージョンにはこの設定メニュー項目は存在しませんネットワーク
ホスト:リスニングする IP アドレス
- 機能: サーバーがバインドする IP アドレスを設定します。デフォルト
127.0.0.1はローカルアクセスのみを許可することを意味します。LAN アクセスが必要な場合は0.0.0.0に設定できます
ポート:リスニングするポート
機能: サーバーがリスニングするポート番号。デスクトップ版のデフォルトはポート 8000、Web 版は通常ポート 8188 を使用しますTLS 鍵ファイル:HTTPS 用の TLS 鍵ファイルへのパス
機能: HTTPS 暗号化に必要な秘密鍵ファイルのパス。安全な接続の確立に使用されますTLS 証明書ファイル:HTTPS 用の TLS 証明書ファイルへのパス
機能: HTTPS 暗号化に必要な証明書ファイルのパス。秘密鍵と併せて使用されますCORS ヘッダーを有効化:すべてのオリジンに ”*” を使用するか、ドメインを指定
機能: クロスオリジンリソース共有(CORS)設定。ウェブブラウザが異なるドメインからサーバーにアクセスすることを許可します最大アップロードサイズ (MB)
機能: 単一ファイルアップロードの最大サイズを制限します(単位:MB)。デフォルトは 100MB。画像、モデル、その他のファイルのアップロード制限に影響しますCUDA
使用する CUDA デバイスインデックス
機能: 使用する NVIDIA グラフィックカードを指定します。0 は最初のカード、1 は 2 番目のカードを表し、以下同様です。マルチ GPU システムで重要ですメモリ割り当てに CUDA malloc を使用
機能: CUDA のメモリアロケータを使用するかどうかを制御します。特定の状況でメモリ管理効率を向上させることができます推論
グローバル浮動小数点精度
機能: モデル計算の数値精度を設定します。FP16 は VRAM を節約しますが品質に影響する可能性があり、FP32 はより正確ですがより多くの VRAM を使用しますUNET 精度
オプション:auto: 最も適切な精度を自動的に選択しますfp64: 64 ビット浮動小数点精度。最も精度が高いですが VRAM 使用量が最大ですfp32: 32 ビット浮動小数点精度。標準精度fp16: 16 ビット浮動小数点精度。VRAM を節約できますbf16: 16 ビット brain 浮動小数点精度。fp16 と fp32 の中間fp8_e4m3fn: 8 ビット浮動小数点精度 (e4m3)。VRAM 使用量が最小fp8_e5m2: 8 ビット浮動小数点精度 (e5m2)。VRAM 使用量が最小
VAE 精度
オプションと推奨:auto: 最も適切な精度を自動的に選択します。8-12GB VRAM のユーザーに推奨fp16: 16 ビット浮動小数点精度。6GB 以下の VRAM のユーザーに推奨。VRAM を節約できますが品質に影響する可能性がありますfp32: 32 ビット浮動小数点精度。16GB 以上の VRAM を持ち、最高品質を追求するユーザーに推奨bf16: 16 ビット brain 浮動小数点精度。この形式をサポートする新しいグラフィックカードに推奨。より良いパフォーマンスバランスを達成できます
CPU で VAE を実行
機能: VAE を強制的に CPU で実行します。VRAM を節約できますが、処理速度は低下しますテキストエンコーダー精度
オプション:auto: 最も適切な精度を自動的に選択しますfp8_e4m3fn: 8 ビット浮動小数点精度 (e4m3)。VRAM 使用量が最小fp8_e5m2: 8 ビット浮動小数点精度 (e5m2)。VRAM 使用量が最小fp16: 16 ビット浮動小数点精度。VRAM を節約できますfp32: 32 ビット浮動小数点精度。標準精度
メモリ
channels-last メモリ形式を強制
機能: メモリ内のデータ配置を変更します。特定のハードウェアでパフォーマンスを向上させる可能性がありますDirectML デバイスインデックス
機能: Windows で DirectML 加速を使用する際のデバイスを指定します。主に AMD グラフィックカード用ですIPEX 最適化を無効化
機能: Intel CPU 最適化を無効にします。主に Intel プロセッサのパフォーマンスに影響しますVRAM 管理モード
オプション:auto: VRAM を自動的に管理し、モデルのサイズと要件に基づいて VRAM を割り当てますlowvram: 低 VRAM モード。最小限の VRAM を使用します。生成品質に影響する可能性がありますnormalvram: 標準 VRAM モード。VRAM 使用量とパフォーマンスのバランスを取りますhighvram: 高 VRAM モード。より良いパフォーマンスのために多くの VRAM を使用しますnovram: VRAM を使用しません。完全にシステムメモリで実行しますcpu: CPU のみモード。グラフィックカードを使用しません
予約済み VRAM (GB)
機能: オペレーティングシステムおよび他のプログラム用に予約する VRAM 量。システムのフリーズを防ぎますスマートメモリ管理を無効化
機能: 自動メモリ最適化を無効にし、モデルをシステムメモリに移動させて VRAM を解放することを強制しますプレビュー
潜在空間プレビューに使用される方法
オプション:none: プレビュー画像を表示しません。生成中はプログレスバーのみ表示しますauto: 最も適切なプレビュー方法を自動的に選択します。システムパフォーマンスと VRAM に基づいて動的に調整しますlatent2rgb: 潜在空間データを直接 RGB 画像に変換してプレビューします。高速ですが品質は普通ですtaesd: 軽量な TAESD モデルを使用してプレビューします。速度と品質のバランスを取ります
プレビュー画像のサイズ
機能: プレビュー画像の解像度を設定します。プレビューの鮮明さとパフォーマンスに影響します。サイズが大きいほどプレビュー品質は高くなりますが、より多くの VRAM を消費しますキャッシュ
古典的キャッシュシステムを使用
機能: 伝統的なキャッシュ戦略を使用します。より保守的ですが安定しています最大 N 個のノード結果をキャッシュする LRU キャッシュを使用
機能: 最近最少使用 (LRU) アルゴリズムキャッシュシステムを使用します。指定された数のノード計算結果をキャッシュできます 説明:- 具体的な数字を設定して最大キャッシュ数を制御します(例:10、50、100 など)
- キャッシュすることで、同じノード操作の重複計算を避け、ワークフローの実行速度を向上させます
- キャッシュが上限に達すると、最も長く使用されていない結果を自動的にクリアします
- キャッシュされた結果はシステムメモリ (RAM/VRAM) を占有します。値が大きいほど多くのメモリを使用します
- デフォルト値は null で、LRU キャッシュが有効になっていないことを意味します
- システムメモリ容量と使用要件に基づいて適切なキャッシュ数を設定します
- 同じノード構成を頻繁に再利用するワークフローに推奨します
- システムメモリが十分な場合、より良いパフォーマンス向上のために大きな値を設定できます
アテンション
クロスアテンション方法
オプション:auto: 最も適切なアテンション計算方法を自動的に選択しますsplit: ブロック単位のアテンション計算。VRAM を節約できますが速度は遅いですquad: 四分アテンションアルゴリズムを使用します。速度と VRAM 使用量のバランスを取りますpytorch: PyTorch ネイティブアテンション計算を使用します。高速ですが VRAM 使用量が大きいです
アテンションのアップキャストを強制
機能: 高精度のアテンション計算を強制します。品質を向上させますが VRAM 使用量が増加しますアテンションのアップキャストを防止
機能: 高精度のアテンション計算を無効にします。VRAM を節約します一般
xFormers 最適化を無効化
機能: xFormers ライブラリの最適化機能を無効にします。xFormers は Transformer モデルのアテンション機構を最適化するために特別に設計されたライブラリで、通常は計算効率を向上させ、メモリ使用量を削減し、推論速度を加速します。この最適化を無効にすると:- 標準のアテンション計算方法にフォールバックします
- メモリ使用量と計算時間が増加する可能性があります
- 特定の状況でより安定した実行環境を提供します
- xFormers 関連の互換性問題が発生した場合
- より正確な計算結果が必要な場合(一部の最適化は数値精度に影響する可能性があります)
- デバッグまたはトラブルシューティングで標準実装を使用する必要がある場合
モデルファイルのデフォルトハッシュ関数
オプション:sha256: SHA-256 アルゴリズムを使用してハッシュ検証を行います。安全性が高いですが計算は遅いですsha1: SHA-1 アルゴリズムを使用します。高速ですが安全性はわずかに低いですsha512: SHA-512 アルゴリズムを使用します。最高安全性を提供しますが計算は最も遅いですmd5: MD5 アルゴリズムを使用します。最も高速ですが安全性は最低です
可能な場合、pytorch に遅い決定的アルゴリズムを使用させる
機能: 結果の再現性を向上させるために、可能な場合 PyTorch に決定的アルゴリズムを使用させることを強制します。 説明:- 有効にすると、PyTorch はより高速な非決定的アルゴリズムではなく決定的アルゴリズムを優先します
- 同じ入力は同じ出力を生成し、デバッグと結果検証に役立ちます
- 決定的アルゴリズムは通常、非決定的アルゴリズムよりも実行速度が遅いです
- この設定を有効にしても、すべての状況で完全に同一の画像結果が保証されるわけではありません
- 厳密な結果の再現性が必要な科学研究
- 安定した出力結果が必要なデバッグプロセス
- 結果の一貫性が必要な本番環境
未テストで品質を低下させる可能性のある最適化を有効化
機能: 速度を向上させる可能性がありますが、生成品質に影響する可能性のある実験的な最適化を有効にしますサーバー出力をコンソールに印刷しない
機能: コンソールにサーバー実行情報を表示しないようにします。インターフェースを清潔に保ちます。 説明:- 有効にすると、ComfyUI サーバーのログと実行情報は表示されません
- コンソールの情報干渉を減らし、インターフェースをよりすっきりさせることができます
- 大量のログ出力がある場合、システムパフォーマンスをわずかに向上させる可能性があります
- デフォルトは無効 (false) で、サーバー出力はデフォルトで表示されます
- デバッグ情報が必要ない本番環境
- コンソールインターフェースを清潔に保ちたい場合
- システムが安定して実行されており、ログ監視が必要ない場合
ファイルにプロンプトメタデータを保存しない
機能: 生成された画像にワークフロー情報を保存しません。ファイルサイズを削減しますが、対応するワークフロー情報の損失を意味し、ワークフロー出力ファイルを使用して対応する生成結果を再現できなくなりますすべてのカスタムノードのロードを無効化
機能: すべてのサードパーティ拡張ノードのロードを防止します。通常、問題のトラブルシューティング時に使用され、エラーがサードパーティ拡張ノードによって引き起こされたかどうかを特定するために使用されますログ詳細レベル
機能: ログ出力の詳細レベルを制御します。デバッグおよびシステム実行状態の監視に使用されます。 オプション:CRITICAL: プログラムの実行を停止させる可能性のある重大なエラー情報のみを出力しますERROR: 一部の機能が正常に動作しないことを示すエラー情報を出力しますWARNING: 主要機能に影響しない可能性のある問題を示す警告情報を出力しますINFO: システム実行状態と重要な操作記録を含む一般情報を出力しますDEBUG: システム内部実行の詳細を含む最も詳細なデバッグ情報を出力します
- ログレベルは上から下へ詳細度が増加します
- 各レベルはそれより上位のレベルのすべてのログ情報を含みます
- 通常の使用時は INFO レベルに設定することをお勧めします
- トラブルシューティング時はより多くの情報を取得するために DEBUG レベルに設定できます
- 本番環境ではログ量を減らすために WARNING または ERROR レベルに設定できます