Skip to content

环境变量

名称 描述
PYTHON 设置Python可执行文件的自定义路径。
VENV_DIR 指定虚拟环境的路径。默认为venv。特殊值-表示在不创建虚拟环境的情况下运行脚本。
COMMANDLINE_ARGS 主程序的附加命令行参数。
IGNORE_CMD_ARGS_ERRORS 设置为任何值,如果遇到意外的命令行参数,程序将不会以错误退出。
REQS_FILE launch.py运行时将安装的依赖项的requirements.txt文件的名称。默认为requirements_versions.txt
TORCH_COMMAND 安装PyTorch的命令。
INDEX_URL pip的--index-url参数。
TRANSFORMERS_CACHE transformers库下载和保存与CLIP模型相关的文件的路径。
CUDA_VISIBLE_DEVICES 在具有多个GPU的系统上选择要用于实例的GPU。例如,如果要使用辅助GPU,请输入"1"。
(在webui-user.bat中添加一行而不是在COMMANDLINE_ARGS中):set CUDA_VISIBLE_DEVICES=0
或者,只需在COMMANDLINE_ARGS中使用--device-id标志。
SD_WEBUI_LOG_LEVEL 日志详细程度。支持Python内置logging模块支持的任何有效日志级别。如果未设置,默认为INFO
SD_WEBUI_CACHE_FILE 缓存文件路径。如果未设置,默认为根目录中的cache.json
SD_WEBUI_RESTAR launcher script(如webui.bat webui.sh)设置的值,通知Webui重启功能可用
SD_WEBUI_RESTARTING 一个内部值,表示webui当前是否正在重新启动或重新加载,用于禁用某些操作,例如自动启动浏览器。
设置为1禁用自动启动浏览器
设置为0即使在重新启动时也启用自动启动
某些扩展可能会使用此值进行类似的目的。

webui-user

推荐的指定环境变量的方法是编辑webui-user.bat(Windows)和webui-user.sh(Linux): - Windows:set VARNAME=VALUE - Linux:export VARNAME="VALUE"

例如,在Windows中:

set COMMANDLINE_ARGS=--allow-code --xformers --skip-torch-cuda-test --no-half-vae --api --ckpt-dir A:\\stable-diffusion-checkpoints 

在线运行

使用--share选项进行在线运行。您将获得一个xxx.app.gradio链接。这是在colabs中使用程序的预期方式。您可以使用--gradio-auth username:password标志为该共享的gradio实例设置身份验证,可选择提供多个用户名和密码,用逗号分隔。

在局域网中运行

使用--listen使服务器监听网络连接。这将允许局域网上的计算机访问UI,如果配置了端口转发,还可以让互联网上的计算机访问。示例地址:http://192.168.1.3:7860,其中"192.168.1.3"是本地IP地址。

使用--port xxxx使服务器监听特定端口,xxxx是所需的端口。请记住,所有低于1024的端口都需要root/admin权限,因此建议使用1024以上的端口。如果可用,默认端口为7860。

在CPU上运行

只使用CPU是可能的,但不推荐。这样非常慢,而且没有fp16实现。

要运行,必须启用所有这些标志:--use-cpu all --precision full --no-half --skip-torch-cuda-test

虽然这是一种可疑的运行webui的方式,因为生成速度非常慢;但对于某些人来说,使用各种AI放大器和字幕工具可能是有用的。

额外信息: 对于技术倾向的用户,这里有一些用户提供的提高CPU性能的步骤: https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/10514 https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/10516

所有命令行参数

参数命令 默认值 描述
配置
-h, --help None False 显示帮助信息并退出。
--exit 安装后终止
--data-dir DATA_DIR ./ 存储所有用户数据的基本路径
--config CONFIG configs/stable-diffusion/v1-inference.yaml 构建模型的配置文件路径。
--ckpt CKPT model.ckpt Stable Diffusion模型的检查点路径;如果指定,将将此检查点添加到检查点列表并加载。
--ckpt-dir CKPT_DIR None Stable Diffusion检查点的目录路径。
--no-download-sd-model None False 即使找不到模型,也不要下载SD1.5模型。
--do-not-download-clip None False 即使检查点中不包含CLIP模型,也不要下载CLIP模型。
--vae-dir VAE_PATH None 变分自动编码器模型的路径
--vae-path VAE_PATH None 用作VAE的检查点;设置此参数
--gfpgan-dir GFPGAN_DIR GFPGAN/ GFPGAN目录。
--gfpgan-model GFPGAN_MODEL GFPGAN模型文件名。
--codeformer-models-path CODEFORMER_MODELS_PATH models/Codeformer/ Codeformer模型文件的目录路径。
--gfpgan-models-path GFPGAN_MODELS_PATH models/GFPGAN GFPGAN模型文件的目录路径。
--esrgan-models-path ESRGAN_MODELS_PATH models/ESRGAN ESRGAN模型文件的目录路径。
--bsrgan-models-path BSRGAN_MODELS_PATH models/BSRGAN BSRGAN模型文件的目录路径。
--realesrgan-models-path REALESRGAN_MODELS_PATH models/RealESRGAN RealESRGAN模型文件的目录路径。
--scunet-models-path SCUNET_MODELS_PATH models/ScuNET ScuNET模型文件的目录路径。
--swinir-models-path SWINIR_MODELS_PATH models/SwinIR SwinIR和SwinIR v2模型文件的目录路径。
--ldsr-models-path LDSR_MODELS_PATH models/LDSR LDSR模型文件的目录路径。
--lora-dir LORA_DIR models/Lora Lora网络的目录路径。
--clip-models-path CLIP_MODELS_PATH None CLIP模型文件的目录路径。
--embeddings-dir EMBEDDINGS_DIR embeddings/ 文本反演的嵌入目录(默认为embeddings)。
--textual-inversion-templates-dir TEXTUAL_INVERSION_TEMPLATES_DIR textual_inversion_templates 文本反演模板的目录路径。
--hypernetwork-dir HYPERNETWORK_DIR