优化

:robot: This page have been translated automatically. If you want to improve this translation and remove this warning, see project's repository

命令行参数 可以启用一些优化:

| commandline argument | explanation | |——————————–|————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————–|

--xformers 使用 xformers 库。显着改善内存消耗和速度。 Windows 版本安装由 C43H66N12O12S2 维护的二进制文件。只会在一小部分配置上启用,因为这就是我们拥有二进制文件的目的。 文档
--force-enable-xformers 无论程序是否认为您可以运行它,都启用上面的 xformers。不要报告你运行这个的错误。
--opt-split-attention 交叉注意层优化显着减少了内存使用,几乎没有成本(一些报告提高了性能)。黑魔法。
默认情况下为 torch.cuda 打开,其中包括 NVidia 和 AMD 卡。
--disable-opt-split-attention Disables the optimization above.
--opt-split-attention-v1 使用上面优化的旧版本,它不会占用大量内存(它会使用更少的 VRAM,但会更多地限制您可以制作的图片的最大尺寸)。
--medvram 通过将 Stable Diffusion 模型分成三部分 - cond(用于将文本转换为数字表示)、first_stage(用于将图片转换为潜在空间并返回)和 unet(用于潜在空间的实际去噪)并制作这样一来,始终只有一个在 VRAM 中,而将其他的发送到 CPU RAM。会降低性能,但只会降低一点——除非启用了实时预览。
--lowvram 对上面更彻底的优化,将unet拆分成很多模块,VRAM中只保留一个模块。对性能具有破坏性。
*不要批处理条件未处理 防止在采样期间对正负提示进行批处理,这实际上可以让您以 0.5 的批处理大小运行,从而节省大量内存。降低性能。不是命令行选项,而是使用“–medvram”或​​“–lowvram”隐式启用的优化。
--always-batch-cond-uncond 禁用上面的优化。只有与 --medvram--lowvram 一起使用才有意义
--opt-channelslast Changes torch memory type for stable diffusion to channels last. Effects not closely studied.

额外提示(Windows):

  • https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/3889 禁用硬件 GPU 调度。
  • 禁用浏览器硬件加速
  • 进入 nvidia 控制面板,3d 参数,并将电源配置文件更改为“最大性能”

results matching ""

    No results matching ""