如何在Linux服务器上安装Stable Diffusion WebUI

发布于:2024-05-08 ⋅ 阅读:(22) ⋅ 点赞:(0)

一、前提条件

1、硬件条件

GPU:显存肯定越大越好,8G以上显存,建议16G以上,24g玩的好,32g可以开目前的最大。

内存:16G以上,建议32G,也是越大越好。

硬盘:使用固态硬盘,剩余空间200G以上。

2、软件条件

最好提前装好anaconda、Git、wget这些工具。
既然已经可以自己部署Stable Diffusion的地步了,服务器上最起码的环境已经搭建好了。

二、安装步骤

1、创建Python虚拟环境

我目前部署的是v1.9.3版本的Stable Diffusion,需要3.10.6版本的Python,最好按照官方的指示操作,我的anaconda的版本是3.7,在后续安装requirements.txt时会发生好多包无法安装的问题,所以可以在安装anaconda时就用3.10版本的,或者直接像下边在创建环境时指定。

# 创建环境
conda create -n sd python=3.10.6
#激活环境
conda activate sd

2、安装必要的软件和库

在服务器上安装必要的工具

sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0

可以自行查看自己的服务器上已经安装了哪些,如果已经安装了就可以不装。比如已经安装了anaconda,那么python3,python3-venv就可以不需要安装了。

如果非root用户,也是可以安装上述工具的,只是需要一点额外的操作,具体看:

https://blog.csdn.net/xfysq_/article/details/138339868?spm=1001.2014.3001.5501

3、克隆Stable Diffusion WebUI仓库

使用 Git 克隆 AUTOMATIC1111 的 stable-diffusion-webui 仓库:
在服务器中进入你想要放置拉取的仓库的目录,

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

4、安装依赖

有的教程会让你这两个依赖文件都安装一遍,其实这两个依赖文件是一样的,只不过requirements_versions.txt严格限制了版本,requirements.txt对版本要求比较宽松,我也是都安装了一遍。

pip install -r requirements_versions.txt
pip install -r requirements.txt

在这里如果没有科学上网,那建议大家一定要换源,否则会特别慢,可以参考:

https://blog.csdn.net/xfysq_/article/details/107090640

在安装依赖时,发现了一个问题,我在服务器上的个人账号目录下安装的是cuda11.3,但是Stable Diffusion安装依赖时却会安装12.1版本的cuda,而且最终Stable Diffusion也可以正常运行,这是因为cuda11.3算是你的系统cuda版本,而Python 包(如 PyTorch、TensorFlow 等)通常以预编译的形式提供,其中可能包含了特定版本的 CUDA 库。当使用 pip 安装这些包时,它们会包含与该版本捆绑的 CUDA 版本,这与在系统上安装的 CUDA 版本无关。

5、运行

一旦所有依赖项安装完毕,就可以启动 Web UI:

python launch.py

./webui.sh

都可以。

但在运行时,由于之前换过源,不是从anaconda的官方下载的包,所以可能在这又会重新安装一遍依赖,并且由于是从官方源下载,会特别慢,像卡住了一样。

因为这里是在脚本内部,无法像pip安装那样换源,因此,最好在这里提前将pip源永久换为其他源。也可以参考:

https://blog.csdn.net/xfysq_/article/details/107090640

在这里通常会遇到的两个问题:

(1)下载Downloading: "https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors"模型时,由于huggingface目前国内限制直接访问,因此模型无法下载,这是可以自己在本地利用科学上网下载之后,上传到/stable-diffusion-webui/models/Stable-diffusion/目录中。

(2)有了模型之后,仍然会提示OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’.问题,这也是因为huggingface目前国内限制直接访问,因此模型无法下载,可以到https://huggingface.co/models这个网站下载好openai/clip-vit-large-patch14之后,放到/stable-diffusion-webui/目录下,这也是openai/clip-vit-large-patch14的默认目录,不需要到/stable-diffusion-web ui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py里去修改openai/clip-vit-large-patch14的加载路径。

6、访问WEB UI

打开Web浏览器,输入http://127.0.0.1:7860来访问Web UI。

因为是在服务器上部署的,所以有很大可能你在本地浏览器输入上述网址是打不开的,这里需要配置 SSH 隧道,可以参考:

https://blog.csdn.net/xfysq_/article/details/138340373?spm=1001.2014.3001.5501

然后你就可以使用啦。