本地部署stable diffusion有四种方法:一、automatic1111 webui一键部署,适合新手;二、python虚拟环境手动构建,适合高级用户;三、docker容器化部署,确保环境隔离;四、miniconda+conda forge部署,解决底层库兼容问题。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地计算机上运行 Stable Diffusion 实现文生图功能,但面临环境配置复杂、依赖冲突或 GPU 驱动不兼容等问题,则需通过标准化流程完成部署。以下是多种可行的本地部署方法:
一、基于 Automatic1111 WebUI 的一键式本地部署
该方法适用于 Windows、Linux 和 macOS 系统,利用预封装脚本自动拉取依赖与模型,无需手动编译,适合大多数用户快速启动。
1、访问 https://github.com/AUTOMATIC1111/stable-diffusion-webui 页面,点击绿色 “Code” 按钮,选择 “Download ZIP” 下载完整项目压缩包。
2、将 ZIP 文件解压至纯英文路径且无空格的目录(例如:D:\sd-webui),避免因路径编码问题导致启动失败。
3、进入解压目录,在地址栏输入 cmd 并回车,打开该路径下的命令行窗口。
4、执行 webui-user.bat(Windows)或 ./webui.sh(Linux/macOS),首次运行将自动下载 PyTorch、xformers 及基础模型文件。
5、等待控制台输出 Running on local URL: http://127.0.0.1:7860,即可在浏览器中访问 WebUI 界面。
二、使用 Python 虚拟环境手动构建部署
该方法提供最高可控性,适用于需定制 CUDA 版本、PyTorch 构建参数或集成私有扩展的高级用户,可规避全局 Python 环境污染。
1、安装 Python 3.10.6(必须为 3.10.x 系列),安装时勾选 “Add Python to PATH”。
2、打开终端,执行以下命令创建独立虚拟环境:
python -m venv sd-env
3、激活虚拟环境:
Windows 执行:sd-env\Scripts\activate.bat
Linux/macOS 执行:source sd-env/bin/activate
4、升级 pip 并安装指定版本 PyTorch:
pip install --upgrade pip
pip install torch==2.1.2+cu118 torchvision==0.16.2+cu118 torchaudio==2.1.2+cu118 --index-url https://download.pytorch.org/whl/cu118
5、克隆 WebUI 仓库并安装依赖:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
pip install -r requirements.txt
三、Docker 容器化本地部署
该方法将运行环境完全隔离,确保系统级依赖(如 NVIDIA 驱动、CUDA 工具链)与宿主系统解耦,适用于多模型共存或频繁切换 CUDA 版本的场景。
1、确认已安装 Docker Desktop 且启用 WSL2 后端(Windows)或原生 Docker(Linux/macOS)。
2、安装 NVIDIA Container Toolkit,并验证支持:
nvidia-smi
docker run --rm --gpus all nvidia/cuda:11.8.0-runtime-ubuntu22.04 nvidia-smi
3、拉取社区维护的 Stable Diffusion WebUI 镜像:
docker pull ghcr.io/automatic1111/stable-diffusion-webui:latest
4、运行容器并映射端口与模型目录:
docker run -d --gpus all -p 7860:7860 -v /path/to/models:/root/stable-diffusion-webui/models -v /path/to/output:/root/stable-diffusion-webui/outputs --name sd-webui ghcr.io/automatic1111/stable-diffusion-webui:latest
5、访问 http://localhost:7860 即可使用,所有模型与输出均持久化保存在宿主机指定路径。
四、Miniconda + Conda Forge 快速部署
该方法利用 Conda 的跨平台二进制包管理能力,自动解决 CUDA、cudnn、numpy 等底层库的版本兼容问题,特别适合科研环境或学术复现实验。
1、下载并安装 Miniconda3-py310(对应 Python 3.10),避免使用 Anaconda 全量包以减少冗余。
2、打开 Anaconda Prompt(Windows)或终端(macOS/Linux),执行:
conda create -n sd python=3.10
conda activate sd
3、添加 conda-forge 通道并安装关键依赖:
conda config --add channels conda-forge
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia
4、使用 git 获取 WebUI 并安装扩展依赖:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
pip install -r requirements.txt
5、设置环境变量以启用 xformers 加速(如适用):
set PYTHONPATH=%cd%\extensions\sd-webui-controlnet
启动 webui-user.bat 或 ./webui.sh。










