零基础用户可通过五步入门stable diffusion:一、安装本地环境(nvidia显卡≥4gb显存、python 3.10.6、克隆webui并运行);二、加载匹配的checkpoint模型与vae文件;三、编写结构化英文提示词,分正负向并合理加权;四、配置采样器、步数(20–30)、分辨率(≤921600像素)及hires.fix;五、安装controlnet插件,用线稿或姿态图增强构图控制。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您对AI绘画感兴趣,但尚未接触过Stable Diffusion,可能因安装复杂、界面陌生或提示词使用不当而难以生成理想图像。以下是针对零基础用户开展Stable Diffusion实践的详细入门路径:
一、安装Stable Diffusion本地运行环境
Stable Diffusion需在本地计算机部署模型与推理框架,依赖Python环境及显卡驱动支持,确保基础运行条件满足是启动绘图的第一步。
1、确认显卡为NVIDIA型号且显存≥4GB,驱动版本需高于510.00;
2、安装Python 3.10.6(不可使用3.11或更高版本),并勾选“Add Python to PATH”;
3、从GitHub克隆webui仓库:执行命令 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git;
4、进入stable-diffusion-webui文件夹,双击运行webui-user.bat(Windows)或webui.sh(Linux/macOS);
5、首次运行将自动下载所需依赖与默认模型,等待终端显示“Running on local URL: http://127.0.0.1:7860”即完成。
二、加载基础模型与VAE文件
模型文件决定画风与细节表现力,VAE(变分自编码器)则影响颜色还原与平滑度,二者必须匹配才能避免色偏或模糊。
1、访问Civitai网站,搜索标签“SD1.5”或“sdxl”,下载一个评分≥4.5的Checkpoint模型(如“deliberate_v3”);
2、将模型文件(.safetensors或.ckpt格式)放入webui根目录下的models/Stable-diffusion/文件夹;
3、下载对应模型推荐的VAE文件(通常名称含vae-ft-mse-840000.ckpt),放入models/VAE/文件夹;
4、重启WebUI,在左上角“Stable Diffusion Checkpoint”下拉菜单中选择刚添加的模型,下方“VAE”选项同步选择同名VAE文件。
三、编写有效提示词(Prompt)结构
提示词是控制画面内容的核心指令,需按权重层级组织,主体描述优先,风格与质量参数后置,避免语义冲突。
1、在“Positive prompt”框内输入:a realistic portrait of a young East Asian woman, soft lighting, studio photo, detailed skin texture, 8k uhd, masterpiece, best quality;
2、在“Negative prompt”框内输入:deformed, mutated hands, bad anatomy, text, error, missing fingers, extra digit;
3、使用括号调节词权重:(masterpiece:1.3)、[low quality:0.8],括号嵌套不超过两层;
4、避免中英文混输,所有提示词必须为英文单词或短语。
四、配置关键采样参数与尺寸
采样器与步数共同影响图像收敛稳定性,分辨率设置需匹配显存容量,过高将导致显存溢出或中断生成。
1、在“Sampling method”中选择Euler a或DPM++ 2M Karras,避免使用PLMS或DDIM(已弃用);
2、设置Sampling steps为20–30,低于15易出现噪声,高于40提升有限但耗时显著增加;
3、Width与Height建议设为512×768(竖版人像)或768×512(横版场景),总像素不得超过1280×720(921600像素)以适配6GB显存;
4、启用“Hires.fix”时,先以低分辨率生成再放大,第一阶段分辨率设为512×512,第二阶段缩放倍数选1.5。
五、使用ControlNet增强构图控制力
ControlNet插件可将手绘草图、边缘图或姿态关键点映射为生成约束,大幅降低提示词调试成本,尤其适用于人物姿态与建筑结构。
1、在WebUI扩展页点击“Available”,搜索“controlnet”,勾选并点击“Install”;
2、重启WebUI后,切换至“ControlNet”选项卡,点击“Enable”;
3、上传一张人物姿势线稿图,在“Preprocessor”中选择“openpose”,点击“Detect”生成骨骼图;
4、在“Model”下拉菜单中选择匹配的controlnet-openpose模型(如control_v11p_sd15_openpose),权重(Weight)设为0.8–1.0,Processor Res设为512。










