如何使用ControlNet进行AI艺术创作
ControlNet是Stable Diffusion的强大扩展插件,让您精确控制AI生成图像的构图、姿态和风格。通过预处理器和控制模型,ControlNet将您的创意想法转化为可控的视觉指令。
- 安装ControlNet扩展插件. 在Automatic1111 WebUI中,进入Extensions选项卡,点击Install from URL。输入ControlNet的GitHub地址:https://github.com/Mikubill/sd-webui-controlnet.git,点击Install安装。重启WebUI完成安装。
- 下载ControlNet模型文件. 访问HuggingFace下载所需的ControlNet模型,如canny、openpose、depth等。将下载的.safetensors文件放入stable-diffusion-webui/extensions/sd-webui-controlnet/models目录。重启WebUI后在ControlNet面板中选择对应模型。
- 上传参考图像并选择预处理器. 在txt2img界面下方找到ControlNet面板,勾选Enable启用。点击图像上传区域选择参考图片。在Preprocessor下拉菜单中选择对应的预处理器,如canny、openpose_full、depth_midas等。
- 调整Control Weight控制强度. 设置Control Weight参数控制ControlNet的影响强度,范围0-2,默认值1.0。数值越高,生成图像越严格遵循控制条件。Starting Control Step和Ending Control Step设置控制的生效步数范围。
- 配合文本提示词优化输出. 在正面提示词中详细描述期望的风格、光影、材质等要素。负面提示词中添加不希望出现的元素,如lowres、bad anatomy、blurry等。ControlNet与提示词协同作用产生最佳效果。
- 多重ControlNet叠加使用. 点击ControlNet面板右上角的加号添加多个ControlNet单元。可同时使用不同类型的控制,如姿态+深度+边缘检测。每个单元独立设置预处理器、模型和控制强度。
- 保存和复用控制设置. 配置完成后,在ControlNet面板底部点击Save preset保存当前设置为预设。为预设命名便于后续调用。下次使用时直接在Load preset中选择保存的配置。