如何使用ControlNet进行AI艺术创作

ControlNet是Stable Diffusion的强大扩展插件,让您精确控制AI生成图像的构图、姿态和风格。通过预处理器和控制模型,ControlNet将您的创意想法转化为可控的视觉指令。

  1. 安装ControlNet扩展插件. 在Automatic1111 WebUI中,进入Extensions选项卡,点击Install from URL。输入ControlNet的GitHub地址:https://github.com/Mikubill/sd-webui-controlnet.git,点击Install安装。重启WebUI完成安装。
  2. 下载ControlNet模型文件. 访问HuggingFace下载所需的ControlNet模型,如canny、openpose、depth等。将下载的.safetensors文件放入stable-diffusion-webui/extensions/sd-webui-controlnet/models目录。重启WebUI后在ControlNet面板中选择对应模型。
  3. 上传参考图像并选择预处理器. 在txt2img界面下方找到ControlNet面板,勾选Enable启用。点击图像上传区域选择参考图片。在Preprocessor下拉菜单中选择对应的预处理器,如canny、openpose_full、depth_midas等。
  4. 调整Control Weight控制强度. 设置Control Weight参数控制ControlNet的影响强度,范围0-2,默认值1.0。数值越高,生成图像越严格遵循控制条件。Starting Control Step和Ending Control Step设置控制的生效步数范围。
  5. 配合文本提示词优化输出. 在正面提示词中详细描述期望的风格、光影、材质等要素。负面提示词中添加不希望出现的元素,如lowres、bad anatomy、blurry等。ControlNet与提示词协同作用产生最佳效果。
  6. 多重ControlNet叠加使用. 点击ControlNet面板右上角的加号添加多个ControlNet单元。可同时使用不同类型的控制,如姿态+深度+边缘检测。每个单元独立设置预处理器、模型和控制强度。
  7. 保存和复用控制设置. 配置完成后,在ControlNet面板底部点击Save preset保存当前设置为预设。为预设命名便于后续调用。下次使用时直接在Load preset中选择保存的配置。

Related

  • 如何使用ChatGPT制定旅行计划
  • 如何使用 Airtable 自动化功能
  • Make.com 新手入门完整指南
  • 如何创建AI艺术风格与美学效果
  • Stable Diffusion新手入门指南
  • 如何使用ChatGPT进行语言学习