ControlNet für KI-Kunst verwenden

ControlNet ist eine Erweiterung für Stable Diffusion, die präzise Kontrolle über die Bildgenerierung ermöglicht. Mit ControlNet können Sie Posen, Kanten, Tiefeninformationen und andere strukturelle Elemente als Anleitung für die KI verwenden.

  1. Stable Diffusion WebUI mit ControlNet installieren. Laden Sie AUTOMATIC1111's Stable Diffusion WebUI herunter und installieren Sie die ControlNet-Erweiterung über den Extensions-Tab. Klicken Sie auf 'Install from URL' und fügen Sie die ControlNet-Repository-URL ein. Starten Sie die WebUI nach der Installation neu.
  2. ControlNet-Modelle herunterladen. Navigieren Sie zum ControlNet-Tab in der WebUI und laden Sie die benötigten Modelle herunter. Die wichtigsten Modelle sind canny (Kantenerkennung), openpose (Posenerkennung) und depth (Tiefenerkennung). Platzieren Sie die .safetensors-Dateien im Ordner 'models/ControlNet'.
  3. Referenzbild hochladen. Öffnen Sie den ControlNet-Tab unterhalb der Prompt-Eingabe. Aktivieren Sie ControlNet durch das Kontrollkästchen 'Enable'. Laden Sie Ihr Referenzbild in das Eingabefeld hoch. Dieses Bild dient als strukturelle Vorlage für die KI-Generierung.
  4. Preprocessor und Modell auswählen. Wählen Sie den passenden Preprocessor aus dem Dropdown-Menü (z.B. 'canny' für Kantenerkennung oder 'openpose' für Posen). Stellen Sie sicher, dass das entsprechende Modell im Model-Dropdown ausgewählt ist. Der Preprocessor analysiert Ihr Eingabebild automatisch.
  5. Control Weight und Guidance anpassen. Setzen Sie die 'Control Weight' zwischen 0.8 und 1.2 für starke Kontrolle. Der 'Guidance Start' sollte bei 0.0 bleiben, während 'Guidance End' bei 1.0 gesetzt wird. Diese Werte bestimmen, wie stark das ControlNet die Bildgenerierung beeinflusst.
  6. Prompt eingeben und generieren. Geben Sie Ihren gewünschten Text-Prompt in das Haupteingabefeld ein. Beschreiben Sie den gewünschten Stil, die Farben und Details. Klicken Sie auf 'Generate' um das Bild zu erstellen. Das ControlNet nutzt die Struktur des Referenzbildes mit Ihrem Prompt.
  7. Ergebnisse verfeinern und iterieren. Überprüfen Sie das generierte Bild und passen Sie bei Bedarf die Control Weight oder den Prompt an. Experimentieren Sie mit verschiedenen Preprocessors für unterschiedliche Effekte. Verwenden Sie mehrere ControlNet-Units gleichzeitig für komplexere Kontrolle.

Related

  • Negative Prompts in der KI-Bildgenerierung richtig einsetzen
  • Code-Debugging mit Claude: Schritt-für-Schritt-Anleitung
  • KI für Meeting-Transkription nutzen
  • Stimme in Echtzeit mit KI übersetzen
  • KI-Sprachsynthese für Hörbücher erstellen
  • KI-Sprachausgabe für YouTube-Videos erstellen