كيفية تدريب نموذج LoRA لـ Stable Diffusion
نماذج LoRA تتيح لك تخصيص Stable Diffusion لإنتاج صور بأسلوب معين أو لشخصيات محددة باستخدام مجموعة صغيرة من الصور التدريبية. هذا التدريب يحسن جودة النتائج المولدة ويوفر تحكماً دقيقاً في الإخراج النهائي.
- اجمع وحضر مجموعة الصور التدريبية. اختر 10-30 صورة عالية الجودة بدقة 512x512 بكسل على الأقل. تأكد من تنوع الزوايا والإضاءة والخلفيات. أنشئ مجلد جديد واحفظ الصور بصيغة JPG أو PNG. اكتب وصفاً نصياً لكل صورة في ملف TXT منفصل بنفس اسم الصورة.
- قم بتثبيت بيئة التدريب المطلوبة. نزل وثبت Python 3.10.6 من python.org. افتح Command Prompt كمدير واكتب: pip install torch torchvision xformers accelerate transformers diffusers. انسخ مستودع kohya-ss/sd-scripts من GitHub إلى جهازك باستخدام: git clone https://github.com/kohya-ss/sd-scripts.git
- أعد ملف التكوين للتدريب. أنشئ ملف config.toml في مجلد sd-scripts. اضبط المتغيرات التالية: pretrained_model_name_or_path للنموذج الأساسي، train_data_dir لمسار الصور، output_dir لحفظ النموذج المدرب، وresolution على 512. اضبط train_batch_size على 1 وlearning_rate على 1e-4.
- ابدأ عملية التدريب. افتح Command Prompt في مجلد sd-scripts واكتب: python train_network.py --config_file=config.toml. راقب رسائل وحدة التحكم للتأكد من عدم وجود أخطاء. التدريب سيستغرق 30-120 دقيقة حسب قوة كارت الرسومات وعدد الصور.
- اختبر النموذج المدرب. انسخ ملف .safetensors المُنتج إلى مجلد models/Lora في تطبيق Stable Diffusion WebUI. أعد تشغيل WebUI واختر النموذج من قائمة LoRA. اكتب وصفاً نصياً واضبط قوة LoRA بين 0.5-1.0 لتحكم أفضل في التأثير.
- احفظ وشارك النموذج المُحسن. احفظ نسخة احتياطية من ملف .safetensors في مكان آمن. قم بتوثيق الإعدادات المستخدمة والكلمات المفتاحية الفعالة في ملف README. يمكنك رفع النموذج على منصات مثل Hugging Face أو CivitAI للمشاركة مع المجتمع.