Ставим локально
Итак, тут будет гайд как поставить себе на пк, с веб интерфейсом.
Системные требования: винда, линукс, видеокарта от nvidia с минимум 6 гигами видеопамяти.
Требования рук: умение писать в командную строку
1. Качаем модель отсюда https://drive.yerf.org/wl/?id=EBfTrmcCCUAGaQBXVIj5lJmEhjoP1tgl Магнит на торрент: https://rentry.org/sdiffusionmagnet
2. Клонируем или качаем репозиторий https://github.com/harubaru/waifu-diffusion/ в удобное вам место, если качали вручную, то разархивируем.
3. Идем по пути waifu-diffusion-main/models/ldm.
Создаем там папку "stable-diffusion-v1". Переименуйте ранее скачанную модель .ckpt в "model.ckpt", и положите в папку которую только что создали.
4. Качаем https://pastebin.com/K6nkw326 переименовываем в kdiff.py и кидаем по пути waifu-diffusion-main/models/scripts
5. Качаем новый environment.yaml заменяем в waifu-diffusion-main/
6. Качаем миниконду отсюда: https://docs.conda.io/en/latest/miniconda.html. Download Miniconda 3
7. Устанавливаем миниконду: Install for all users. Убрать галочку "Register Miniconda as the system Python 3.9" если оно вам не нужно
8. Открываем Anaconda Prompt (miniconda3).
Переходим в папку waifu-diffusion-main используя "cd" для прыжков по папкам.
(Или просто введите cd и перекиньте нужную папку на окно консоли)
9. Введите команду: "conda env create -f environment.yaml" и ждите
(Убедитесь, что вы находитесь в папке waifu-diffusion-main)
10. Удалите папки "clip" и "taming-transformers" из /src
11. Введите команду: "conda activate ldw"
(Вам нужно будет это делать каждый раз когда после перезапуска миниконды)
Использование когда активирован ldw, убедитесь, что находитесь в папке waifu-diffusion-main и введите python scripts\kdiff.py
Ждем когда загрузится модель, после полной загрузки скрипта мы должны увидеть сообщение о запущенном сервере на адресе 127.0.0.1:7860
Пользуемся.
ВАЖНО, СКРИПТ У МЕНЯ ВЫДАВАЛ ОШИБКУ В ИМПОРТЕ autocast from torch, ошибку я исправил, правда не знаю правильно ли, но у меня все работает. Если у вас будет такая же проблема, то исправленный скрипт тут https://cdn.discordapp.com/attachments/128912752604348416/1011611445391282226/kdiff.py
Вы великолепны.
Вольный пересказ с английского гайда --K-DIFFUSION RETARD GUIDE (GUI)-- (rentry.org)
Подробнее
Stable Diffusion Text-to-lmage К Generate images from text with Stable Diffusion (using K-LMS) Prompt fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Sampling Steps Height Width 50 Sampling method DDIM PLMS • k-diffusion Create prompt matrix (separate multiple prompts using |, and get all combinations of them) Batch count (how many batches of images to generate) Batch size (how many images are in a batch; memory-hungry) Classifier Free Guidance Scale (how strongly the image should follow the prompt) Seed 512 512 Очистить Исполнить Seed 3967602715 Copy-paste generation parameters fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Steps: 50, Sampler: к-diffusion, CFG scale: 7, Seed: 3967602715 Пометить
II OLI I OL Y Cl Ы OI 14 I aiCM J->r\6_VCI Ы OI I/ / OLI I OL Running on local URL: hitp://127.0.0.1:7860/
Stable diffusion,NSFW,нейроарт,art,арт,нейронные сети
30 числа приедет новая видяха - надо будет поиграться.
а как оно вообще локально работает, долго генерит, на какой карте?
спасибо за инструкцию
я ни в нейронках ни в генерации изображений не очень. ну а всякие батч сайз\каунт это понятно, да
2) Если у карты будет меньше памяти - работать будет?
2) Нет
Алсо, тут чел собрал под RDNA aka GFX10 aka 5xxx: https://github.com/xuhuisheng/rocm-build/tree/master/navi10
Я у себя под арчем поставил opencl-amd и opencl-amd-dev, и получил работающий в Blender3d HIP (местный аналог CUDA). Но pytorch упал, кажется, надо пересобрать.
File "scripts\kdiff.py", line 17, in
import k_diffusion as K
File "c:\distrib\waifu-diffusion-main\src\k-diffusion\k_diffusion\__init__.py", line 1, in
from . import augmentation, config, evaluation, external, gns, layers, models, sampling, utils
File "c:\distrib\waifu-diffusion-main\src\k-diffusion\k_diffusion\evaluation.py", line 6, in
import clip
ModuleNotFoundError: No module named 'clip'"
то куды бечь?
Ну и пункта 10 не было. Возможно в новом гайде что-то поломали, надо было проверить. В любом случае если говно случается, то можно удалить поломанный env conda env remove -n ldw.
И проделать все заного но на 5 пункте просто добавляем одну строку в environment.yaml,
А 10 пропускаем.
А и без перезаписи новым environment.yaml созданный env будет называться ldm вместо ldw
Соответственно на 11 пункте писать conda activate ldm вместо ldw.
Просто постите на реактор с тегом "AI эротика"
понятно, пойду дальше учиться рисовать
Эта прога может на одной условной девушке, отрисовывать грудь A, B, C, D вплоть до enourmos?..
До чего дошёл прогресс...
Готовых сборок нет?
Traceback (most recent call last):
File "D:\Документы\GitHub\waifu-diffusion\scripts\kdiff.py", line 3, in
import torch
ModuleNotFoundError: No module named 'torch'
Ой ну и пожалуйста, не очень то и хотелось.
RuntimeError: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 6.00 GiB total capacity; 5.16 GiB already allocated; 0 bytes free; 5.30 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Походу видюха не тянет.
Позже на днях попробую сборку от них посвежее, с самого нуля все скачаю.
Но не думаю, что Хуанг настолько решил экономить, что бы зажать 256 метров на 1660s
С вебмордой выдает ошибку, но через командную строку все ок.
Там вроде все последние фиксы, в том числе исправления которые на производительность влиляли
Пофиг, через командную строку тоже можно пользоваться.
python scripts/webgui.py --precision full --no-half
Но не выше разрешения 320х320
Попробуй уменьшить разрешение
Будто вновь 2003й на дворе и я в IRC анимешников зашёл.
pip install clip
pip install taming-transformers
в результати такая ошибка. Пока что гугл непомог:
from ldm.models.autoencoder import VQModelInterface, IdentityFirstStage, AutoencoderKL
File "e:\neuroart\waifu-diffusion\ldm\models\autoencoder.py", line 6, in
from taming.modules.vqvae.quantize import VectorQuantizer2 as VectorQuantizer
ImportError: cannot import name 'VectorQuantizer2' from 'taming.modules.vqvae.quantize' (C:\Users\SaFaiR\.conda\envs\ldw\lib\site-packages\taming\modules\vqvae\quantize.py)
увьі...
Единственное я не понимаю, почему в гайде сейчас conda activate ldw, хотя точно было conda activate ldm
На самом деле самое крутое в этой сборке это img2img
Это просто тот мем с совой, только не мем, а взаправду. Эта херота просто возмутительно мощна.
А вот настройки не записал, скорее всего DS .8
Обычно листаешь канал с топовыми генерациями (или просто случайно видишь), находишь чем они сгенерированы и копируешь себе для дальнейшего пользования.
Введите команду
Введите команду...
А что, нормальный гуи никто еще не придумал?
GFPGAN
Я ваще не шарю за ваши погромистские шутчки и минут 15 тупил на тему комманды CD и почему она не хочет переходить на второй хард, хотя хочет переходить на 3 хард, но не хочет обратно на С.
А GFPGAN не ставил, но там вроде опять гайд обновили с его автоматической установкой, но веса все равно придется самому качать.
https://repo.anaconda.com/miniconda/Miniconda3-py38_4.10.3-Windows-x86_64.exe
Проверено, всё поднимается и отлично работает.
Ну и мои попытки сделать крипового лешего:
https://old.reddit.com/r/StableDiffusion/comments/wt023b/tweet_from_emostaque_we_have_got_it_down_to_21_gb/il1vfa2/