Легкая установка Stable diffusion локально
Существует довольно простой вариант установить Stable diffusion (SD) на ваш компьютер. Даже не надо с консолью ковыряться, все гораздо проще и работает с обширным функционалом.
Итак, инструкция по установке:
1) Переходим по ссылке: Скачать SD с гитхаба без регистрации и СМС
2) Качаем ZIP архив с интерфейсом.
3) Распаковываем архив на свой компьютер туда где есть место. Потребуется где то 10 гб.
4) Скачиваем сам файл с SD (а если быть точным - веса) по ссылке или же через торрент:
magnet:?xt=urn:btih:3a4a612d75ed088ea542acac52f9f45987488d1c&dn=sd-v1-4.ckpt&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.opentrackr.org%3a13375) Есть такие штуки как GPFGAN - приблуда для исправления лиц и ESRGAN - приблуда для апскейла картинок. Я с ними еще не разбирался, а если и запускал то они плоховато работали, так что пояснения с их работой и установкой будут в следующих постах. (Но кто хочет - может поставить сам поиграться).
6) Теперь ставим проги для того чтобы все работало: GIT и Python версии 3.10.6. Python нужно устанавливать с галочкой "Add Python to PATH".
А также в ридми было указано поставить CUDA. Зачем я конечно не знаю, но я поставил на всякий случай.
7) Перекидываем наш файлик из пункта 4 в папку из пункта 1, т.е. переименовываем файл в model.ckpt и размещаем в stable-diffusion-webui-master.
8) Запускаем webui.bat. Должна начаться загрузка требуемых данных для работы. У меня потребовалось перезагрузить комп, чтобы все программы встроились в систему.9) Переходим в браузер по адресу http://127.0.0.1:7860/ и играемся.
Вроде ничего не забыл, если что - пищите.В следующих постах постараюсь подробно расписать то как в ней работать.
Подробнее
txt2img img2img Extras PNG Info Settings 0 Output Send to inpaint Interrupt warhammer 40000 Steps: 20, Sampler: Euler a, CFG scale: 13.5, Seed: 3707967471
Go to file Add file Code \j\j 0 clone © HTTPS SSH GitHub CLI ar https://github.com/AUTOHATICllll/stable-d: [□ ^ Use Git or checkout with SVN using the web URL. CJp Open with GitHub Desktop in i if) Download ZIP pnt ?0 hours ann
К model, ckpt 05.09.2022 21:28 Файл "CKPT' 4165411 КБ К README.txt 07.09.2022 15:30 Текстовый докум... 11 КБ К requirements.txt 07.09.2022 15:30 Текстовый докум... 1 КБ К requirements_versions.txt 07.09.2022 15:30 Текстовый докум... 1 КБ В screenshot.png 07.09.2022 15:30 Файл "PNG" 513 КБ Щ script.js 07.09.2022 15:30 файл JavaScript 7 КБ style.css 07.09.2022 15:30 CSS-документ 3 КБ 1 ui-config.json 07.09.2022 21:32 Файл "JSON" 3 КБ Bi webui.bat 07.09.2022 15:30 Пакетный файл ... 6 КБ £ webui.py 07.09.2022 15:30 Python File 6 КБ
txt2img img2img Extras PNG Info Settings None
Stable diffusion,нейросети,нейроарт,art,арт
в средние века люди думали, что куча грязного белья может родить мышь;
времена поменялись, сегодня люди думают, что куча нейросеток без доп обучения может родить сильный ИИ
Use command line options by editing webui.bat, adding them to the end of the set COMMANDLINE_ARGS= line. For example, set COMMANDLINE_ARGS=--medvram --opt-split-attention.
If you have 4GB VRAM and want to make 512x512 (or maybe up to 640x640) images, use --medvram.
If you have 4GB VRAM and want to make 512x512 images, but you get an out of memory error with --medvram, use --medvram --opt-split-attention instead.
If you have 4GB VRAM and want to make 512x512 images, and you still get an out of memory error, use --lowvram --always-batch-cond-uncond --opt-split-attention instead.
If you have 4GB VRAM and want to make images larger than you can with --medvram, use --lowvram --opt-split-attention.
If you have more VRAM and want to make larger images than you can usually make, use --medvram --opt-split-attention. You can use --lowvram also but the effect will likely be barely noticeable.
Otherwise, do not use any of those.
Extra: if you get a green screen instead of generated pictures, you have a card that doesn't support half precision floating point numbers. You must use --precision full --no-half in addition to other flags, and the model will take much more space in VRAM.
Если раньше по ретард гайду ставил, то там уже несколько раз обновляли скрипты.
Генерит и на 4 гб, у меня 6 вытягивает 800*800
Апскейл работает хорошо, но будьте аккуратны, когда фигачите картинки тоннами, ибо апскейлнутый файл весит 3+ Мб. Лицеправ работает хорошо с малыми дефектами, но из совсем кривой рожи ничего хорошего не сделает. Его огромный минус в том, что теряются детали и текстуры, и лица получают синтетический вид, как под бьюти-фильтрами.
https://lexica.art/
Вот кстати пара сайтов с кучей примеров промптов и картинок, откуда можно надергать тексты для запросов.
Вот ещё не плохой сайт, можно нагромаздить целый список промптов из предложенных, с наглядными иллюстрациями того, что ты напихиваешь.
https://weirdwonderfulai.art/resources/disco-diffusion-70-plus-artist-studies/
(на самом деле я просто немного бугурчу от того, что на 1гб я даж запускать не буду пытаться это)
Есть гайд на амуде, но там только через консоль. Но работает на винде.
Но если у тебя вдруг есть https://rentry.org/Stable-Diffusion-Training
Еще батник ругался "Could not open requirements file: [Errno 2] No such file or directory: 'requirements_versions.txt'"
Но думаю это ни на что не влияет
Тут главное что в черном экране пишет
Пару-тройку раз сделал всё сначала и заработало
Открой файл webui.bat с помощью блокнота и отредактируй. Первые строчки должны так выглядеть:
@echo off
set PYTHON=python
set GIT=git
set COMMANDLINE_ARGS=--medvram --opt-split-attention --precision full --no-half
set VENV_DIR=venv
Вот, может пригодятся
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention
set OPTIMIZED_TURBO=true
CUDA это технология для карт от NVIDIA. Если у вас амд, этот шаг можно точно пропускать, на них оно не работает.
Нужна затем, чтобы ускорить вычисления с помощью загадочных CUDA-ядер, которые есть в описаниях характеристик каждой боле-мене современной зеленой карточки. В теории, на видюху можно вообще забить, и выполнять все вычисления на ЦП. Работать будет, но значительно медленнее.
"untimeError: CUDA out of memory. Tried to allocate 1024.00 MiB (GPU 0; 6.00 GiB total capacity; 2.58 GiB already allocated; 668.69 MiB free; 3.60 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF"
Это чутка замедлит процесс создания картинки, но увеличит шанс, что ты вообще её сделаешь.
Если ошибка останется, можно после добавленного добавить еще --opt-split-attention через пробел.
"DefaultCPUAllocator: not enough memory: you tried to allocate 14745600 bytes."
Кто-нибудь знает как исправить? Что-то-там не может получить 14 МБ памяти.
открываешь файл webui-user.bat и в него пишешь
set COMMANDLINE_ARGS=--precision full --no-half
set OPTIMIZED_TURBO=true
И запускаешь именно его webui-user.bat а не webui.bat
Ну и рендер идет на проце...
"use miniconda instead of normal python, do a fresh git clone of the repo, cd into the git directory and run "python launch.py" and wait for it to install the dependencies and clone the extra repos"
1- download miniconda from here https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe the installation is as easy as clicking next, next, next
2- download git for windows from here https://github.com/git-for-windows/git/releases/download/v2.39.0.windows.2/Git-2.39.0.2-64-bit.exe make sure to add it to path when asked, it's just a tickbox you have to enable
3- press your windows key and search for "miniconda" and open Anaconda prompt (miniconda)
4- now type this and press inter
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
5- now type this and press inter
cd stable-diffusion-webui
6- finally type this and press inter
python launch.py
wait for it to be complete and download v1.5 the ckpt model (google stable diffusion 1.5 model), rename it to model.ckpt and place it inside models\Stable-diffusion folder inside the stable-diffusion-webui folder and it should work from there, the v2 and v2.1 models are a downgrade so don't bother with them