Легкая установка Stable diffusion локально / нейроарт :: Stable diffusion :: нейросети :: art (арт)

Stable diffusion нейросети нейроарт art 

Легкая установка Stable diffusion локально

Существует довольно простой вариант установить Stable diffusion (SD) на ваш компьютер. Даже не надо с консолью ковыряться, все гораздо проще и работает с обширным функционалом.

txt2img img2img Extras PNG Info Settings 0 Output Send to inpaint Interrupt warhammer 40000 Steps: 20, Sampler: Euler a, CFG scale: 13.5, Seed: 3707967471,Stable diffusion,нейросети,нейроарт,art,арт

Итак, инструкция по установке: 

1) Переходим по ссылке: Скачать SD с гитхаба без регистрации и СМС

2) Качаем ZIP архив с интерфейсом. 

Go to file Add file Code \j\j 0 clone © HTTPS SSH GitHub CLI ar https://github.com/AUTOHATICllll/stable-d: [□ ^ Use Git or checkout with SVN using the web URL. CJp Open with GitHub Desktop in i if) Download ZIP pnt ?0 hours ann,Stable diffusion,нейросети,нейроарт,art,арт

3) Распаковываем архив на свой компьютер туда где есть место. Потребуется где то 10 гб.

4) Скачиваем сам файл с SD (а если быть точным - веса) по ссылке или же через торрент:

magnet:?xt=urn:btih:3a4a612d75ed088ea542acac52f9f45987488d1c&dn=sd-v1-4.ckpt&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337

5) Есть такие штуки как GPFGAN - приблуда для исправления лиц и ESRGAN - приблуда для апскейла картинок. Я с ними еще не разбирался, а если и запускал то они плоховато работали, так что пояснения с их работой и установкой будут в следующих постах. (Но кто хочет - может поставить сам поиграться).

6) Теперь ставим проги для того чтобы все работало: GIT и Python версии 3.10.6. Python нужно устанавливать с галочкой "Add Python to PATH".

А также в ридми было указано поставить CUDA. Зачем я конечно не знаю, но я поставил на всякий случай. 

7) Перекидываем наш файлик из пункта 4 в папку из пункта 1, т.е. переименовываем файл в model.ckpt и размещаем в stable-diffusion-webui-master. 

К model, ckpt 05.09.2022 21:28 Файл "CKPT' 4165411 КБ К README.txt 07.09.2022 15:30 Текстовый докум... 11 КБ К requirements.txt 07.09.2022 15:30 Текстовый докум... 1 КБ К requirements_versions.txt 07.09.2022 15:30 Текстовый докум... 1 КБ В screenshot.png 07.09.2022 15:30 Файл "PNG" 513 КБ Щ

8) Запускаем webui.bat. Должна начаться загрузка требуемых данных для работы. У меня потребовалось перезагрузить комп, чтобы все программы встроились в систему. 

9) Переходим в браузер по адресу http://127.0.0.1:7860/ и играемся. 

txt2img img2img Extras PNG Info Settings None,Stable diffusion,нейросети,нейроарт,art,арт

Вроде ничего не забыл, если что - пищите. 

В следующих постах постараюсь подробно расписать то как в ней работать. 


Подробнее
txt2img img2img Extras PNG Info Settings 0 Output Send to inpaint Interrupt warhammer 40000 Steps: 20, Sampler: Euler a, CFG scale: 13.5, Seed: 3707967471
Go to file Add file Code \j\j 0 clone © HTTPS SSH GitHub CLI ar https://github.com/AUTOHATICllll/stable-d: [□ ^ Use Git or checkout with SVN using the web URL. CJp Open with GitHub Desktop in i if) Download ZIP pnt ?0 hours ann
К model, ckpt 05.09.2022 21:28 Файл "CKPT' 4165411 КБ К README.txt 07.09.2022 15:30 Текстовый докум... 11 КБ К requirements.txt 07.09.2022 15:30 Текстовый докум... 1 КБ К requirements_versions.txt 07.09.2022 15:30 Текстовый докум... 1 КБ В screenshot.png 07.09.2022 15:30 Файл "PNG" 513 КБ Щ script.js 07.09.2022 15:30 файл JavaScript 7 КБ style.css 07.09.2022 15:30 CSS-документ 3 КБ 1 ui-config.json 07.09.2022 21:32 Файл "JSON" 3 КБ Bi webui.bat 07.09.2022 15:30 Пакетный файл ... 6 КБ £ webui.py 07.09.2022 15:30 Python File 6 КБ
txt2img img2img Extras PNG Info Settings None
Stable diffusion,нейросети,нейроарт,art,арт
Еще на тему
Развернуть
Как будто что-то плохое.
Если хочешь однажды услышать: "Glory to Mankind!", сперва наберись смелости сказать: "Слава Роботам!".
Главное, не услышать в ответ хлюпанье крыльев
 m \ OH? DO YOU ANDROIDS REALLY THINK YOU CAN BEAT OUR MACHINES JUST BY SWITCHING TO ANIMAL MODELS? C-> YOUR VIEW IS TOO OPTIMISTIC. MACHINES ARE EVOLVING FASTER THAN YOU CAN IMAGINE. EVE ¡m ■ CHECK OUT OUR NEW BODIES/ ADAM ♦ (II \ \ A X \ l X i > WE ARE THE CREATURES
Осуждаю
https://ru.wikipedia.org/wiki/Самозарождение#Средние_века

в средние века люди думали, что куча грязного белья может родить мышь;
времена поменялись, сегодня люди думают, что куча нейросеток без доп обучения может родить сильный ИИ
Как с НСФВ?
все отлично
проиллюстрируй пожалуйста
Тогда надо теги нсфв добавить
Сам попробуй ;)
Какие минимальные требования к видяхе?
4гб видеопамяти нвидия, в теории можно даже на 2х гб запустить, правда какая скорость будет хз
4гб - это картинка 512*256. Для большего нужно больше памяти. У меня 2060 и 6 гиг - максимум 512*384.
Еще раз говорю, там появились оптимизации памяти --opt-split-attention даже на 4 гигах можно до 746х746 хуячить.
был бы только смысл еще, обучалось то оно один хрен на 512 и соответственно отрабатывает лучше всего именно так
а как эту оптимизацию включить на 3090 максимум 1000x500 вытянул, или я что-то не так делаю?
Ну я просто через консоль запускаю python webui.py --opt-split-attention
What options to use for low VRAM videocards?
Use command line options by editing webui.bat, adding them to the end of the set COMMANDLINE_ARGS= line. For example, set COMMANDLINE_ARGS=--medvram --opt-split-attention.

If you have 4GB VRAM and want to make 512x512 (or maybe up to 640x640) images, use --medvram.
If you have 4GB VRAM and want to make 512x512 images, but you get an out of memory error with --medvram, use --medvram --opt-split-attention instead.
If you have 4GB VRAM and want to make 512x512 images, and you still get an out of memory error, use --lowvram --always-batch-cond-uncond --opt-split-attention instead.
If you have 4GB VRAM and want to make images larger than you can with --medvram, use --lowvram --opt-split-attention.
If you have more VRAM and want to make larger images than you can usually make, use --medvram --opt-split-attention. You can use --lowvram also but the effect will likely be barely noticeable.
Otherwise, do not use any of those.
Extra: if you get a green screen instead of generated pictures, you have a card that doesn't support half precision floating point numbers. You must use --precision full --no-half in addition to other flags, and the model will take much more space in VRAM.
Что-то у тебя явно не то. У меня 1060 6gb и 512х512 нормально генерит.
Если раньше по ретард гайду ставил, то там уже несколько раз обновляли скрипты.
чем больше видеопамяти тем лучше.
Генерит и на 4 гб, у меня 6 вытягивает 800*800
Добро пожаловать в избранное. Я о тебе забуду навсегда(
Тоже пользуюсь этой сборкой, ну или каким-то очень близким форком, вполне все устраивает.

Апскейл работает хорошо, но будьте аккуратны, когда фигачите картинки тоннами, ибо апскейлнутый файл весит 3+ Мб. Лицеправ работает хорошо с малыми дефектами, но из совсем кривой рожи ничего хорошего не сделает. Его огромный минус в том, что теряются детали и текстуры, и лица получают синтетический вид, как под бьюти-фильтрами.
Там добавили охуенную оптимизацию памяти опцией --opt-split-attention, на своей 8 гиговой карточке могу спокойно в разрешении 1024х1024 фигачить.
С одной стороны круто, с другой, по опыту с дискордовским ботом, у высокого разрешения куда выше шансы попердолить персонажей или начать галлюцинировать полную хрень. Мне вполне хватает 512, тут важнее скорость, потому что чаще всего нужно генерить десятки картинок в поисках подходящего.
https://libraire.ai/

https://lexica.art/

Вот кстати пара сайтов с кучей примеров промптов и картинок, откуда можно надергать тексты для запросов.
https://promptomania.com/stable-diffusion-prompt-builder/
Вот ещё не плохой сайт, можно нагромаздить целый список промптов из предложенных, с наглядными иллюстрациями того, что ты напихиваешь.
Вот ещё хорошая страница со списком авторов с примерами результатов:
https://weirdwonderfulai.art/resources/disco-diffusion-70-plus-artist-studies/
Так есть же вообще готовый вариант - https://grisk.itch.io/stable-diffusion-gui
Порезанный по самое не балуй, не имеющий всех фич webui.
Ну вот, сначала майнеры задирали цены на видюхи, теперь нейрохудожники...

(на самом деле я просто немного бугурчу от того, что на 1гб я даж запускать не буду пытаться это)
8 гигов, но амуде
https://rentry.org/ayymd-stable-diffustion-v1_4-guide
Есть гайд на амуде, но там только через консоль. Но работает на винде.
Гайд действительно помог
Теперь я знаю зачем мне папка с сохраненной порнушкой! Как тренировать эту нейросетку?
Я хз как ее трейнить, но она генерит и так
Не получится, для тренировки нужно 40 гигов видеопамяти минимум.
Но если у тебя вдруг есть https://rentry.org/Stable-Diffusion-Training
Вроде бы всё сделал по пунктам, но по 127.0.0.1:7860 тишина, возможно я слишком тупой. Но может есть какие нюансы?
А чего пишет?
Типичное "Не удается открыть эту страницу".
Еще батник ругался "Could not open requirements file: [Errno 2] No such file or directory: 'requirements_versions.txt'"
Но думаю это ни на что не влияет
А установка запускалась?
Тут главное что в черном экране пишет
На удивление
Пару-тройку раз сделал всё сначала и заработало
ну вот
На виртуалке есть смысл пробовать запускать? Не хочется комп засирать.
Gi4A Gi4A08.09.202201:32ответитьссылка -0.1
Картоховый мир победил?
Батат оказался сильней.
У меня чёрный экран выдаёт на любой запрос.
Что в консоли?
А что за карточка? Если из 16 серии типа 1660, то скорее всего придется запускать с оптимизациями, типа --medvram --opt-split-attention --precision full --no-half
Quadro T400 4 GB
Да, запускай с оптимизациями, там нвидия что-то нахуевертила в реализации CUDA под эту архитектуру.
Ок, спасибо
Отпишись там получится - не получится. Можно будет в треде на форчане спросить.
Хм, создал webui.settings.bat, добавил строку set COMMANDLINE_ARGS=--medvram --opt-split-attention. Всё равно чёрный экран. Или я сделал что-то не правильно, хз.
Нужно еще обязательно --no-half и --precision-full, так-как именно в этом заковыка, что оно не поддерживает половинчатый float
Ну и как вариант на всякий случай обновить драйвера на видяху.
Да, это скорее всего
Всё равно, та же херня :( Драйверы новые.
C --no-half и --precision-full не работает? Точно, как бы меня на 4 чане за вопрос по этой карточке захуесосили и сказали читать ридми, мол черное изображение = зеленое изорбражение и делать надо что в ридми.
Может я неправильно вписал эти строки. Их надо в одну строку писать или столбиком? Хотя, я пробовал и так и так.
Я их вообще никуда не вписываю. Я все вручную делаю. То есть через консоль python webui.py --precision full --no-half никаких батников и прочего дерьма. Оказывается между precision и full тире не нужно.
Скажите пожалуйста, Вы разобрались? у меня тоже черный экран, а я "не программист", не знаю что куда надо дописать
Вроде получилось, но видеопамять загружается полностью и не выгружается. Приходится после каждой генерации перезапускать всё.
Открой файл webui.bat с помощью блокнота и отредактируй. Первые строчки должны так выглядеть:

@echo off

set PYTHON=python
set GIT=git
set COMMANDLINE_ARGS=--medvram --opt-split-attention --precision full --no-half
set VENV_DIR=venv
Спасибо за ответ! только что решила проблему. только команды немного другие.
Вот, может пригодятся
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention
set OPTIMIZED_TURBO=true
Извините, я ещё больше "не программист", мой файл webui не имеет возможности быть открытым с помощью блокнота. Скажите, пожалуйста, что я делаю не так? Или могли бы вы мне скинуть готовый отредактированный файл?
Надо будет глянуть этот способ на досуге
"А также в ридми было указано поставить CUDA. Зачем я конечно не знаю, но я поставил на всякий случай."

CUDA это технология для карт от NVIDIA. Если у вас амд, этот шаг можно точно пропускать, на них оно не работает.

Нужна затем, чтобы ускорить вычисления с помощью загадочных CUDA-ядер, которые есть в описаниях характеристик каждой боле-мене современной зеленой карточки. В теории, на видюху можно вообще забить, и выполнять все вычисления на ЦП. Работать будет, но значительно медленнее.
Моя не программист (
Файл Главная Поделиться Ви. И C:\WINDOWS\system32\cmd.exe "CrXProgram" не является внутренней или внешней командой, исполняемой программой или пакетным файлом. venv C:\Program FilesXstable-diffusion-webui-masterXvenv\Scripts\Python.exe Installing torch... Failed to install torch exit code:
Путь до файла в "кавычки" закрой
Починил. Просто перенёс папку stable-diffusion-webui-master в корень другого локального диска (не системного)
И C:\WINDOWS\system32\cmd.exe □ X Python 3.10.6 venv D:\stable-diffusion-webui-master\venv\Scripts\Python.exe Installing torch... Installing SD requirements... Installing К-Diffusion... Installing GFPGAN Installing requirements... Cloning Stable Difusion repository... Cloning Taming
Теперь CUDA говняется)

"untimeError: CUDA out of memory. Tried to allocate 1024.00 MiB (GPU 0; 6.00 GiB total capacity; 2.58 GiB already allocated; 668.69 MiB free; 3.60 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF"
Не хватает видеопамяти. Если запущенно что-то что её загружает, то лучше вырубить заранее. Так же можно уменьшить разрешение или на гитхабе расписано какие параметры уменьшают потребление памяти и куда их прописать
На гитхабе нашел решение. В батнике webui.bat в пятой строчке надо добавить после "=" --medvram или --lowvram
Это чутка замедлит процесс создания картинки, но увеличит шанс, что ты вообще её сделаешь.
Если ошибка останется, можно после добавленного добавить еще --opt-split-attention через пробел.
НЕ) webui.bat &echo off set PYTHON=python set GlT=git set C0MMANDLlNE_ARGS=--medvram set VENV_DlR=venv —opt-split-attention
По идее одного opt-split-attention будет достаточно, оно меньше производительности забирает.
Хм..
"DefaultCPUAllocator: not enough memory: you tried to allocate 14745600 bytes."
Кто-нибудь знает как исправить? Что-то-там не может получить 14 МБ памяти.
моя не понимать
И C:\WINDOWS\system32\cmd.exe Couldn't launch python exit code: 9009 stderr: Python Launch unsuccessful. Exiting. Для продолжения нажмите любую клавишу □ X
"6) Теперь ставим проги для того чтобы все работало: GIT и Python версии 3.10.6. Python нужно устанавливать с галочкой "Add Python to PATH"." - Скорее всего галочку не поставил. Запусти установку, заново, нажми modify и там будет где то галка про add to environmental variables
В том то и дело что я все установил прежде чем запускать установку. Но нече страшного я нашел более простой способ на другом сайте выложили архив с автоматической установкой. Попробую там.
Можете дать ссылку на том сайте?
Сорян ссылки на тот сайт не сохранилось
Люди добрые подскажите, как пошагово прописать эту команду -medvram --opt-split-attention --precision full --no-half. У меня Nvidia 1660super 6gb, и соответственно черный квадрат при генерации художества. Помогите пожалуйста разобраться!! :(
Странно, у меня 1060 6гб, все работает без всяких дописываний. Прописывать в файлике webui-user и запускать потом через него тоже
Сам долго мучался у меня та же карта
открываешь файл webui-user.bat и в него пишешь
set COMMANDLINE_ARGS=--precision full --no-half
set OPTIMIZED_TURBO=true
И запускаешь именно его webui-user.bat а не webui.bat
Есть ли возможность запустить эту сборку на карточках от красных?
UPD: Запустил, но рендер идет на проце, в webui-user.bat надо указать пару пунктов: set COMMANDLINE_ARGS=--skip-torch-cuda-test --precision full --no-half
Ну и рендер идет на проце...
мя Состояние ИДп... ^ 59% ЦП 72% Память 16% Диск ИЯ Обработчик команд... 40,0% 4 552,3 МБ ОМБ/с [7=1 Зу51ет 4 4,1% 0,1 МБ 1,6 МБ/с
Подскажите куда это добавить?
venv "D:\Stable AI\stablG-diffusion-webui-mastGr\venv\Scripts\Python.exe" Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: <nonG> Traceback (most rGCGnt call last): File "D:\Stable AI\stable-diffusion-webui-master\launch.py", lino 205, in
Эх. Чего мне не хватает в этой нейронке так это возможности выключить ПК после того как все догенерится. Приходится костылить своим приложением на C# для этого :D
Помогите пожалуйста. Нашел совет - но я не понимать :(
"use miniconda instead of normal python, do a fresh git clone of the repo, cd into the git directory and run "python launch.py" and wait for it to install the dependencies and clone the extra repos"
1S3 C:\Windows\system32\cmd.e: X + □ X Cloning BLIP into repositories\BLIP... Installing requirements for CodeFormer Installing requirements for Web UI Launching Web UI with arguments: No module 'xformers'. Proceeding without it. Traceback (most recent call last): File
Решение проблемы
1- download miniconda from here https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe the installation is as easy as clicking next, next, next

2- download git for windows from here https://github.com/git-for-windows/git/releases/download/v2.39.0.windows.2/Git-2.39.0.2-64-bit.exe make sure to add it to path when asked, it's just a tickbox you have to enable

3- press your windows key and search for "miniconda" and open Anaconda prompt (miniconda)

4- now type this and press inter

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
5- now type this and press inter

cd stable-diffusion-webui
6- finally type this and press inter

python launch.py
wait for it to be complete and download v1.5 the ckpt model (google stable diffusion 1.5 model), rename it to model.ckpt and place it inside models\Stable-diffusion folder inside the stable-diffusion-webui folder and it should work from there, the v2 and v2.1 models are a downgrade so don't bother with them
всем привет! все скачал установил, , батник все скачал чт нужно было , перезагрузил комп, далее вбиваю адрес в браузер он шлет меня лесом, че куда тыкак и че делать?
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
Stable Diffusion Text-to-lmage К Generate images from text with Stable Diffusion (using K-LMS) Prompt fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Sampling Steps Height Width 50 Sampling method DDIM PLMS • k-diffusion Create prompt matrix (separate multiple prompts u
подробнее»

Stable diffusion NSFW нейроарт art,арт нейронные сети

Stable Diffusion Text-to-lmage К Generate images from text with Stable Diffusion (using K-LMS) Prompt fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Sampling Steps Height Width 50 Sampling method DDIM PLMS • k-diffusion Create prompt matrix (separate multiple prompts u