Практическое применение нейросетей
Раз уж я вошёл в мир нейросетей благодаря реактору (через слитую модель novelAi и гайду к ней), то хочу вернуть дань благодарности этим небольшим мануалом.
Вы сможете генерировать прикольные арты на основе любого логотипа \ текста буквально в пару шагов.
0) Нужен stable diffusion от automatic1111 свежей версии (как его устанавливать тут не буду описывать);
1) Устанавливаем расширение ControlNet:
a) Копируем ссылку: https://github.com/Mikubill/sd-webui-controlnet
b) Идём во вкладку extensions -> install from URL, в первое поле вставляем ссылку и жмакаем install
c) Во вкладке installed на всякий случай проверяем апдейты: "Check for updates", и нажимаем "Apply and restart UI"После этих манипуляций у Вас перезагрузится web страница и появится вкладка "ControlNet" в txt2img:
(Если не появилась, то попробуйте Settings, нажать Apply и перезапустить Stable Diffusion полностью)d) Загружаем модели для ControlNet:
для этого идём сюда: https://civitai.com/models/9251/controlnet-pre-trained-models
скачиваем все версии моделей (там есть раздел Versions с отдельной кнопкой загрузки);
все скачанные файлы закидываем в <путь до SD>\stable-diffusion-webui\extensions\sd-webui-controlnet\models
2) Генерируем арты:
a) подготавливаем свой логотип \ текст.
я сделал такую картинку в фш:
p.s: походу желательно не использовать прозрачный фон (у меня с ним ничего не вышло).
b) двигаем настройки ControlNet:
c) и наконец генерируем (выставляем размер, пишем promptы, жмакаем generate).единственное НО: у меня не получилось подружить controlNet с "hiresfix". даже "latent(nearest)" начинает ломать образ. поэтому генерировал сразу в 768х768 (Вам, возможно, надо будет пробовать с 512х512)
любые LORA, HyperNetwork, embeddings прекрасно работают.модель на которой я генерил: https://civitai.com/models/1274/dreamlike-diffusion-10
ну и примеры того что у меня получилось:
Идея честно спизженна отсюда:
Ну и напоследок хочу сказать что это расширение умеет гораздо большее. например можно полностью копировать стиль фото \ любые позы \ выражения лиц и ДАЖЕ рисовать идеальные руки и ноги (причём с фокусом на них). Но и запариться там нужно чуть сильнее)
Подробнее
txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings l Extensions Installed Available Install from URL — URL for extension's git repository https://github.com/Mikubill/sd-webui-controlnetl Local directory name Leave empty for auto Install
txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings Extensions l Installed Available Install from URL Apply and restart Ul Check for updates Extension URL Version Update @ openpose-editor https://github.com/fkunnl326/openpose-editor 124e47c5 (Sun Mar 5 22:55:09 2023) unknown @ posex https://github.com/hnmr293/posex.git 51b78cff (Sun Mar 5 04:33:58 2023) unknown @ sd-webui-controlnet https://github.com/Mikubill/sd-webui-controlnet d41c470e (Mon Mar 6 11:12:23 2023) unknown @ sd-webui-depth-lib https://github.com/jexom/sd-webui-depth-lib 04ac5c4d (Mon Mar 6 06:23:012023) unknown @ Lora built-in @ SwinIR built-in
txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Setti bomberman blur, low quality, bad art, man, face, skull, text Sampling method Sampling steps 20 Euler a v v J Width 768 Batch count 4 ti Height 768 \ / Batch size 1 CFG Scale Seed -1 Restore faces Tiling Hires, fix Posex ◄ ControlNet ◄ OClipi None V/ *'0 Extra
ControlNet Invert colors if your image has white background. Change your brush width to make it thinner if you want to draw something. 2. Нажимаем "Enable"; Invert Color (если фон белый); Low VRAM @ Enable @ Invert Input Color RGBtoBGR @ Low VRAM Guess Mode Preprocessor 3- p ^processor: scribble; Model: sc ible Model scribble v controlnetPreTrained_scribbleV10 [c508311e] ^ 4. J Weight i Guidance Start (T) 0 Guidance End (T) Annotator resolution 512 Threshold A 64 Threshold В 64 Resize Mode Envelope (Outer Fit) 0 Scale to Fit (Inner Fit) Just Resize 4. Выставляем размеры картинки Canvas Width 758 ti 768 Canvas Height
Stable Diffusion Checkpoint --------------------- dreamlikeDiffusionl0_10.ckpt [0aecbcfa2c] ^ SDVAE G Automatic G Clip skip r 2 Show live previews of the created image txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings Extensions 2/75 bomberman Generate 0/75 w i* a blur, low quality, bad art, man, face, skull, text Styles G Sampling method Euler a Width Height Sampling steps 768 tt 768 20 Batch count I Batch size CFG Scale Seed -1 Extra Restore faces Tiling Hires, fix Posex ControlNet Control Model - 0 Control Model -1 Control Model-2 0 Image ◄ T o x bomberman Negative prompt: blur, low quality, bad art, man, face, skull, text
Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
думаю на ней результат будет в разы качественнее:
во первых потому что SD2.1 заточен под картинки 768х768, а во вторых потому что эта модель гораздо лучше делает мелкие детали.
в общем на днях попробую.
ссылки, если кому интересно:
ControlNet: https://huggingface.co/thibaud/controlnet-sd21
Свежая модель для SD2.1: https://civitai.com/models/17277
Сделал пост который имеет похожую тематику с твоим постом...
Если хочешь приходи в гости.
сюда: /post/5715080
коммент возможно для тебя: /post/5715080#comment28814604
~~~~
С Зимнем Солнце Стоянием тебя!
По сему и спросил, нет ли ещё у кого подобного
Попробуй Lanczos, через него по моему мнению не ломает и силу на в hiresfix 0,45
даблять!
Я на хую вертел такие гитхабосвкие инструкции по установке
Install Python 3.10.6, checking "Add Python to PATH"
Install git.
Download the stable-diffusion-webui repository, for example by running git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git.
Run webui-user.bat from Windows Explorer as normal, non-administrator, user.
А ГДЕ ЭТОТ ЕБУЧИЙ БАТНИК ДОЛЖЕН ПОЯВИТЬСЯ?!
ебите минусами как хотите, но ответ дайте хоть
Вот оно на гите - https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/webui-user.bat
Cloning into 'stable-diffusion-webui'...
remote: Enumerating objects: 16434, done.
remote: Total 16434 (delta 0), reused 0 (delta 0), pack-reused 16434
.63 MiB/s
Receiving objects: 100% (16434/16434), 27.49 MiB | 2.34 MiB/s, done.
Resolving deltas: 100% (11490/11490), done.
Больше в командной строке ничего не выходит, и намёка на директорию тут не вижу
может быть это из-за того, что питон новее требуемого?
Если у тебя не командная строка windows, а bash (судя по $ перед git clone - так и есть), то введи echo "$PWD", тут то же самое
Вот например:
$ echo "$PWD"
/c/Users/Lemandog
благодарю, целую (с лёгким сексуальным подтесктом), люблю
будем разбираться...