Результаты поиска по запросу «

Stable diffusion nsfw инструкция

»

Запрос:
Создатель поста:
Теги (через запятую):



Stable diffusion нейронные сети NSFW 

Возрадуйтесь обладатели 4 гиговых видеокарт и лентяи.

Продолжение поста https://joyreactor.cc/post/5307539 

Итак есть возможность заставить работать нейронку даже на 4 гиговых видеокартах, правда там будет слегка порезанный интерфейс но всё же.Версия для ленивых, с не самым приятным интерфейсом, зато просто запускаете exe и всё работает(если верить странице) https://grisk.itch.io/stable-diffusion-gui правда тут для 4 гиговых максимально возможное разрешение 256х512. Опять же если это действительно так. Но на 6 гиговых железно должно идти.

Ну и для любителей консольки и приятного интерфейса репа GitHub - basujindal/stable-diffusion
В ридми пишут, что 4 гиговые 2060 справляются с 512х512. Как устанавливать могу предположить, сам не ставил, поэтому обманывать не буду. Но опять можно пройти по гайду --K-DIFFUSION RETARD GUIDE (GUI)-- (rentry.org) так-как мой уже немного устарел, хотя все еще работает вероятно. 

Там пропустить пункты связанные с GFPGAN то есть 11 и удалить 36 строчку из скачанного environment.yaml. 4 пункт тоже не нужен, так-как будем использовать скрипты из репозитория basujindal/stable-diffusion. Как все установили скачиваем и закидываем из репы basujindal/stable-diffusion папку optimizedSD  в корень waifu-diffusion.

Запускать text2img: python optimizedSD/text2img_gradio.py


Запускать img2img: python optimizedSD/img2img_gradio.py

Ну и вот вам небольшие эксперименты img2img:

Prompt big boobs, erotic, illustration Mask Mode • Keep masked area Regenerate only masked area (Б output О,Stable diffusion,нейронные сети,NSFW

Арт нагло спиздил https://joyreactor.cc/post/5307995 отсюда

Развернуть

нейронные сети нейроарт Stable diffusion Anything3.0 песочница NSFW 

Google Colab и кошкодевочки для всех.

Не знаю почему этого никто до сих пор не написал... Инструкция посвящается всем киберпидорам на накопившим на крутую видяху, желающим заиметь гарем 2D тяночек. 
Гугл раздает доступ к своим ML мощностям для всех желающих. На https://colab.research.google.com/ можно генерить свои картиночки, запускать свои модели и.т.п. (ограничение - 12 часов в день на работу, потом все сгенереное стирается.) 
Даю сразу ссылку:

Модель anything3.0: https://colab.research.google.com/github/camenduru/stable-diffusion-webui-colab/blob/main/anything_3_webui_colab.ipynb
(на мой взгляд самая подходящая под генерацию 2D эротики)

Запуск модели полностью автоматизирован, просто запускаешь коллаб кнопкой ▶️ исполнение кода
И ждешь пока тебе выдадут линк на вебинтерфейс (типа такого https://0f0a82ef41323d42.gradio.app/).

Открываешь линк - поздравляю, твой коллаб с тяночками готов. Генерирует в любом разрешении (у гугловских тензорных ядер памяти до черта).



P.s.
Тем кто хочет старую stable diffusion без хентая https://colab.research.google.com/drive/1jY9KAqR_SQUp76ayRuqyk4MTId-7STOy?hl=ru_RU#scrollTo=NPtEBB6r18yU
Вообще в коллабе много уже подготовленных моделей - просто гуглите)

Развернуть

нейронные сети Stable diffusion длиннопост 

Stable Diffusion 3 теперь доступна для скачивания и запуска локально

нейронные сети,Stable diffusion,длиннопост

Генерация по промту: Epic anime artwork of a wizard atop a mountain at night casting a cosmic spell into the dark sky that says "Stable Diffusion 3" made out of colorful energy

Теперь модель можно скачать и запустить локально (пока только Medium-версию). Разработчики пишут, что новая модель лучше понимает текст промта, более реалистичная в плане рук и лиц. А так же лучше запоминает детали на даже на небольших дата сетах. Одна из интересных фитч - генерация надписей.

Еще пишут что она "идеально подходит для работы на стандартных потребительских графических процессорах без снижения производительности". Но тут бы я поспорил, легко переварить 10Gb не каждая видеокарта сможет. На моей машине работает медленнее по сравнению с SDXL.

Скачать саму модель можно с civitai или huggingface. Запустить на данный момент только в comfyui.

Немного погонял локально, промты действительно понимает хорошо. Но модель "недообучена" - качество оставляет желать лучшего. Предыдущие версии тоже от этого страдали, но люди из комьюнити допиливали до вполне не плохих результатов.

Несколько примеров на модели SD3 Medium Incl Clips T5XXLFP8

Сложный промт с положением объектов на картинке указанием цветов (у прошлых моделей возникали проблемы):

Three bottles on a table in a kitchen. Bottles that look like cola. Left bottle is full of blue liquid with the number 1 on it. Middle bottle is full of white liquid with the number 2 on it. Right bottle is full of red liquid with the number 3 on it.

нейронные сети,Stable diffusion,длиннопост

Видно, что модель четко следует промту. Круто!

Попробуем с людьми: 

Forest in the background. Dark theme, sunset, look at at viewer, captured in the late afternoon sunlight. Photo of three 21 year old woman. Left woman is blonde with the number 1 on blue T-shirt. Middle woman is redhead with the number 2 on white T-shirt. Right woman is brown hair with the number 3 on red T-shirt. Wearing shorts

 ' 'Л <*щ: tC Y\ ^ МЦ , ,%f- > / « »®V .}?^■ ' . V » ‘ Y «Л • , г ‘У»7 f\ J¡«V >^|<1Л*П'*01Я^1^^^^Ея1. ájí&jrf * ?&"-Z1QH ¡г а*. "• a^2|^B|Uг> * * ¿jp v .уФ*ы г*Ьп|^НРЦН^&. . "J ль*,нейронные сети,Stable diffusion,длиннопост

Тут пришлось сначала описать лес на фоне, потому что иначе он выглядел как будто прифотошопленным. В остальном модель четко соблюдает номера, цвет футболок и волос. Раньше, без танцев с бубном, четко прописать нескольких разных типажей на одной картинке было почти не реально - детали сливались и получались клоны. А в новой версии достаточно просто описания. 

А что по надписям на картинке? Попробуем:

Neon sign with the text "Ты пидор"

нейронные сети,Stable diffusion,длиннопост

Видимо, русскую кодировку не завезли, но видно что модель старается, попробуем иначе:

Neon sign with the text "You are awesome!"

нейронные сети,Stable diffusion,длиннопост

Попробуем сгенерить котика:

A black cat walking along a street paved with stone.Close-up of a cat's face.

нейронные сети,Stable diffusion,длиннопост

Опять неплохо, хотя пришлось реролить несколько раз, что бы получить более-менее нормальный результат. Модель знает основы анатомии кота, но иногда больше похоже на детский рисунок.

Как на счет аниме?

Illustration anime, cartoon. 1woman, blue eyes, brown hair, dynamic angle, centered, full body photo. Street in the background

нейронные сети,Stable diffusion,длиннопост

Опять пришлось реролить несколько раз. Заметил, что если указывать больше деталей, картинка получается лучше.

Попробуем городской пейзаж:

Urban photography: houses, trees, cars, and peoples. the road goes from the bottom left to the right

PM л «с* l4^:v:v^ >.:;->r^ t^jgr jP, jBgf ж ■ W5p дОДЙ'^с^ «. ЩМч к VT'^Г ‘ 1 т :’•кйк№т1^^и » \ 1 «!* *. j|, ЛД ^ ; >,нейронные сети,Stable diffusion,длиннопост

Осторожно: если долго рассматривать картинку, можно подумать что у тебя инсульт...

Что мы имеем на данный момент? Пока реализм хромает... Не всегда с первого раза выходит что нужно. Лично я ожидал большего. Все те же проблемы с руками и склонностью к "плоскости" перспективы и объектов. 

Но есть ощущение, что модель действительно лучше понимает что от нее хотят. Будем надеется, что дообучение будет по силам сообществу, и мы увидим NSFW версию от авторов Juggernaut или Pony Diffusion.

ЗЫ: надеюсь теги эротики и аниме не нужны.

Развернуть

Stable diffusion NSFW нейроарт art нейронные сети 

Ставим локально

Stable Diffusion Text-to-lmage К Generate images from text with Stable Diffusion (using K-LMS) Prompt fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Sampling Steps Height Width 50 Sampling method DDIM PLMS • k-diffusion Create prompt matrix (separate multiple prompts

Итак, тут будет гайд как поставить себе на пк, с веб интерфейсом.

Системные требования: винда, линукс, видеокарта от nvidia с минимум 6 гигами видеопамяти.
Требования рук: умение писать в командную строку

1. Качаем модель отсюда https://drive.yerf.org/wl/?id=EBfTrmcCCUAGaQBXVIj5lJmEhjoP1tgl Магнит на торрент: https://rentry.org/sdiffusionmagnet

2. Клонируем или качаем репозиторий https://github.com/harubaru/waifu-diffusion/ в удобное вам место, если качали вручную, то разархивируем.

3. Идем по пути waifu-diffusion-main/models/ldm.
Создаем там папку "stable-diffusion-v1". Переименуйте ранее скачанную модель .ckpt в "model.ckpt", и положите в папку которую только что создали.

4. Качаем https://pastebin.com/K6nkw326 переименовываем в kdiff.py и кидаем по пути waifu-diffusion-main/models/scripts

5. Качаем новый environment.yaml  заменяем в waifu-diffusion-main/

6. Качаем миниконду отсюда: https://docs.conda.io/en/latest/miniconda.html. Download Miniconda 3

7. Устанавливаем миниконду: Install for all users. Убрать галочку "Register Miniconda as the system Python 3.9" если оно вам не нужно

8. Открываем Anaconda Prompt (miniconda3).
Переходим в папку waifu-diffusion-main используя "cd" для прыжков по папкам.
(Или просто введите cd и перекиньте нужную папку на окно консоли)

9. Введите команду: "conda env create -f environment.yaml" и ждите
(Убедитесь, что вы находитесь в папке waifu-diffusion-main)

10. Удалите папки "clip" и "taming-transformers" из /src

11. Введите команду: "conda activate ldw"
(Вам нужно будет это делать каждый раз когда после перезапуска миниконды)

Использование когда активирован ldw, убедитесь, что находитесь в папке waifu-diffusion-main и введите python scripts\kdiff.py
Ждем когда загрузится модель, после полной загрузки скрипта мы должны увидеть сообщение о запущенном сервере на адресе 127.0.0.1:7860 

II OLI I OL Y Cl Ы OI 14 I aiCM J->r\6_VCI Ы OI I/ / OLI I OL Running on local URL: hitp://127.0.0.1:7860/,Stable diffusion,NSFW,нейроарт,art,арт,нейронные сети

Пользуемся.

ВАЖНО, СКРИПТ У МЕНЯ ВЫДАВАЛ ОШИБКУ В ИМПОРТЕ autocast from torch, ошибку я исправил, правда не знаю правильно ли, но у меня все работает. Если у вас будет такая же проблема, то исправленный скрипт тут https://cdn.discordapp.com/attachments/128912752604348416/1011611445391282226/kdiff.py

Вы великолепны.

Вольный пересказ с английского гайда --K-DIFFUSION RETARD GUIDE (GUI)-- (rentry.org)

Развернуть

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Сегодня я расскажу о способе дорисовывать любые рисунки с помощью инструментов Stable Diffusion. Но прежде чем я начну, убедитесь что у вас установлена свежая версия Stable Diffusion webui от Automatic1111 + расширение ControlNet 1.1 со всеми нужными моделями.
Вот видео-инструкции (смотреть по порядку):

Установили? Тогда начинаем.

Часть 1. ControlNet Inpaint

Ни для кого не секрет, что в SD существует фича под названием inpaint - это, по сути, способ сгенерировать что-то поверх существующего изображения. В интерфейсе от Automatic1111 под inpaint'ом обычно подразумевают один из режимов img2img. Это хоть и мощный инструмент, но, всё же, недостаточно точный и контролируемый. Тут на помощь приходит ControlNet Inpaint и исправляет главный недостаток "классического" inpaint'а - игнорирование контекста. Впрочем, достаточно теории переходим к практике.

Итак, возьмём изображение, которое мы хотим отредактировать.

И сразу же уменьшаем/увеличиваем его до нужного разрешения:
В моём случае с 1500x1500 до 640x640. По опыту скажу, что лучший результат получается при размере меньшей стороны от 512 до 768 пикселей, а большая сторона при этом желательно меньше 1024 пикселей.

нейронные сети,гайд,туториал,StableDiffusion,песочница

Теперь открываем вкладку txt2img в web-gui, раскрываем ControlNet и переносим изображение на холст Unit 0, выбираем режим Inpaint и выставляем все нужные настройки (и включить не забудьте):

ControlNet Unit 0 ControlNet Unit 1 ControlNet Unit 2 ControlNet Unit3 Single Image Set the preprocessor to (invert] If your image has white background and black lines. D s * -* Q Enable Low VRAM Pixel Perfect CD Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart

Теперь замазываем места, которые хотим перерисовать:

нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпт пишем то, что хотим в результате видеть. Ещё раз, пишем не то, что нужно нового добавить, а то, каким хотим видеть финальную картинку:

1girl, naked, completely nude, (best quality, masterpiece:1.2)

Негативный промпт как обычно:
EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4)

Модель подбираем поближе к стилю рисунка (реалистичный/стилизованный). В моё случае это MeinaMix_v11-inpaint.

Параметры генерации:

Sampling method DPM++2M SDE Karras Restore faces Tiling Width Sampling steps Hires, fix 640 Batch count n 640 Batch size,нейронные сети,гайд,туториал,StableDiffusion,песочница

Всё, можно нажимать Generate до тех пор пока не появится приемлемая картинка.

Столь хороший результат обеспечивается препроцессором inpaint_only+lama - он пытается дорисовать зону под маской с учётом "наружного контекста". Это же и обеспечивает генерацию правильного цвета.

Простой случай разобрали, переходим к чему-то посложнее:

Часть 2. Style transfer

Возьмём теперь другой рисунок попробуем повторить описанный выше процесс:

6 I I PATREON.COM/CUTESEXYROBUTTS PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Мда, мало того, что поза поехала, так ещё и стиль оказался потерян. Одного ControlNet Inpaint тут недостаточно. Надо подключать дополнительные юниты.

Нам нужно решить 2 задачи:

Повторить существующий стиль рисункаСохранить силуэт

Для решения первой задачи будем использовать ControlNet reference и ControlNet T2IA - они оба позволяют копировать стиль с изображения-референса и как нельзя лучше работают в связке.

Возвращаемся к интерфейсу ControlNet'a. Копируем исходное изображение в Unit 1 и Unit 2. Настраиваем вот так:

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P О Reference T2IA Preprocessor reference_only И Control Weight i Starting Control о Ending Control 1 Style Fidelity (only for

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Inpaint IP2P Reference Preprocessor t2ia_style_clipvision Control Weight i Starting Control Seg Shuffle Tile None controlnetT2IAdapter_t2iAdapterColor [c58d: /

(Все нужные модели скачать не забыли?)
А в качестве четвёртого ControlNet'a можно использовать любой, что позволяет сохранить форму: canny, depth, softedge, lineart - на ваше усмотрение и под конкретную задачу.

0 Image,нейронные сети,гайд,туториал,StableDiffusion,песочница

(Вот тут softedge)

Интересный факт: никто не запрещает отредактировать выход предпроцессора в фотошопе. Что-то убрать, что-то подрисовать. Вот где могут понадобиться навыки рисования.

Ладно, всё 4 юнита активны. Нажимаем Generate и:

PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Это совсем не то, нужно!
Формы сохранены, но промпт будто проигнорирован. Что случилось? Я вам скажу что: сила ControlNet'а оказалась слишком велика. Stable Diffusion попытался во время генерации воссоздать рисунок-референс да ещё и плюс inpaint там подсунул белый цвет с фона!

Как с этим бороться? Нужно уменьшить эффект двух юнитов переноса стиля (reference и T2IA), но при этом нельзя сильно уменьшать их силу, иначе перенос стиля будет ослаблен. В общем, нужно воспользоваться настройкой Starting Control Step. Она отвечает за то, на какую долю шагов генерации придётся действие ControlNet'a.

Starting Control Step 0.5, например, означает, что первую половину шагов генерация будет опираться только на промпт, а со второй половины подключится уже наш ControlNet.

В общем, план такой: слегка понижаем Control Weight (сила) у стилевых юнитов (примерно до 0.9). После этого начинаем постепенно поднимать границу начала действия стилевых юнитов. Также имеет смысл подобным же образом немного ослабить действие Inpaint'a - позволяет в некоторых случаях исправить цвета.

После нескольких попыток (и усиление промпта) получаем вот такую задницу:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Не идеально, но уже шаг в нужном направлении. На самом деле, сейчас можно (и нужно) уже именно это изображение сделать референсом. Другими словами, скопировать его во все 4 юнита и отталкиваться уже от него. И так сколько нужно раз. Пока не получится идеальный результат, либо ваша генерация окончательно не развалится.

Часть 3. img2img

Даже после получения хорошей генерации во вкладке txt2img имеет смысл несколько отшлифовать изображение уже через img2img inpaint. Главное не забудьте подключить 2 ControlNet'a для переноса стиля. Помните да, reference и T2IA.

Некоторые пункты в виде итога:

Ключ ко всему - это ControlNet (inpaint_only+lama) и ControlNet (reference_only, T2IA)
Генерацию лучше проводить поэтапно, чтобы было на что опереться в последующие шаги
Также имеет смысл разделять генерацию объектов нужной формы и затем покраску их в нужные цвета.
Подбирайте подходящие под задачу модели и/или лоры.
Не забудьте про параметры Control Weight, Starting Control Step, Ending Control Step. И про Control Mode в самом низу!

P.S. Хотел бы я чтобы кто-то обстоятельно протестировал этот метод и поделился бы потом результатами. Мне кажется, как-то можно добиться ещё большей близости к стилю оригинала, ведь задача состояла именно в этом.

Туториал закончен, теперь впечатления. Это охиренно мощная штука! Можно как угодно дорисовать любую картину, стиль вообще не важен, тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов/аниме, хоть картины маслом. Фильмы и фотографии вообще пройденный этап. Можно даже без использования inpaint'a просто сгенерировать сколько хочешь изображений с нуля, просто опираясь на единственный рисунок. А ведь ControlNet появился лишь в начале этого года. Короче, уже почти год прошёл, а всё это до сих пор кажется каким-то колдунством. Что грядущий день готовит...

Развернуть

Отличный комментарий!

а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
imhosep imhosep01.08.202320:32ссылка
+32.6

нейросети Stable diffusion длиннопост NovelAI 

Модель NovelAI под Stable-Diffusion

Там недавно слили исходники NovelAI, на сколько знаю сервис генерит истории по описанию, что то вроде AI Dungeon. Но с 3 октября у них появилась фича генерить и изображения по описанию. Собственно слили и её.

Автор репозитория одной из сборок, AUTOMATIC1111 добавил в свою сборку поддержку работы новых слитых моделей ,его кстати забанили в офф. дискорде Stable Diffusion после произошедшего.

Если хотим поиграться с новой моделью, а выдаёт она довольно неплохие результаты, то нам нужно:

1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui

2. Качаем модель (у них есть NSFW и SFW версии) и некоторые ещё необходимые вещи из слитых материалов - magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak

Name > □ > > > > > > > > > > □ □ □ □ □ novelaileak github stableckpt Q animefull-final-pruned □ animefull-latest □ animefull-prevgood □ animesfw-final-pruned □ animesfw-latest □ animesfw-prevgood □ extra-sd-prune Q modules O vector_adjust Q animevae.pt □ clean.py workspace

3. Переименуйте model.ckpt, что лежит внутри animefull-final-pruned в любоеназвание.ckpt. например в novelai.ckpt, теперь переименуем animevae.pt в название которое мы дали предыдущему файлу и добавляем к нему .vae.pt к примеру в novelai.vae.pt... Теперь заходим директорию \stable-diffusion-webui\, заходим в папку models и создаём там папку с именем hypernetworks и кидаем в неё файлы aini.pt, anime.pt, anime_2.pt и т.д из папки modules, что мы скачивали. Теперь в папку \models\Stable-diffusion\ с основными моделями что мы используем, переносим ранее переименованый файл novelai.ckpt и файл novelai.vae.pt

4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork

outputs/extras-i mages Output directory for grids; if empty, defaults to two directories below Output directory for txt2img grids outputs/txt2img-grids Output directory for img2img grids outputs/img2img-grids Directory for saving images using the Save button log/images System VRAM usage

5. Готово, можем работать с новой моделью.

NovelAI использует CFG:11 и негативные промты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, поэтому если хотите результаты похожие на те, что генерит оригинальная, то используйте эти параметры.

В некоторых промптах взятых напрямую из NovelAI может встречаться синтаксис {}. Он предназначен только для официального сервиса NovelAI. Так же усиливает акцент, как и (), но акцентирование увеличивается только в 1,05 раза вместо 1.1 с (). Поэтому если прям точь в точь повторить результат с понравившегося промпта, что увидели в интернетиках, то используем (слово:1.05) или видим {{}}, то используем (слово:1.1025)... А лучше почитайте https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features для понимания всяких тонких фишек.

Ну надеюсь всё правильно описал расписал. Если есть вопросы спрашивайте, если они в рамках понимания моего разума, то отвечу. Ниже приложу пару примеров изображений и промптов к ним, которые способна выдать модель. К слову через эту модель лучше генерить всякие анимешные арты ибо они там получаются лучше всего.

Мои:

((masterpiece)), painting of a ((Mandalorian)) bounty hunter, Star wars, Tatooine, space, stars, art by John J. Park
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3998559443, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

((masterpiece)), girl,red dress,short hair,summer, twintails, black hair,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3013799092, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

Из Discord'a NovelAI:

copic, thick outlines, {{mohawk, shaved sides}}, 1girl, {vibrant}, deep shadows, deep space, {{80s, scifi, movie poster}}, skin tight spacesuit, jumpsuit, {power armor}, {{small breasts}}, closeup, detailed eyes, torso, headshot

нейросети,Stable diffusion,длиннопост,NovelAI

{{BEST QUALITY}}, {{MASTERPIECE}}, {{HIGH RES}}, {{CINEMATIC LIGHTING}}, {{DETAILED}}, {{TELEPHOTO LENS}}, beautiful hd background, high detailed background, {realistic shadows}, HD shadows, {{{midjourney}}}, tarte (hodarake), Anor Lando, avataart, Andy Livy, by dark album, god teir background art, realistic, realistic portrait, masterpiece portrait, {{{{{{MASTERPIECE}}}}}}, sharp, photo realistic, background focus, {{{{{background only}}}}}, futuristic city, future, advanced technology, neon lights, holograms, flying ships, buildings metalic silver , advanced civilization, year 5096 , science fiction, sci-fi, futuristic dome, matrix

нейросети,Stable diffusion,длиннопост,NovelAI

{white hair}, {very long hair}, gloves, black yellow coat, bandaged wrist, torn clothes, {{black}} eyeshadow, black and white eyes, earrings, {{floating crown}}, {star halo}, detached wings, {{masterpiece}}, {1girl}, black smear on right side of face, space background, {goddess}, {standing on a white platform}, {star symbol on clothes}, star earrings, {{medium}} breasts, bandaged torso, patterns on eye pupils, long majestic black yellow coat, chain earrings, makeup, large black and yellow coat, inside a cathedral at night, {detailed large crown}, character focus, floating stars, presenting a menger cube, magic cubes on background, dark magic, serious, {divine}, {{teenage}}, mini universe above hand, black cubes on the background, supernova on the background, decorated hair, covered body, {{{black background}}}, light above head, spirals on background, fractal patterns, {{dirty face}}, bandaged arms, fractal background

нейросети,Stable diffusion,длиннопост,NovelAI

Развернуть

Stable diffusion нейронные сети сделал сам песочница 

Моя попытка в тренировку LoRA

В общем, балуюсь я нейросетями уже второй годик. Начиналось все для генережки портретиков для ДнД и картинок с природой. Но недавно стал выкладывать еще и посты с цветными конями на CivitAI, дабы нафармить местной валюты на обучение и как-то увлекся. Но потом вспомнил для чего это я все затеял и решил посмотреть что я смогу. В итоге смог не очень, но тем не менее, почему бы не поделиться с уважаемыми содомитами результатами, тем паче, что обучал не на ссанине по желтому снегу, а по самому Оглафу. Получилось не то что бы плохо, но и не хорошо. Хотя, если уменьшать получаемый результат до размеров кадров оригинального комикса, то вроде даже похоже. В общем судите сами, что за срака вышла...

https://civitai.com/models/473780/oglafstyle?modelVersionId=526996

P.S: Если у кого есть положительный опыт тренировки LoRA на CivitAI - поделитесь опытом. Хочеться делать так, что бы не стыдно было.

P.P.S: Пощу на реакторе я, мягко говоря, не часто, так что если где-то что-то налажал в оформлении и/или тегах, прошу сообщить, что бы я поправил, а уже потом кидайте фекальными массами.

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

 V fei,Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Развернуть

Stable diffusion нейросети нейроарт art 

Легкая установка Stable diffusion локально

Существует довольно простой вариант установить Stable diffusion (SD) на ваш компьютер. Даже не надо с консолью ковыряться, все гораздо проще и работает с обширным функционалом.

txt2img img2img Extras PNG Info Settings 0 Output Send to inpaint Interrupt warhammer 40000 Steps: 20, Sampler: Euler a, CFG scale: 13.5, Seed: 3707967471,Stable diffusion,нейросети,нейроарт,art,арт

Итак, инструкция по установке: 

1) Переходим по ссылке: Скачать SD с гитхаба без регистрации и СМС

2) Качаем ZIP архив с интерфейсом. 

Go to file Add file Code \j\j 0 clone © HTTPS SSH GitHub CLI ar https://github.com/AUTOHATICllll/stable-d: [□ ^ Use Git or checkout with SVN using the web URL. CJp Open with GitHub Desktop in i if) Download ZIP pnt ?0 hours ann,Stable diffusion,нейросети,нейроарт,art,арт

3) Распаковываем архив на свой компьютер туда где есть место. Потребуется где то 10 гб.

4) Скачиваем сам файл с SD (а если быть точным - веса) по ссылке или же через торрент:

magnet:?xt=urn:btih:3a4a612d75ed088ea542acac52f9f45987488d1c&dn=sd-v1-4.ckpt&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337

5) Есть такие штуки как GPFGAN - приблуда для исправления лиц и ESRGAN - приблуда для апскейла картинок. Я с ними еще не разбирался, а если и запускал то они плоховато работали, так что пояснения с их работой и установкой будут в следующих постах. (Но кто хочет - может поставить сам поиграться).

6) Теперь ставим проги для того чтобы все работало: GIT и Python версии 3.10.6. Python нужно устанавливать с галочкой "Add Python to PATH".

А также в ридми было указано поставить CUDA. Зачем я конечно не знаю, но я поставил на всякий случай. 

7) Перекидываем наш файлик из пункта 4 в папку из пункта 1, т.е. переименовываем файл в model.ckpt и размещаем в stable-diffusion-webui-master. 

К model, ckpt 05.09.2022 21:28 Файл "CKPT' 4165411 КБ К README.txt 07.09.2022 15:30 Текстовый докум... 11 КБ К requirements.txt 07.09.2022 15:30 Текстовый докум... 1 КБ К requirements_versions.txt 07.09.2022 15:30 Текстовый докум... 1 КБ В screenshot.png 07.09.2022 15:30 Файл "PNG" 513 КБ Щ

8) Запускаем webui.bat. Должна начаться загрузка требуемых данных для работы. У меня потребовалось перезагрузить комп, чтобы все программы встроились в систему. 

9) Переходим в браузер по адресу http://127.0.0.1:7860/ и играемся. 

txt2img img2img Extras PNG Info Settings None,Stable diffusion,нейросети,нейроарт,art,арт

Вроде ничего не забыл, если что - пищите. 

В следующих постах постараюсь подробно расписать то как в ней работать. 

Развернуть

Stable diffusion нейронные сети нейроарт art art девушка 

Stable diffusion,нейронные сети,нейромазня,нейроарт,art,арт,art девушка
Развернуть

furrotica furry фэндомы StableDiffusion нейронные сети furry art нейросетевые фурри furry mouse furry rodent 

Под впечатлением нескольких последний постов от White_Dragon и коммикса про крольчиху решил таки для себя вскрыть эту тему. Тоже мыши, только белые. Ведь на чём ещё экспериментировать как не на мышах?

furrotica,furry,фурри,фэндомы,StableDiffusion,нейронные сети,furry art,нейросетевые фурри,furry mouse,furry rodent

furrotica,furry,фурри,фэндомы,StableDiffusion,нейронные сети,furry art,нейросетевые фурри,furry mouse,furry rodent

furrotica,furry,фурри,фэндомы,StableDiffusion,нейронные сети,furry art,нейросетевые фурри,furry mouse,furry rodent

furrotica,furry,фурри,фэндомы,StableDiffusion,нейронные сети,furry art,нейросетевые фурри,furry mouse,furry rodent

furrotica,furry,фурри,фэндомы,StableDiffusion,нейронные сети,furry art,нейросетевые фурри,furry mouse,furry rodent

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Stable diffusion nsfw инструкция (+1000 картинок)