Результаты поиска по запросу «

novel ai stable diffusion

»

Запрос:
Создатель поста:
Теги (через запятую):



Berry's Mix нагенерил сам нейроарт Stable diffusion красивые картинки длиннопост гайд Anime фэндомы Anime Unsorted ...art нейронные сети 

Гайд по созданию модели Berry's Mix

Berry's Mix,нагенерил сам,нейроарт,нейронные сети,Stable diffusion,красивые картинки,art,арт,длиннопост,гайд,Anime,Аниме,фэндомы,Anime Unsorted

	т> Л	-с » /	¿t/Mc'ï 1 / JW ' '\	i/#7
' TI	In Al		■rr« , • л ■В • '¿W,Berry's Mix,нагенерил сам,нейроарт,нейронные сети,Stable diffusion,красивые картинки,art,арт,длиннопост,гайд,Anime,Аниме,фэндомы,Anime Unsorted

Berry's Mix,нагенерил сам,нейроарт,нейронные сети,Stable diffusion,красивые картинки,art,арт,длиннопост,гайд,Anime,Аниме,фэндомы,Anime Unsorted

Berry's Mix,нагенерил сам,нейроарт,нейронные сети,Stable diffusion,красивые картинки,art,арт,длиннопост,гайд,Anime,Аниме,фэндомы,Anime Unsorted

Berry's Mix,нагенерил сам,нейроарт,нейронные сети,Stable diffusion,красивые картинки,art,арт,длиннопост,гайд,Anime,Аниме,фэндомы,Anime Unsorted

Представляю твоему вниманию модель Berry's Mix.
Данная модель используется без VAE, и собирается вручную в Stable Diffusion во вкладке "Checkpoint Merger". Чтобы собрать данную модель необходимо предварительно скачать четыре модели (если нету), из которых будем лепить Berry's Mix.

1) Novel AI (стилистика рисования)
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc
Если ты скачиваешь Novel AI впервые, скачать тебе необходимо только 
...\models\animefull-final-pruned\model.ckpt (4.2гб)
2) Zeipher F222 (тела, анатомия)
https://redirect.ai.zeipher.com/b1t50kc
3) Stable-diffusion-v1-5 (основа)
https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.ckpt
4) r34_e4 (ты знаешь что это)
https://mega.nz/file/3JQ13JTZ#sdByZl4rXp7uxxIDutGs5GHg5RkGZfLrTA5wQEfkDJE
Неудобно скачивать с MEGA? Вот тут можно найти ссылки на торренты
https://rentry.org/sdmodels


Закидываем все скачанные модели в папку с моделями (stable-diffusion-webui\models\Stable-diffusion\)
Скачанную модель Novel AI, тот что model.ckpt можно для удобства переименовать в NovelAI.ckpt.
Переходим во вкладку Checkpoint Merge
В Primary model (A) - NovelAI.ckpt
В Secondary model (B) - f222.ckpt
В Tertiary model (C) - v1.5pruned.ckpt (Stable diffusion 1.5)
В Custom Name - TEMP
Ставим ползунок Multiplier (M) на 1, (максимально вправо).
В Interpolaion Method переключаем на Add difference

Запускаем нажатием на кнопку Run. Ждём.

Когда закончит, переходим во вкладку Setting и в самом низу жмём Restart Gradio and Refresh components.После перезагрузки, заходим на страницу Checkpoint Merger предварительно обновив страницу (F5).

Теперь:
В Primary model (A) - TEMP.ckpt
В Secondary model (B) - r34_e4.ckpt
В Tertiary model (C) - оставляем пустой
В Custom Name - Berry's Mix
Ставим ползунок Multiplier (M) - на 0.25
В Interpolaion Method оставляем на Weighted Sum

Запускаем нажатием на кнопку Run. Ждём. Когда закончит, переходим во вкладку Setting и в самом низу жмём Restart Gradio and Refresh components. Загружаем модель в меню chekpoint. Готово!

Я не скидываю готовую модель, так как лучше будет каждому поработать с вкладкой Checkpoint Merger. Там можно создавать невероятные миксы. Если данный контент понравится, создам гайды на другие миксы.
Развернуть

Stable diffusion нейронные сети нейромазня ControlNet гайд длиннопост 

Практическое применение нейросетей

Раз уж я вошёл в мир нейросетей благодаря реактору (через слитую модель novelAi и гайду к ней), то хочу вернуть дань благодарности этим небольшим мануалом.

Вы сможете генерировать прикольные арты на основе любого логотипа \ текста буквально в пару шагов.

0) Нужен stable diffusion от automatic1111 свежей версии (как его устанавливать тут не буду описывать);

1) Устанавливаем расширение ControlNet:

a) Копируем ссылку: https://github.com/Mikubill/sd-webui-controlnet

b) Идём во вкладку extensions -> install from URL, в первое поле вставляем ссылку и жмакаем install

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings l Extensions Installed Available Install from URL — URL for extension's git repository https://github.com/Mikubill/sd-webui-controlnetl Local directory name Leave empty for auto Install,Stable

c) Во вкладке installed на всякий случай проверяем апдейты: "Check for updates", и нажимаем "Apply and restart UI"

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings Extensions l Installed Available Install from URL Apply and restart Ul Check for updates Extension URL Version Update @ openpose-editor https://github.com/fkunnl326/openpose-editor 124e47c5 (Sun

После этих манипуляций у Вас перезагрузится web страница и появится вкладка "ControlNet" в txt2img:

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Setti bomberman blur, low quality, bad art, man, face, skull, text Sampling method Sampling steps 20 Euler a v v J Width 768 Batch count 4 ti Height 768 \ / Batch size 1 CFG Scale Seed -1

(Если не появилась, то попробуйте Settings, нажать Apply и перезапустить Stable Diffusion полностью)

d) Загружаем модели для ControlNet:

для этого идём сюда: https://civitai.com/models/9251/controlnet-pre-trained-models

скачиваем все версии моделей (там есть раздел Versions с отдельной кнопкой загрузки);

все скачанные файлы закидываем в <путь до SD>\stable-diffusion-webui\extensions\sd-webui-controlnet\models

2) Генерируем арты:

a) подготавливаем свой логотип \ текст. 

я сделал такую картинку в фш:

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

p.s: походу желательно не использовать прозрачный фон (у меня с ним ничего не вышло).

b) двигаем настройки ControlNet:

ControlNet Invert colors if your image has white background. Change your brush width to make it thinner if you want to draw something. 2. Нажимаем "Enable"; Invert Color (если фон белый); Low VRAM @ Enable @ Invert Input Color RGBtoBGR @ Low VRAM Guess Mode Preprocessor 3- p ^processor:

c) и наконец генерируем (выставляем размер, пишем promptы, жмакаем generate).

единственное НО: у меня не получилось подружить controlNet с "hiresfix". даже "latent(nearest)" начинает ломать образ. поэтому генерировал сразу в 768х768 (Вам, возможно, надо будет пробовать с 512х512)

Stable Diffusion Checkpoint --------------------- dreamlikeDiffusionl0_10.ckpt [0aecbcfa2c] ^ SDVAE G Automatic G Clip skip r 2 Show live previews of the created image txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings Extensions 2/75

любые LORA, HyperNetwork, embeddings прекрасно работают.

модель на которой я генерил: https://civitai.com/models/1274/dreamlike-diffusion-10

ну и примеры того что у меня получилось:

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Идея честно спизженна отсюда:

https://www.reddit.com/r/StableDiffusion/comments/11ku886/controlnet_unlimited_album_covers_graphic_design/

Ну и напоследок хочу сказать что это расширение умеет гораздо большее. например можно полностью копировать стиль фото \ любые позы \ выражения лиц и ДАЖЕ рисовать идеальные руки и ноги (причём с фокусом на них). Но и запариться там нужно чуть сильнее)

Развернуть

AP2 Higurashi no Naku Koro ni (VN) Sonozaki Shion Сиськи(VN) Anime Ero Anime Ero Kyonyuu Anime Ero Oppai нейроарт Stable diffusion Anime Unsorted ...Ero VN Anime фэндомы Higurashi no Naku Koro ni нейронные сети Foreign VN Визуальные новеллы 

 у* & ТЕ и - л . 1,AP2,AP2-ai-artist,Anime,Аниме,фэндомы,Higurashi no Naku Koro ni,Когда плачут цикады, Higurashi When They Cry,Higurashi no Naku Koro ni (VN),Foreign VN,Зарубежные VN,Визуальные новеллы,Sonozaki Shion,Shion Sonozaki,Ero VN,Сиськи(VN),Anime Ero,Взрослые Няшки,Anime Ero

Развернуть
Комментарии 3 05.06.202314:57 ссылка 23.0

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Сегодня я расскажу о способе дорисовывать любые рисунки с помощью инструментов Stable Diffusion. Но прежде чем я начну, убедитесь что у вас установлена свежая версия Stable Diffusion webui от Automatic1111 + расширение ControlNet 1.1 со всеми нужными моделями.
Вот видео-инструкции (смотреть по порядку):

Установили? Тогда начинаем.

Часть 1. ControlNet Inpaint

Ни для кого не секрет, что в SD существует фича под названием inpaint - это, по сути, способ сгенерировать что-то поверх существующего изображения. В интерфейсе от Automatic1111 под inpaint'ом обычно подразумевают один из режимов img2img. Это хоть и мощный инструмент, но, всё же, недостаточно точный и контролируемый. Тут на помощь приходит ControlNet Inpaint и исправляет главный недостаток "классического" inpaint'а - игнорирование контекста. Впрочем, достаточно теории переходим к практике.

Итак, возьмём изображение, которое мы хотим отредактировать.

И сразу же уменьшаем/увеличиваем его до нужного разрешения:
В моём случае с 1500x1500 до 640x640. По опыту скажу, что лучший результат получается при размере меньшей стороны от 512 до 768 пикселей, а большая сторона при этом желательно меньше 1024 пикселей.

нейронные сети,гайд,туториал,StableDiffusion,песочница

Теперь открываем вкладку txt2img в web-gui, раскрываем ControlNet и переносим изображение на холст Unit 0, выбираем режим Inpaint и выставляем все нужные настройки (и включить не забудьте):

ControlNet Unit 0 ControlNet Unit 1 ControlNet Unit 2 ControlNet Unit3 Single Image Set the preprocessor to (invert] If your image has white background and black lines. D s * -* Q Enable Low VRAM Pixel Perfect CD Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart

Теперь замазываем места, которые хотим перерисовать:

нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпт пишем то, что хотим в результате видеть. Ещё раз, пишем не то, что нужно нового добавить, а то, каким хотим видеть финальную картинку:

1girl, naked, completely nude, (best quality, masterpiece:1.2)

Негативный промпт как обычно:
EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4)

Модель подбираем поближе к стилю рисунка (реалистичный/стилизованный). В моё случае это MeinaMix_v11-inpaint.

Параметры генерации:

Sampling method DPM++2M SDE Karras Restore faces Tiling Width Sampling steps Hires, fix 640 Batch count n 640 Batch size,нейронные сети,гайд,туториал,StableDiffusion,песочница

Всё, можно нажимать Generate до тех пор пока не появится приемлемая картинка.

Столь хороший результат обеспечивается препроцессором inpaint_only+lama - он пытается дорисовать зону под маской с учётом "наружного контекста". Это же и обеспечивает генерацию правильного цвета.

Простой случай разобрали, переходим к чему-то посложнее:

Часть 2. Style transfer

Возьмём теперь другой рисунок попробуем повторить описанный выше процесс:

6 I I PATREON.COM/CUTESEXYROBUTTS PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Мда, мало того, что поза поехала, так ещё и стиль оказался потерян. Одного ControlNet Inpaint тут недостаточно. Надо подключать дополнительные юниты.

Нам нужно решить 2 задачи:

Повторить существующий стиль рисункаСохранить силуэт

Для решения первой задачи будем использовать ControlNet reference и ControlNet T2IA - они оба позволяют копировать стиль с изображения-референса и как нельзя лучше работают в связке.

Возвращаемся к интерфейсу ControlNet'a. Копируем исходное изображение в Unit 1 и Unit 2. Настраиваем вот так:

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P О Reference T2IA Preprocessor reference_only И Control Weight i Starting Control о Ending Control 1 Style Fidelity (only for

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Inpaint IP2P Reference Preprocessor t2ia_style_clipvision Control Weight i Starting Control Seg Shuffle Tile None controlnetT2IAdapter_t2iAdapterColor [c58d: /

(Все нужные модели скачать не забыли?)
А в качестве четвёртого ControlNet'a можно использовать любой, что позволяет сохранить форму: canny, depth, softedge, lineart - на ваше усмотрение и под конкретную задачу.

0 Image,нейронные сети,гайд,туториал,StableDiffusion,песочница

(Вот тут softedge)

Интересный факт: никто не запрещает отредактировать выход предпроцессора в фотошопе. Что-то убрать, что-то подрисовать. Вот где могут понадобиться навыки рисования.

Ладно, всё 4 юнита активны. Нажимаем Generate и:

PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Это совсем не то, нужно!
Формы сохранены, но промпт будто проигнорирован. Что случилось? Я вам скажу что: сила ControlNet'а оказалась слишком велика. Stable Diffusion попытался во время генерации воссоздать рисунок-референс да ещё и плюс inpaint там подсунул белый цвет с фона!

Как с этим бороться? Нужно уменьшить эффект двух юнитов переноса стиля (reference и T2IA), но при этом нельзя сильно уменьшать их силу, иначе перенос стиля будет ослаблен. В общем, нужно воспользоваться настройкой Starting Control Step. Она отвечает за то, на какую долю шагов генерации придётся действие ControlNet'a.

Starting Control Step 0.5, например, означает, что первую половину шагов генерация будет опираться только на промпт, а со второй половины подключится уже наш ControlNet.

В общем, план такой: слегка понижаем Control Weight (сила) у стилевых юнитов (примерно до 0.9). После этого начинаем постепенно поднимать границу начала действия стилевых юнитов. Также имеет смысл подобным же образом немного ослабить действие Inpaint'a - позволяет в некоторых случаях исправить цвета.

После нескольких попыток (и усиление промпта) получаем вот такую задницу:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Не идеально, но уже шаг в нужном направлении. На самом деле, сейчас можно (и нужно) уже именно это изображение сделать референсом. Другими словами, скопировать его во все 4 юнита и отталкиваться уже от него. И так сколько нужно раз. Пока не получится идеальный результат, либо ваша генерация окончательно не развалится.

Часть 3. img2img

Даже после получения хорошей генерации во вкладке txt2img имеет смысл несколько отшлифовать изображение уже через img2img inpaint. Главное не забудьте подключить 2 ControlNet'a для переноса стиля. Помните да, reference и T2IA.

Некоторые пункты в виде итога:

Ключ ко всему - это ControlNet (inpaint_only+lama) и ControlNet (reference_only, T2IA)
Генерацию лучше проводить поэтапно, чтобы было на что опереться в последующие шаги
Также имеет смысл разделять генерацию объектов нужной формы и затем покраску их в нужные цвета.
Подбирайте подходящие под задачу модели и/или лоры.
Не забудьте про параметры Control Weight, Starting Control Step, Ending Control Step. И про Control Mode в самом низу!

P.S. Хотел бы я чтобы кто-то обстоятельно протестировал этот метод и поделился бы потом результатами. Мне кажется, как-то можно добиться ещё большей близости к стилю оригинала, ведь задача состояла именно в этом.

Туториал закончен, теперь впечатления. Это охиренно мощная штука! Можно как угодно дорисовать любую картину, стиль вообще не важен, тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов/аниме, хоть картины маслом. Фильмы и фотографии вообще пройденный этап. Можно даже без использования inpaint'a просто сгенерировать сколько хочешь изображений с нуля, просто опираясь на единственный рисунок. А ведь ControlNet появился лишь в начале этого года. Короче, уже почти год прошёл, а всё это до сих пор кажется каким-то колдунством. Что грядущий день готовит...

Развернуть

Отличный комментарий!

а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
imhosep imhosep01.08.202320:32ссылка
+32.6

Stable diffusion нейросети нейромазня NovelAI art 

Поэкспереминтировал с novelai, SD доообученная под аниме с добавлением таких фишек, как гиперсети. Почитать можете к примеру тут. Вообщем она, когерентнее, чем другие дообученные аниме аналоги и с анатомией все лучше, но в плане стиля немного однообразна. Дообучали ее без имен художников, поэтому стилем через имена управлять трудно, но я попробовал имена тех кто оригинальное SD неплохо знает. По итогу некоторые вещи даже похожи, а какие-то нет, но как минимум можно подобрать себе что-то по вкусу. Плюс оценил влияние гиперсетей. С черными изображениями нужен другой сэмплер.Эйлер иногда так глючит.

None aini anime anime_2 Adrian Smith Alan Lee Albert Lynch Alex Grey w m Иг4 ^ yj я 1 J fi ji il h w /I f 1 В Э9® ^ Æ^JL^ _ _ .. « К./ b 1 *W / л 5 f i ' * l ! mi 1 Í л "1 Ну i L anime_3,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

Anna Dittmann Anne Stokes Artgerm Arthur Hacker None aini anime anime_2 anime_3 f 1 / vV> 'W ^ ^ í - ' J \ Wi MrYlM \ I UUj^Hà ~ Ær: */W|y I Ki r .V* '1 & f / • —§ \lLktl J Arthur Rackham Audrey Kawasaki A-1 Pictures Bastien Lecouffe-Deharme Bella Kotaki,Stable

None aini anime anime_2 Berthe Morisot Bob Byerley Bob Peak anime_3 Carne Griffiths Catrín Welz-Stein Charlie Bowater CLAMP 1 IM v 4 [. f '»\ AL«J,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

None aini anime anime_2 anime_3 Clive Barker Craig Davison Dean Cornwell Dorina Costras Drew Struzan Edward Burne-Jones Edward Robert Hughes Eric Wallis Esteban Maroto Flora Borsi Franz Xaver Winterhalter r V, f1 ! \ (i 1 L Tl 7 1 M [\ \\ 1 > ml V Gainax Gaston

None aini anime anime_2 Gustav Klimt Hayao Miyazaki Hirohiko Araki Hitoshi Ariga Howard Chaykin Howard Pyle Hsiao-Ron Cheng Igor Morski Ilya Kuvshinov Ilya Repin Isao Takahata Guo Pei Gustave Moreau :V anime_3,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

James Tissot Joao Ruas John Musker None aini anime anime_2 Jan Van Eyck Jason Edmiston Jean-Baptiste Monge Jean-Marc Nattier Jeremy Lipking Jessie Willcox Smith John Byrne John William Waterhouse Josephine Wall Jovana Rikalo Jules Bastien-Lepage Junji Ito V \ yLffl Ж Ш

None aini anime anime_2 anime_3 Kate Greenaway Katsuhiro Otomo Ken Kelly Ken Sugimori Kentaro Miura Krenz Cushart Kyoto Animation Leonardo da Vinci у ' 1 11 r i/nm) 1 lift 1 —и -- ЩК Luis Royo Malcolm Liepke Mamoru Hosoda Mamoru Oshil Marco Mazzoni Margaret Keane Mark

None aini anime anime_2 Masashi Kishimoto Michael Cheval Michael Whelan Miho Hirano Moebius Naoko Takeuchi anime_3 Odd Nerdrum P.A. Works Paolo Roversi Patrice Murciano Paul Outerbridge Pete Docter Peter Mohrbacher,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

None aini anime anime_2 anime_3 Pixar Production I.G Quentin Blake Rafael Albuquerque Ralph Bakshi Ray Caesar Raymond Swanland i WJi A Rene Magritte Richard Corben Rob Liefeld RonWalotsky RossDraws RumikoTakahashi Russ Mills Salvador Dali L 1 | i 1 r /M ¡H i\,Stable

SHAFT Sharaku Shepard Fairey Shoji Kawamori Shotaro Ishinomori Sophie Anderson Studio DEEN None aini anime anime_2 anime_3 \ ' /■ m \ uf , Ä ! ' 'ir f A m ^ >■ A kJ* ■TV I npbm mlv 1 1 1 fr 1 Theo van Rysselberghe Tatsunoko Productions Studio Ghibli Studio Pierrot Sui

None aini anime anime_2 anime_3 Todd McFarlane Toei Animation Tom Bagshaw Trina Robbins Tsutomu Nihei Ufotable Umberto Boccioni Utamaro VictoNgai Vincent van Gogh l ( n V F m à àH Vittorio Matteo Coreos Walt Simonson ... , „ , William-Adolphe Walter Crane Wayne Barlowe

Развернуть

нейросети Stable diffusion длиннопост NovelAI 

Модель NovelAI под Stable-Diffusion

Там недавно слили исходники NovelAI, на сколько знаю сервис генерит истории по описанию, что то вроде AI Dungeon. Но с 3 октября у них появилась фича генерить и изображения по описанию. Собственно слили и её.

Автор репозитория одной из сборок, AUTOMATIC1111 добавил в свою сборку поддержку работы новых слитых моделей ,его кстати забанили в офф. дискорде Stable Diffusion после произошедшего.

Если хотим поиграться с новой моделью, а выдаёт она довольно неплохие результаты, то нам нужно:

1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui

2. Качаем модель (у них есть NSFW и SFW версии) и некоторые ещё необходимые вещи из слитых материалов - magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak

Name > □ > > > > > > > > > > □ □ □ □ □ novelaileak github stableckpt Q animefull-final-pruned □ animefull-latest □ animefull-prevgood □ animesfw-final-pruned □ animesfw-latest □ animesfw-prevgood □ extra-sd-prune Q modules O vector_adjust Q animevae.pt □ clean.py workspace

3. Переименуйте model.ckpt, что лежит внутри animefull-final-pruned в любоеназвание.ckpt. например в novelai.ckpt, теперь переименуем animevae.pt в название которое мы дали предыдущему файлу и добавляем к нему .vae.pt к примеру в novelai.vae.pt... Теперь заходим директорию \stable-diffusion-webui\, заходим в папку models и создаём там папку с именем hypernetworks и кидаем в неё файлы aini.pt, anime.pt, anime_2.pt и т.д из папки modules, что мы скачивали. Теперь в папку \models\Stable-diffusion\ с основными моделями что мы используем, переносим ранее переименованый файл novelai.ckpt и файл novelai.vae.pt

4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork

outputs/extras-i mages Output directory for grids; if empty, defaults to two directories below Output directory for txt2img grids outputs/txt2img-grids Output directory for img2img grids outputs/img2img-grids Directory for saving images using the Save button log/images System VRAM usage

5. Готово, можем работать с новой моделью.

NovelAI использует CFG:11 и негативные промты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, поэтому если хотите результаты похожие на те, что генерит оригинальная, то используйте эти параметры.

В некоторых промптах взятых напрямую из NovelAI может встречаться синтаксис {}. Он предназначен только для официального сервиса NovelAI. Так же усиливает акцент, как и (), но акцентирование увеличивается только в 1,05 раза вместо 1.1 с (). Поэтому если прям точь в точь повторить результат с понравившегося промпта, что увидели в интернетиках, то используем (слово:1.05) или видим {{}}, то используем (слово:1.1025)... А лучше почитайте https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features для понимания всяких тонких фишек.

Ну надеюсь всё правильно описал расписал. Если есть вопросы спрашивайте, если они в рамках понимания моего разума, то отвечу. Ниже приложу пару примеров изображений и промптов к ним, которые способна выдать модель. К слову через эту модель лучше генерить всякие анимешные арты ибо они там получаются лучше всего.

Мои:

((masterpiece)), painting of a ((Mandalorian)) bounty hunter, Star wars, Tatooine, space, stars, art by John J. Park
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3998559443, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

((masterpiece)), girl,red dress,short hair,summer, twintails, black hair,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3013799092, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

Из Discord'a NovelAI:

copic, thick outlines, {{mohawk, shaved sides}}, 1girl, {vibrant}, deep shadows, deep space, {{80s, scifi, movie poster}}, skin tight spacesuit, jumpsuit, {power armor}, {{small breasts}}, closeup, detailed eyes, torso, headshot

нейросети,Stable diffusion,длиннопост,NovelAI

{{BEST QUALITY}}, {{MASTERPIECE}}, {{HIGH RES}}, {{CINEMATIC LIGHTING}}, {{DETAILED}}, {{TELEPHOTO LENS}}, beautiful hd background, high detailed background, {realistic shadows}, HD shadows, {{{midjourney}}}, tarte (hodarake), Anor Lando, avataart, Andy Livy, by dark album, god teir background art, realistic, realistic portrait, masterpiece portrait, {{{{{{MASTERPIECE}}}}}}, sharp, photo realistic, background focus, {{{{{background only}}}}}, futuristic city, future, advanced technology, neon lights, holograms, flying ships, buildings metalic silver , advanced civilization, year 5096 , science fiction, sci-fi, futuristic dome, matrix

нейросети,Stable diffusion,длиннопост,NovelAI

{white hair}, {very long hair}, gloves, black yellow coat, bandaged wrist, torn clothes, {{black}} eyeshadow, black and white eyes, earrings, {{floating crown}}, {star halo}, detached wings, {{masterpiece}}, {1girl}, black smear on right side of face, space background, {goddess}, {standing on a white platform}, {star symbol on clothes}, star earrings, {{medium}} breasts, bandaged torso, patterns on eye pupils, long majestic black yellow coat, chain earrings, makeup, large black and yellow coat, inside a cathedral at night, {detailed large crown}, character focus, floating stars, presenting a menger cube, magic cubes on background, dark magic, serious, {divine}, {{teenage}}, mini universe above hand, black cubes on the background, supernova on the background, decorated hair, covered body, {{{black background}}}, light above head, spirals on background, fractal patterns, {{dirty face}}, bandaged arms, fractal background

нейросети,Stable diffusion,длиннопост,NovelAI

Развернуть

dev реактор нейросети Stable diffusion 

Хочется узнать позицию администрации (и всех неравнодушных) по поводу правильного проставления тегов для захлестнувшего реактор цунами нейроартов. А то наделали миллиард тегов и теперь вроде как надо ставить их все, чтобы люди, которые подписались только на "нейроарт" тоже увидели картинку, сделанную при помощи нейросети, потому что другой реакторчанин, например, ставил только "нейромазню" и там тоже есть подписчики. Есть ли смысл в тегах "stable diffusion" и "novelAI", которые, фактически, слились в один? Или может лучше их оставить для новостей, а арты туда не ставить. Короче, это надо брать под контроль как можно раньше, иначе начнётся пиздец.

Развернуть

NovelAI нейронные сети Stable diffusion нейроарт art нагенерил сам art барышня Нейросетевые Барышни 

На этот раз история создания четвёртого моего нейроарта будет максимально короткой. Я просто закинул пустой запрос в нейросеть, она нагенерила мне тяночку и я просто докидывал новые промпты по одному, в том числе и цвета, чтобы разнообразить палитру. Ну и я очень сильно постарался сделать хоть сколько-нибудь нормальные руки и даже сумел сделать подобие маникюра на одной руке, на большее меня не хватило. Итоговый арт будет в самом конце поста.

Изначальная версия после первой генерации.

NovelAI,нейронные сети,Stable diffusion,нейроарт,art,арт,нагенерил сам,art барышня,Нейросетевые Барышни

Добавил intricate (замысловатый), делает больше деталей на изображении.

NovelAI,нейронные сети,Stable diffusion,нейроарт,art,арт,нагенерил сам,art барышня,Нейросетевые Барышни

Попытка добавить больше голубого и затем красного цвета вылились в коричневые волосы и глаза.

NovelAI,нейронные сети,Stable diffusion,нейроарт,art,арт,нагенерил сам,art барышня,Нейросетевые Барышни

Хреново перекрашеные волосы, когда я добавил зелёного.

NovelAI,нейронные сети,Stable diffusion,нейроарт,art,арт,нагенерил сам,art барышня,Нейросетевые Барышни

И, нацконец, финальная, слегка (нет) допиленная инпеинтом. Плюс, как обычно заапскейленая до 3000 пикселей.

UPD: реактор не хочет грузит заапскейленую картинку, Ну ладно, вот слегка пережатая до 2000 пикселей.

NovelAI,нейронные сети,Stable diffusion,нейроарт,art,арт,нагенерил сам,art барышня,Нейросетевые Барышни

Развернуть

VALVe_man artist сделал сам ArtStation AI art 

В свете нынешних событий на артстанции

Я отверг свою человечность и призываю вас сделать то же самое.

VALVe_man,VFILVe_man, DiSSONANCE,artist,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,ArtStation,AI art

Развернуть

Отличный комментарий!

Вообще интересная тема. Художники недовольны тем, что машина обучается на их работах и замещает их. Но ведь и они сами обучаются на работах других художников, изучают технику, копируют, вдохновляются. С одной стороны, плохо, когда человек лишается работы. А с другой, это ведь прогресс.
Mars53 Mars5314.12.202221:12ссылка
-0.4
Лично я не против нейроарта как такового, а против того, чтобы засерать сайты, подобные артстейшн, сгенерированными картинками. Артстанция это соцсеть художников, а не агрегатор картинок.
VALVe_man VALVe_man14.12.202221:18ссылка
+65.2

AP2 Anime фэндомы oshi no ko arima kana нейронные сети нейроарт нагенерил сам Stable diffusion Anime Unsorted 

 lAL ¿ фж],AP2,AP2-ai-artist,Anime,Аниме,фэндомы,oshi no ko,arima kana,нейронные сети,нейроарт,нагенерил сам,Stable diffusion,AP2,Anime,fandoms,oshi no ko,arima kana,neural networks,,Stable diffusion,Anime Unsorted,Anime Unsorted

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме novel ai stable diffusion (+1000 картинок)