Результаты поиска по запросу «

как раздеть любого человека с помощью Stable Diffusion

»

Запрос:
Создатель поста:
Теги (через запятую):



нейронные сети гайд Stable diffusion раздетые нейросеткой 

Как отредактировать любой рисунок с помощью нейросети Stable Diffusion. Подробный гайд

Будем считать, что вы уже установили и настроили Automatic1111's Stable Diffusion web-gui, а также скачали расширение для ControlNet'a и модели для него. Нам нужно будет лишь controlNet Inpaint и controlNet Lineart.

В интернете уже есть гайд по установке. И не один. Да хоть на том же YouTube.

Будем учиться редактировать на примере вот этой картинки:

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Автор - Chaesu

Первым делом открываем фотошоп. Да, прежде чем загружать изображение в SD, его нужно подготовить. Проблема тут такая: SD 1.5 модели не могут нормально работать с изображениями больше 800 пикселей. Поэтому, выделяем в фотошопе вот такую область размером 600x900:

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Не снимайте выделение сразу, оно ещё пригодится

Выделение есть, теперь Ctrl+C и вставляем скопированный кусок во вкладку txt2img в окошко ControlNet'а (в первые три, то есть вставляем три раза):

ControlNet vl.1.440 3 units ▼ ControlNet Unit 0 ControlNet Unit 1 ControlNet Unit 2 ControlNet Unit 3 Single Image Batch Multi-Inputs Set the preprocessor to [invert] If your image has white background and black lines. Q и ^ ^ Q Enable Low VRAM Pixel Perfect,нейронные сети,гайд,Stable

Вы ведь не забыли увеличить количество юнитов контролнета в настройках?

Теперь настраиваем сами юниты контролнета:
Unit 0:

Preprocessor reference_only Control Weight 0,95 Starting Control Step o,22 Ending Control Step Style Fidelity (only for "Balanced" mode) Control Mode Balanced My prompt is more important Q ControlNet is more important,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Первый юнит будет отвечать за перенос стиля

Unit 1:

Preprocessor Model inpaint_only+lama - u controlnetllModelsJnpaint [be8bc0e< ▼ Control Weight 1 Starting Control Step o Ending Control Step i Control Mode Balanced Q My prompt is more important ControlNet is more important □,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Второй отвечает за редактирование с сохранением контекста

Unit 2:

Preprocessor Model lineart_realistic - u controlnetllModelsJineart [5c23bl7d Control Weight 0,8 Starting Control Step o Ending Control Step Preprocessor Resolution Control Mode O Balanced My prompt is more important ControlNet is more important - 0 0,8 600,нейронные сети,гайд,Stable

Ну и третий юнит для контроля генерации

После этого нажимайте на кнопку предпросмотра:

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

И скачивайте получившийся "негатив"

Single Image Batch Multi-Inputs,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Можно поиграться с другими препроцессорами, но lineart_realistic обычно выдаёт лучший результат

Смело открываем его в фотошопе (в новой вкладке, старую пока не трогаем) и начинаем редактировать. Надо лишь убрать всё лишнее и обозначить контур того, что хотим получить. Вот как-то так:

Контролирующий лайн готов. Теперь очищаем ControlNet Lineart и вставляем наш "линейный рисунок". Так как на вход теперь на вход контролнету сам лайн, то нам не нужен препроцессор - ставим его на none.

Single Image Batch Multi-Inputs 0 Image (' /' ff l [/ / '! " Y Y i y /\. / 1 Start drawing ’i VJ 1 , У / \ L i • i xx • ! 1 Set the preprocessor to [invert] If your image has white background and black lines. D а ^ Q Enable Allow Preview Control Type Low VRAM Pixel Perfect Mask

Это всё ещё Unit 2

Осталось только нарисовать маску inpaint'а. Переходим в ControlNet Inpaint (Unit 1) и прямо тут в веб-интерфейсе закрашиваем те части, которые хотим перерисовать:

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Про тень от одежды не забудьте

Осталось лишь написать промпт (и негативный промпт), выбрать параметры генерации (размер 600x900 не забывайте) и нажимать Generate до тех пор, пока не увидите приемлемый результат.
Например:

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Главное что стиль далеко не уехал

Это изображение неплохо бы отправить в img2img inpaint, чтобы поправить мелкие недоработки, но сейчас просто копируем его в буфер, возвращаемся в фотошоп и вставляем в нужное место (выделение пригодилось).

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Сидит как влитая

Исправляется тем же образом:

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Приемлемо

По тому же принципу делаем остальных

нейронные сети,гайд,Stable diffusion,раздетые нейросеткой

Видите недоработки? Исправить их - это ваше домашнее задание

А вот параметры генерации:

(best quality, masterpiece:1.2), 1girl, short hair, (white bikini:1.1), standing, cowboy shot, white background, contrapposto,
Negative prompt: (worst quality, low quality, normal quality:1.3)
Steps: 28, Sampler: DPM++ 2M SDE Karras, CFG scale: 6, Seed: 2598121264, Size: 600x900, Model hash: 3867bda67e, Model: kizukiAlternative_v10, VAE hash: 2125bad8d3, VAE: kl-f8-anime2.ckpt, Clip skip: 2,

ControlNet 0: "Module: reference_only, Model: None, Weight: 0.95, Resize Mode: Crop and Resize, Low Vram: False, Threshold A: 0.5, Guidance Start: 0.22, Guidance End: 1, Pixel Perfect: False, Control Mode: ControlNet is more important, Hr Option: Both, Save Detected Map: True",

ControlNet 1: "Module: inpaint_only+lama, Model: controlnet11Models_inpaint [be8bc0ed], Weight: 1, Resize Mode: Crop and Resize, Low Vram: False, Guidance Start: 0, Guidance End: 1, Pixel Perfect: False, Control Mode: My prompt is more important, Hr Option: Both, Save Detected Map: True",

ControlNet 2: "Module: none, Model: controlnet11Models_lineart [5c23b17d], Weight: 0.8, Resize Mode: Crop and Resize, Low Vram: False, Guidance Start: 0, Guidance End: 0.8, Pixel Perfect: False, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Version: v1.7.0

Модель для генерации логично выбирать близкую по стилю. Для не слишком реалистичных рисунков Kizuki Alternative почти идеальна.

Несколько советов:

- Уменьшайте исходное изображение заранее, облегчайте нейросети работу.

- Можно обойтись из без Lineart'а, и тогда сетка додумает форму самостоятельно.

- Если какие-то части получились хорошо, а какие-то нет, то просто перенесите результат во вкладки Reference и Inpaint и работайте уже с ним.

- Если исходное изображение слишком тёмное либо светлое, то модель сама по себе может не справиться и имеет смысл подключать затемняющую или осветляющую мини-модель (лору).

Развернуть

Stable diffusion нейросети нейромазня NovelAI art 

Поэкспереминтировал с novelai, SD доообученная под аниме с добавлением таких фишек, как гиперсети. Почитать можете к примеру тут. Вообщем она, когерентнее, чем другие дообученные аниме аналоги и с анатомией все лучше, но в плане стиля немного однообразна. Дообучали ее без имен художников, поэтому стилем через имена управлять трудно, но я попробовал имена тех кто оригинальное SD неплохо знает. По итогу некоторые вещи даже похожи, а какие-то нет, но как минимум можно подобрать себе что-то по вкусу. Плюс оценил влияние гиперсетей. С черными изображениями нужен другой сэмплер.Эйлер иногда так глючит.

None aini anime anime_2 Adrian Smith Alan Lee Albert Lynch Alex Grey w m Иг4 ^ yj я 1 J fi ji il h w /I f 1 В Э9® ^ Æ^JL^ _ _ .. « К./ b 1 *W / л 5 f i ' * l ! mi 1 Í л "1 Ну i L anime_3,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

Anna Dittmann Anne Stokes Artgerm Arthur Hacker None aini anime anime_2 anime_3 f 1 / vV> 'W ^ ^ í - ' J \ Wi MrYlM \ I UUj^Hà ~ Ær: */W|y I Ki r .V* '1 & f / • —§ \lLktl J Arthur Rackham Audrey Kawasaki A-1 Pictures Bastien Lecouffe-Deharme Bella Kotaki,Stable

None aini anime anime_2 Berthe Morisot Bob Byerley Bob Peak anime_3 Carne Griffiths Catrín Welz-Stein Charlie Bowater CLAMP 1 IM v 4 [. f '»\ AL«J,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

None aini anime anime_2 anime_3 Clive Barker Craig Davison Dean Cornwell Dorina Costras Drew Struzan Edward Burne-Jones Edward Robert Hughes Eric Wallis Esteban Maroto Flora Borsi Franz Xaver Winterhalter r V, f1 ! \ (i 1 L Tl 7 1 M [\ \\ 1 > ml V Gainax Gaston

None aini anime anime_2 Gustav Klimt Hayao Miyazaki Hirohiko Araki Hitoshi Ariga Howard Chaykin Howard Pyle Hsiao-Ron Cheng Igor Morski Ilya Kuvshinov Ilya Repin Isao Takahata Guo Pei Gustave Moreau :V anime_3,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

James Tissot Joao Ruas John Musker None aini anime anime_2 Jan Van Eyck Jason Edmiston Jean-Baptiste Monge Jean-Marc Nattier Jeremy Lipking Jessie Willcox Smith John Byrne John William Waterhouse Josephine Wall Jovana Rikalo Jules Bastien-Lepage Junji Ito V \ yLffl Ж Ш

None aini anime anime_2 anime_3 Kate Greenaway Katsuhiro Otomo Ken Kelly Ken Sugimori Kentaro Miura Krenz Cushart Kyoto Animation Leonardo da Vinci у ' 1 11 r i/nm) 1 lift 1 —и -- ЩК Luis Royo Malcolm Liepke Mamoru Hosoda Mamoru Oshil Marco Mazzoni Margaret Keane Mark

None aini anime anime_2 Masashi Kishimoto Michael Cheval Michael Whelan Miho Hirano Moebius Naoko Takeuchi anime_3 Odd Nerdrum P.A. Works Paolo Roversi Patrice Murciano Paul Outerbridge Pete Docter Peter Mohrbacher,Stable diffusion,нейросети,нейромазня,NovelAI,art,арт

None aini anime anime_2 anime_3 Pixar Production I.G Quentin Blake Rafael Albuquerque Ralph Bakshi Ray Caesar Raymond Swanland i WJi A Rene Magritte Richard Corben Rob Liefeld RonWalotsky RossDraws RumikoTakahashi Russ Mills Salvador Dali L 1 | i 1 r /M ¡H i\,Stable

SHAFT Sharaku Shepard Fairey Shoji Kawamori Shotaro Ishinomori Sophie Anderson Studio DEEN None aini anime anime_2 anime_3 \ ' /■ m \ uf , Ä ! ' 'ir f A m ^ >■ A kJ* ■TV I npbm mlv 1 1 1 fr 1 Theo van Rysselberghe Tatsunoko Productions Studio Ghibli Studio Pierrot Sui

None aini anime anime_2 anime_3 Todd McFarlane Toei Animation Tom Bagshaw Trina Robbins Tsutomu Nihei Ufotable Umberto Boccioni Utamaro VictoNgai Vincent van Gogh l ( n V F m à àH Vittorio Matteo Coreos Walt Simonson ... , „ , William-Adolphe Walter Crane Wayne Barlowe

Развернуть

пидоры помогите нейронные сети Stable diffusion 

Требуется помощь со Stable Diffusion

Проблема такая: имеется видеокарта amd rx6750, а нейросетки больше любят Nvidea, искал аналоги на амд, пока использую SD WebUI DML Neuro, но у неё нет возможности использования LoRa.
Во время поисков нашёл вот такой вариант на DirectML https://github.com/lshqqytiger/stable-diffusion-webui-directml

Не запускается, так же просит нвидеа карту

Однако никакие настройки и внесение в аргументы мне не помогли. А использовать через процессор мне не хочется, слишком долго создает картинку.

Питон 3.10 и гит установлены. Брал информацию так же отсюда https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs 

Я плохо в таких делах разбираюсь, так что решение проблемы найти не смог. Взываю к тем кто более умён в данном вопросе

ИСПОЛЬЗОВАТЬ ТОЛЬКО В СЛУЧАЕ КРАЙНЕЙ НЕОБХОДИМОСТИ,пидоры помогите,реактор помоги,нейронные сети,Stable diffusion
Развернуть

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Сегодня я расскажу о способе дорисовывать любые рисунки с помощью инструментов Stable Diffusion. Но прежде чем я начну, убедитесь что у вас установлена свежая версия Stable Diffusion webui от Automatic1111 + расширение ControlNet 1.1 со всеми нужными моделями.
Вот видео-инструкции (смотреть по порядку):

Установили? Тогда начинаем.

Часть 1. ControlNet Inpaint

Ни для кого не секрет, что в SD существует фича под названием inpaint - это, по сути, способ сгенерировать что-то поверх существующего изображения. В интерфейсе от Automatic1111 под inpaint'ом обычно подразумевают один из режимов img2img. Это хоть и мощный инструмент, но, всё же, недостаточно точный и контролируемый. Тут на помощь приходит ControlNet Inpaint и исправляет главный недостаток "классического" inpaint'а - игнорирование контекста. Впрочем, достаточно теории переходим к практике.

Итак, возьмём изображение, которое мы хотим отредактировать.

И сразу же уменьшаем/увеличиваем его до нужного разрешения:
В моём случае с 1500x1500 до 640x640. По опыту скажу, что лучший результат получается при размере меньшей стороны от 512 до 768 пикселей, а большая сторона при этом желательно меньше 1024 пикселей.

нейронные сети,гайд,туториал,StableDiffusion,песочница

Теперь открываем вкладку txt2img в web-gui, раскрываем ControlNet и переносим изображение на холст Unit 0, выбираем режим Inpaint и выставляем все нужные настройки (и включить не забудьте):

ControlNet Unit 0 ControlNet Unit 1 ControlNet Unit 2 ControlNet Unit3 Single Image Set the preprocessor to (invert] If your image has white background and black lines. D s * -* Q Enable Low VRAM Pixel Perfect CD Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart

Теперь замазываем места, которые хотим перерисовать:

нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпт пишем то, что хотим в результате видеть. Ещё раз, пишем не то, что нужно нового добавить, а то, каким хотим видеть финальную картинку:

1girl, naked, completely nude, (best quality, masterpiece:1.2)

Негативный промпт как обычно:
EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4)

Модель подбираем поближе к стилю рисунка (реалистичный/стилизованный). В моё случае это MeinaMix_v11-inpaint.

Параметры генерации:

Sampling method DPM++2M SDE Karras Restore faces Tiling Width Sampling steps Hires, fix 640 Batch count n 640 Batch size,нейронные сети,гайд,туториал,StableDiffusion,песочница

Всё, можно нажимать Generate до тех пор пока не появится приемлемая картинка.

Столь хороший результат обеспечивается препроцессором inpaint_only+lama - он пытается дорисовать зону под маской с учётом "наружного контекста". Это же и обеспечивает генерацию правильного цвета.

Простой случай разобрали, переходим к чему-то посложнее:

Часть 2. Style transfer

Возьмём теперь другой рисунок попробуем повторить описанный выше процесс:

6 I I PATREON.COM/CUTESEXYROBUTTS PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Мда, мало того, что поза поехала, так ещё и стиль оказался потерян. Одного ControlNet Inpaint тут недостаточно. Надо подключать дополнительные юниты.

Нам нужно решить 2 задачи:

Повторить существующий стиль рисункаСохранить силуэт

Для решения первой задачи будем использовать ControlNet reference и ControlNet T2IA - они оба позволяют копировать стиль с изображения-референса и как нельзя лучше работают в связке.

Возвращаемся к интерфейсу ControlNet'a. Копируем исходное изображение в Unit 1 и Unit 2. Настраиваем вот так:

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P О Reference T2IA Preprocessor reference_only И Control Weight i Starting Control о Ending Control 1 Style Fidelity (only for

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Inpaint IP2P Reference Preprocessor t2ia_style_clipvision Control Weight i Starting Control Seg Shuffle Tile None controlnetT2IAdapter_t2iAdapterColor [c58d: /

(Все нужные модели скачать не забыли?)
А в качестве четвёртого ControlNet'a можно использовать любой, что позволяет сохранить форму: canny, depth, softedge, lineart - на ваше усмотрение и под конкретную задачу.

0 Image,нейронные сети,гайд,туториал,StableDiffusion,песочница

(Вот тут softedge)

Интересный факт: никто не запрещает отредактировать выход предпроцессора в фотошопе. Что-то убрать, что-то подрисовать. Вот где могут понадобиться навыки рисования.

Ладно, всё 4 юнита активны. Нажимаем Generate и:

PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Это совсем не то, нужно!
Формы сохранены, но промпт будто проигнорирован. Что случилось? Я вам скажу что: сила ControlNet'а оказалась слишком велика. Stable Diffusion попытался во время генерации воссоздать рисунок-референс да ещё и плюс inpaint там подсунул белый цвет с фона!

Как с этим бороться? Нужно уменьшить эффект двух юнитов переноса стиля (reference и T2IA), но при этом нельзя сильно уменьшать их силу, иначе перенос стиля будет ослаблен. В общем, нужно воспользоваться настройкой Starting Control Step. Она отвечает за то, на какую долю шагов генерации придётся действие ControlNet'a.

Starting Control Step 0.5, например, означает, что первую половину шагов генерация будет опираться только на промпт, а со второй половины подключится уже наш ControlNet.

В общем, план такой: слегка понижаем Control Weight (сила) у стилевых юнитов (примерно до 0.9). После этого начинаем постепенно поднимать границу начала действия стилевых юнитов. Также имеет смысл подобным же образом немного ослабить действие Inpaint'a - позволяет в некоторых случаях исправить цвета.

После нескольких попыток (и усиление промпта) получаем вот такую задницу:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Не идеально, но уже шаг в нужном направлении. На самом деле, сейчас можно (и нужно) уже именно это изображение сделать референсом. Другими словами, скопировать его во все 4 юнита и отталкиваться уже от него. И так сколько нужно раз. Пока не получится идеальный результат, либо ваша генерация окончательно не развалится.

Часть 3. img2img

Даже после получения хорошей генерации во вкладке txt2img имеет смысл несколько отшлифовать изображение уже через img2img inpaint. Главное не забудьте подключить 2 ControlNet'a для переноса стиля. Помните да, reference и T2IA.

Некоторые пункты в виде итога:

Ключ ко всему - это ControlNet (inpaint_only+lama) и ControlNet (reference_only, T2IA)
Генерацию лучше проводить поэтапно, чтобы было на что опереться в последующие шаги
Также имеет смысл разделять генерацию объектов нужной формы и затем покраску их в нужные цвета.
Подбирайте подходящие под задачу модели и/или лоры.
Не забудьте про параметры Control Weight, Starting Control Step, Ending Control Step. И про Control Mode в самом низу!

P.S. Хотел бы я чтобы кто-то обстоятельно протестировал этот метод и поделился бы потом результатами. Мне кажется, как-то можно добиться ещё большей близости к стилю оригинала, ведь задача состояла именно в этом.

Туториал закончен, теперь впечатления. Это охиренно мощная штука! Можно как угодно дорисовать любую картину, стиль вообще не важен, тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов/аниме, хоть картины маслом. Фильмы и фотографии вообще пройденный этап. Можно даже без использования inpaint'a просто сгенерировать сколько хочешь изображений с нуля, просто опираясь на единственный рисунок. А ведь ControlNet появился лишь в начале этого года. Короче, уже почти год прошёл, а всё это до сих пор кажется каким-то колдунством. Что грядущий день готовит...

Развернуть

Отличный комментарий!

а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
imhosep imhosep01.08.202320:32ссылка
+32.6

Stable diffusion нейронные сети сделал сам песочница 

Моя попытка в тренировку LoRA №2

В общем, я был приятно удивлен, что мой предыдущий пост зашел уважаемым содомитам, посему решил сделать еще один. Не знаю, дело в интересе к нейросетям или к Оглафу, но сейчас можно будет как раз проверить.Итак, позвольте представить вашему вниманию LoRA обученную на работах венецианского живописца эпохи Возрождения - Тициано Вачеллио.

 https://civitai.com/models/478707/titian-vecellio-style?modelVersionId=532368

Как и в прошлый раз, я не смог достичь уровня самоудовлетворения, но не пропадать же добру. LoRA тренировалась на модели Pony, а эта модель не очень подходит тому, что не является r34, картинками, но мне было интересно попробовать. В принципе, вышло лучше, чем я ожидал, но хуже чем могло быть.

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

 Ш \ л / 'ч 1. . : rar^vjL í 4/ ■\ ■ 'él ^vl« жг I Г # Йг • (d J* •/у »Ат» /y ^ÿ‘-, ■ ^В*. jBf,Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Развернуть

Stable diffusion нейронные сети 

Presented
Reconstructed
Image
Semantic
Vector
Presented Images
Reconstructed Images,Stable diffusion,нейронные сети

Ну че пацаны? Скоро будем генерировать вайф прямиком из воображения?

Исследовательская команда из Осаки модифицировала Stable diffusion что бы она могла генерировать изображения по МРТ мозга. МРТ были получены когда подопытные смотрели на показанные им изображения.

Ссылка

Развернуть

Отличный комментарий!

ну все... мыслепреступления научились отслеживать
AndreyZhuk AndreyZhuk 03.03.202313:53 ссылка
+57.7

нагенерил сам нейронные сети Нейросетевые Барышни арт барышня art Stable diffusion реактор-тян реактор 

нагенерил сам,нейронные сети,Нейросетевые Барышни,арт барышня,арт девушка, art барышня, art girl,art,арт,Stable diffusion,реактор-тян,реактор

Перенос позы через ControlNet, затем по кругу то корректировка в Photoshop и полировка этого участка с помощью Inpaint. А что-то тупо было подкопирку перерисовано с исходного мема (руки), или с найденной в сети 3d модели (кеды), или с лого сайта.. и конечно проходился потом по этому участку с помощью Inpaint. Разве что только к тени Stable Diffusion не притрагивался, тк он постоянно какие-то образы там находил.    
Развернуть

наука наука и техника технологии нейронные сети Stable diffusion Stable riffusion StableRiffusion Riffusion 

Stable Diffusion начала синтезировать музыку

 

В рамках проекта Riffusion разработчики развивают вариант системы машинного обучения Stable Diffusion для генерации музыки вместо изображений. Мелодии можно создавать как на основе предложенного шаблона, так и с помощью текстового описания на естественном языке.

 

наука,наука и техника,технологии,нейронные сети,Stable diffusion,Stable riffusion,StableRiffusion,Riffusion

 

Компоненты для синтеза музыки написали на языке Python с использованием фреймворка PyTorch. Связь с интерфейсом реализовали на языке TypeScript. Компоненты доступны под лицензией MIT.

Сама модель открыта под лицензией Creative ML OpenRAIL-M, допускающей использование в коммерческих целях.

Обновлённая модель использует для генерации музыки модели «из текста в изображение» и «из изображения в изображение», но в качестве изображений выступают спектрограммы. Они отражают изменение частоты и амплитуды звуковой волны во времени. Система на выходе формирует новую спектрограмму, которая затем преобразуется в звуковое представление.

Проект Riffusion также может использовать для изменения имеющихся композиций и синтеза музыки по образцу. Этот процесс работает по аналогии с модификацией изображений в Stable Diffusion. Так, при генерации могут задаваться образцы спектрограмм с эталонным стилем, комбинироваться разные стили, выполняться плавный переход от одного стиля к другому или вноситься изменения в существующий звук для увеличения громкости отдельных инструментов, изменение ритма и т.д.

Образцы можно использовать для генерации длительно играющих композиций, создаваемых из серии близких друг к другу отрывков, немного меняющихся во времени. Они объединяются в непрерывный поток при помощи интерполяции внутренних параметров модели.

Для создания спектрограммы используется оконное преобразование Фурье. Чтобы решить проблему с определением фазы, задействован алгоритм аппроксимации Гриффина-Лима.

В ноябре Stability AI сообщила о выпуске новой версии модели Stable Diffusion 2.0. В ней улучшили качество и повысили вариативность получаемых изображений.

Развернуть

Отличный комментарий!

Музыканты через 3, 2, 1...
Jake_the_crab Jake_the_crab17.12.202219:02ссылка
+45.8

dev реактор нейросети Stable diffusion 

Хочется узнать позицию администрации (и всех неравнодушных) по поводу правильного проставления тегов для захлестнувшего реактор цунами нейроартов. А то наделали миллиард тегов и теперь вроде как надо ставить их все, чтобы люди, которые подписались только на "нейроарт" тоже увидели картинку, сделанную при помощи нейросети, потому что другой реакторчанин, например, ставил только "нейромазню" и там тоже есть подписчики. Есть ли смысл в тегах "stable diffusion" и "novelAI", которые, фактически, слились в один? Или может лучше их оставить для новостей, а арты туда не ставить. Короче, это надо брать под контроль как можно раньше, иначе начнётся пиздец.

Развернуть

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать любой рисунок с помощью StableDiffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Нужно:

Установленный и настроенный свежий Automatic1111 web-guiУстановленное расширение ControlNet, и все нужные модели к немуУмение хоть сколько-нибудь с этим работать

Всё происходит во вкладке txt2img

Сначала берём исходное изображение, кладём его в 2 вкладки ControlNet'a и включаем их. Вот как-то так:

ControlNet vi. 1.224 ControlNet Unit О Single Image 13 Image ControlNet Unit 1 ControlNet Unit 2 Batch,нейронные сети,гайд,туториал,StableDiffusion,песочница

Первую вкладку (Unit 0) настраиваем следующим образом:

Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P O Reference T2IA Preprocessor reference_only Control Weight 1 Starting Control 0;3 Ending Control Step 1 Style Fidelity (only for "Balanced" mode) 0,5 Control Mode Balanced

А вот так вторую (Unit 1):

Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile O Inpaint IP2P Reference T2IA Preprocessor Model inpaint_only+lama controlnetllModelsJnpaint [I ▼ Control Weight Starting Control Step Ending Control Step 1 Control Mode O Balanced My prompt

Два инстанса нужны, потому что первый отвечает за передачу стиля, а второй обеспечивает генерацию поверх существующего изображения с учётом контекста.

Осталось нарисовать маску:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Параметры генерации, промпты:

Sampling method DPM++2M Karras Restore faces Tiling Hires, fix Width Sampling steps 32 600 Batch count 2 ~) n 608 • Batch size 2 6 o <$> Extra,нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпте, то что хотим сгенерировать в зоне маски 

Позитивный - (white flowers:1.1), (best quality, masterpiece:1.2)

Негативный как обычно - EasyNegative, (worst quality, low quality, normal quality:1.4), (painting of bad artist:1.2)

Нажимаем Generate и получаем:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Пара моментов:

Старайтесь генерировать поближе (насколько возможно) к оригинальному разрешение. Hires. fix лучше не использовать - он ломает тонкие детали.

Нужен подходящий чекпойнт в зависимости от стиля оригинального рисунка. Под реалистичные рисунки реалистичные модели, под стилизованные - стилизованные.

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме как раздеть любого человека с помощью Stable Diffusion (+1000 картинок)