Результаты поиска по запросу «

Ai generated stable diffusion

»

Запрос:
Создатель поста:
Теги (через запятую):



geek Stable diffusion нейронные сети нейромазня технический вопрос пидоры помогите 

Генерация городского заднего фона.

geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор,Stable diffusion,нейронные сети,нейромазня,технический вопрос,пидоры помогите,реактор помоги

Делаю комикс, мне необходимо сделать "кино-постер" 8к или 4к, для этого по задумки задний фон это городская улица. Использую Easy Diffusion, в целом AI выдаёт приемлемые шаблоны, но проблема в том что при полном расмотре всё это ВОЗНЁВОЕ ГАВНО, особено то что на "дальних" позициях, а мне нужна детализация вместо мазни. Попробывал использовать разные LoRA и модели, но результат лучше не стал. То ли я криворукий дегенерат, то ли у меня ожидания завышеные, то ли в мою утренняю кашу врезался боеой вертолёт из каладути, не ясно.

Мой опыт использования AI примерно 7 часов, в данный момент не могу позволить себе времени на глубокое самостоятельное изучение AI программ и их кодинг для работы так как на мне уже весит изучение Blender, SFM и Photoshop а постер хочу выложить на этой неделе, так как "кое-кто" возможно решил реализовать сюжет схожий с моим и там уже выяснять чья идея была первой - не хочется.

Те кто работает с генерацией прошу дать информацию по необходимым письменным командам для Prompt/Negative Prompt, и список модулей/лор/моделей и всего что можно запихать для улучшения качества. Или если надо сменить тип нейронки - то какую ставить ?

Ну или сгенерируйте мне картинку такого плана/экскиза: seed: 2124573511

geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор,Stable diffusion,нейронные сети,нейромазня,технический вопрос,пидоры помогите,реактор помоги

(Да, понимаю что я ахуевшая жопа, но я уже отчаился и сроки жмут, точнее моё очко из за прав на интелектуальную собственность)
Развернуть

AI StableDiffusion нейронные сети рыжая няша Искусственный Интеллект 

добрался до Stable diffusion. вот такая рыжая няша

AI,StableDiffusion,нейронные сети,рыжая няша,Искусственный Интеллект
Развернуть

пятница похуй пляшем coub аниме фэндомы AI generated Stable diffusion нейронные сети Anime Unsorted 

Развернуть
Комментарии 4 01.03.202412:13 ссылка -3.8

нейронные сети нейроарт Stable diffusion Anything3.0 песочница NSFW 

Google Colab и кошкодевочки для всех.

Не знаю почему этого никто до сих пор не написал... Инструкция посвящается всем киберпидорам на накопившим на крутую видяху, желающим заиметь гарем 2D тяночек. 
Гугл раздает доступ к своим ML мощностям для всех желающих. На https://colab.research.google.com/ можно генерить свои картиночки, запускать свои модели и.т.п. (ограничение - 12 часов в день на работу, потом все сгенереное стирается.) 
Даю сразу ссылку:

Модель anything3.0: https://colab.research.google.com/github/camenduru/stable-diffusion-webui-colab/blob/main/anything_3_webui_colab.ipynb
(на мой взгляд самая подходящая под генерацию 2D эротики)

Запуск модели полностью автоматизирован, просто запускаешь коллаб кнопкой ▶️ исполнение кода
И ждешь пока тебе выдадут линк на вебинтерфейс (типа такого https://0f0a82ef41323d42.gradio.app/).

Открываешь линк - поздравляю, твой коллаб с тяночками готов. Генерирует в любом разрешении (у гугловских тензорных ядер памяти до черта).



P.s.
Тем кто хочет старую stable diffusion без хентая https://colab.research.google.com/drive/1jY9KAqR_SQUp76ayRuqyk4MTId-7STOy?hl=ru_RU#scrollTo=NPtEBB6r18yU
Вообще в коллабе много уже подготовленных моделей - просто гуглите)

Развернуть

Stable diffusion нейросети нейроарт art 

Легкая установка Stable diffusion локально

Существует довольно простой вариант установить Stable diffusion (SD) на ваш компьютер. Даже не надо с консолью ковыряться, все гораздо проще и работает с обширным функционалом.

txt2img img2img Extras PNG Info Settings 0 Output Send to inpaint Interrupt warhammer 40000 Steps: 20, Sampler: Euler a, CFG scale: 13.5, Seed: 3707967471,Stable diffusion,нейросети,нейроарт,art,арт

Итак, инструкция по установке: 

1) Переходим по ссылке: Скачать SD с гитхаба без регистрации и СМС

2) Качаем ZIP архив с интерфейсом. 

Go to file Add file Code \j\j 0 clone © HTTPS SSH GitHub CLI ar https://github.com/AUTOHATICllll/stable-d: [□ ^ Use Git or checkout with SVN using the web URL. CJp Open with GitHub Desktop in i if) Download ZIP pnt ?0 hours ann,Stable diffusion,нейросети,нейроарт,art,арт

3) Распаковываем архив на свой компьютер туда где есть место. Потребуется где то 10 гб.

4) Скачиваем сам файл с SD (а если быть точным - веса) по ссылке или же через торрент:

magnet:?xt=urn:btih:3a4a612d75ed088ea542acac52f9f45987488d1c&dn=sd-v1-4.ckpt&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337

5) Есть такие штуки как GPFGAN - приблуда для исправления лиц и ESRGAN - приблуда для апскейла картинок. Я с ними еще не разбирался, а если и запускал то они плоховато работали, так что пояснения с их работой и установкой будут в следующих постах. (Но кто хочет - может поставить сам поиграться).

6) Теперь ставим проги для того чтобы все работало: GIT и Python версии 3.10.6. Python нужно устанавливать с галочкой "Add Python to PATH".

А также в ридми было указано поставить CUDA. Зачем я конечно не знаю, но я поставил на всякий случай. 

7) Перекидываем наш файлик из пункта 4 в папку из пункта 1, т.е. переименовываем файл в model.ckpt и размещаем в stable-diffusion-webui-master. 

К model, ckpt 05.09.2022 21:28 Файл "CKPT' 4165411 КБ К README.txt 07.09.2022 15:30 Текстовый докум... 11 КБ К requirements.txt 07.09.2022 15:30 Текстовый докум... 1 КБ К requirements_versions.txt 07.09.2022 15:30 Текстовый докум... 1 КБ В screenshot.png 07.09.2022 15:30 Файл "PNG" 513 КБ Щ

8) Запускаем webui.bat. Должна начаться загрузка требуемых данных для работы. У меня потребовалось перезагрузить комп, чтобы все программы встроились в систему. 

9) Переходим в браузер по адресу http://127.0.0.1:7860/ и играемся. 

txt2img img2img Extras PNG Info Settings None,Stable diffusion,нейросети,нейроарт,art,арт

Вроде ничего не забыл, если что - пищите. 

В следующих постах постараюсь подробно расписать то как в ней работать. 

Развернуть

Lit1211 Нейросетевые Барышни Арт Барышня art Stable diffusion нейронные сети нейросетевая эротика 

Lit1211,Нейросетевые Барышни,Арт Барышня,арт девушка, art барышня, art girl,art,арт,Stable diffusion,нейронные сети,нейросетевая эротика,Lit1211,AI ero art,art girl,art,Stable diffusion,neural networks

Развернуть

Stable diffusion нейронные сети нейромазня ControlNet гайд длиннопост 

Практическое применение нейросетей

Раз уж я вошёл в мир нейросетей благодаря реактору (через слитую модель novelAi и гайду к ней), то хочу вернуть дань благодарности этим небольшим мануалом.

Вы сможете генерировать прикольные арты на основе любого логотипа \ текста буквально в пару шагов.

0) Нужен stable diffusion от automatic1111 свежей версии (как его устанавливать тут не буду описывать);

1) Устанавливаем расширение ControlNet:

a) Копируем ссылку: https://github.com/Mikubill/sd-webui-controlnet

b) Идём во вкладку extensions -> install from URL, в первое поле вставляем ссылку и жмакаем install

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings l Extensions
Installed Available Install from URL — URL for extension's git repository
https://github.com/Mikubill/sd-webui-controlnetl Local directory name
Leave empty for auto
Install,Stable

c) Во вкладке installed на всякий случай проверяем апдейты: "Check for updates", и нажимаем "Apply and restart UI"

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings
Extensions
l Installed Available Install from URL
Apply and restart Ul
Check for updates
Extension	URL	Version	Update
@ openpose-editor	https://github.com/fkunnl326/openpose-editor	124e47c5 (Sun

После этих манипуляций у Вас перезагрузится web страница и появится вкладка "ControlNet" в txt2img:

txt2img
img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Setti
bomberman
blur, low quality, bad art, man, face, skull, text
Sampling method	Sampling steps			20
Euler a v v J				
Width	768		Batch count	4
		ti		
Height	768	\	/	Batch size	1
CFG Scale				
Seed -1

(Если не появилась, то попробуйте Settings, нажать Apply и перезапустить Stable Diffusion полностью)

d) Загружаем модели для ControlNet:

для этого идём сюда: https://civitai.com/models/9251/controlnet-pre-trained-models

скачиваем все версии моделей (там есть раздел Versions с отдельной кнопкой загрузки);

все скачанные файлы закидываем в <путь до SD>\stable-diffusion-webui\extensions\sd-webui-controlnet\models

2) Генерируем арты:

a) подготавливаем свой логотип \ текст. 

я сделал такую картинку в фш:

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

p.s: походу желательно не использовать прозрачный фон (у меня с ним ничего не вышло).

b) двигаем настройки ControlNet:

ControlNet
Invert colors if your image has white background.
Change your brush width to make it thinner if you want to draw something.
2. Нажимаем "Enable"; Invert Color (если фон белый); Low VRAM
@ Enable	@ Invert Input Color	RGBtoBGR	@ Low VRAM	Guess Mode
Preprocessor 3- p ^processor:

c) и наконец генерируем (выставляем размер, пишем promptы, жмакаем generate).

единственное НО: у меня не получилось подружить controlNet с "hiresfix". даже "latent(nearest)" начинает ломать образ. поэтому генерировал сразу в 768х768 (Вам, возможно, надо будет пробовать с 512х512)

Stable Diffusion Checkpoint ---------------------
dreamlikeDiffusionl0_10.ckpt [0aecbcfa2c] ^
SDVAE
G Automatic
G
Clip skip
r
2
Show live previews of the created image
txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings Extensions
2/75

любые LORA, HyperNetwork, embeddings прекрасно работают.

модель на которой я генерил: https://civitai.com/models/1274/dreamlike-diffusion-10

ну и примеры того что у меня получилось:

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Идея честно спизженна отсюда:

https://www.reddit.com/r/StableDiffusion/comments/11ku886/controlnet_unlimited_album_covers_graphic_design/

Ну и напоследок хочу сказать что это расширение умеет гораздо большее. например можно полностью копировать стиль фото \ любые позы \ выражения лиц и ДАЖЕ рисовать идеальные руки и ноги (причём с фокусом на них). Но и запариться там нужно чуть сильнее)

Развернуть

Ricotte Арт Барышня art StableDiffusion нейронные сети AI generated Нейросетевые Барышни kimono 

 \ {,Ricotte,Арт Барышня,арт девушка, art барышня, art girl,art,арт,StableDiffusion,нейронные сети,AI generated,Нейросетевые Барышни,kimono

Ricotte,Арт Барышня,арт девушка, art барышня, art girl,art,арт,StableDiffusion,нейронные сети,AI generated,Нейросетевые Барышни,kimono

Развернуть

neural generated image девушка Эротика AI neuroart нейронные сети сиське StableDiffusion 

Серьёзная конкуренция для онлифанс моделей

neural generated image,девушка,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,AI,neuroart,нейронные сети,сиське,StableDiffusion

Развернуть

Stable diffusion NSFW нейроарт art нейронные сети 

Ставим локально

Stable Diffusion Text-to-lmage К Generate images from text with Stable Diffusion (using K-LMS) Prompt fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Sampling Steps Height Width 50 Sampling method DDIM PLMS • k-diffusion Create prompt matrix (separate multiple prompts

Итак, тут будет гайд как поставить себе на пк, с веб интерфейсом.

Системные требования: винда, линукс, видеокарта от nvidia с минимум 6 гигами видеопамяти.
Требования рук: умение писать в командную строку

1. Качаем модель отсюда https://drive.yerf.org/wl/?id=EBfTrmcCCUAGaQBXVIj5lJmEhjoP1tgl Магнит на торрент: https://rentry.org/sdiffusionmagnet

2. Клонируем или качаем репозиторий https://github.com/harubaru/waifu-diffusion/ в удобное вам место, если качали вручную, то разархивируем.

3. Идем по пути waifu-diffusion-main/models/ldm.
Создаем там папку "stable-diffusion-v1". Переименуйте ранее скачанную модель .ckpt в "model.ckpt", и положите в папку которую только что создали.

4. Качаем https://pastebin.com/K6nkw326 переименовываем в kdiff.py и кидаем по пути waifu-diffusion-main/models/scripts

5. Качаем новый environment.yaml  заменяем в waifu-diffusion-main/

6. Качаем миниконду отсюда: https://docs.conda.io/en/latest/miniconda.html. Download Miniconda 3

7. Устанавливаем миниконду: Install for all users. Убрать галочку "Register Miniconda as the system Python 3.9" если оно вам не нужно

8. Открываем Anaconda Prompt (miniconda3).
Переходим в папку waifu-diffusion-main используя "cd" для прыжков по папкам.
(Или просто введите cd и перекиньте нужную папку на окно консоли)

9. Введите команду: "conda env create -f environment.yaml" и ждите
(Убедитесь, что вы находитесь в папке waifu-diffusion-main)

10. Удалите папки "clip" и "taming-transformers" из /src

11. Введите команду: "conda activate ldw"
(Вам нужно будет это делать каждый раз когда после перезапуска миниконды)

Использование когда активирован ldw, убедитесь, что находитесь в папке waifu-diffusion-main и введите python scripts\kdiff.py
Ждем когда загрузится модель, после полной загрузки скрипта мы должны увидеть сообщение о запущенном сервере на адресе 127.0.0.1:7860 

II OLI I OL Y Cl Ы OI 14 I aiCM J->r\6_VCI Ы OI I/ / OLI I OL Running on local URL: hitp://127.0.0.1:7860/,Stable diffusion,NSFW,нейроарт,art,арт,нейронные сети

Пользуемся.

ВАЖНО, СКРИПТ У МЕНЯ ВЫДАВАЛ ОШИБКУ В ИМПОРТЕ autocast from torch, ошибку я исправил, правда не знаю правильно ли, но у меня все работает. Если у вас будет такая же проблема, то исправленный скрипт тут https://cdn.discordapp.com/attachments/128912752604348416/1011611445391282226/kdiff.py

Вы великолепны.

Вольный пересказ с английского гайда --K-DIFFUSION RETARD GUIDE (GUI)-- (rentry.org)

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Ai generated stable diffusion (+1000 картинок)