Модель NovelAI под Stable-Diffusion
Там недавно слили исходники NovelAI, на сколько знаю сервис генерит истории по описанию, что то вроде AI Dungeon. Но с 3 октября у них появилась фича генерить и изображения по описанию. Собственно слили и её.
Автор репозитория одной из сборок, AUTOMATIC1111 добавил в свою сборку поддержку работы новых слитых моделей ,его кстати забанили в офф. дискорде Stable Diffusion после произошедшего.
Если хотим поиграться с новой моделью, а выдаёт она довольно неплохие результаты, то нам нужно:
1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui
2. Качаем модель (у них есть NSFW и SFW версии) и некоторые ещё необходимые вещи из слитых материалов - magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak
3. Переименуйте model.ckpt, что лежит внутри animefull-final-pruned в любоеназвание.ckpt. например в novelai.ckpt, теперь переименуем animevae.pt в название которое мы дали предыдущему файлу и добавляем к нему .vae.pt к примеру в novelai.vae.pt... Теперь заходим директорию \stable-diffusion-webui\, заходим в папку models и создаём там папку с именем hypernetworks и кидаем в неё файлы aini.pt, anime.pt, anime_2.pt и т.д из папки modules, что мы скачивали. Теперь в папку \models\Stable-diffusion\ с основными моделями что мы используем, переносим ранее переименованый файл novelai.ckpt и файл novelai.vae.pt
4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork
5. Готово, можем работать с новой моделью.NovelAI использует CFG:11 и негативные промты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, поэтому если хотите результаты похожие на те, что генерит оригинальная, то используйте эти параметры.
В некоторых промптах взятых напрямую из NovelAI может встречаться синтаксис {}. Он предназначен только для официального сервиса NovelAI. Так же усиливает акцент, как и (), но акцентирование увеличивается только в 1,05 раза вместо 1.1 с (). Поэтому если прям точь в точь повторить результат с понравившегося промпта, что увидели в интернетиках, то используем (слово:1.05) или видим {{}}, то используем (слово:1.1025)... А лучше почитайте https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features для понимания всяких тонких фишек.
Ну надеюсь всё правильно описал расписал. Если есть вопросы спрашивайте, если они в рамках понимания моего разума, то отвечу. Ниже приложу пару примеров изображений и промптов к ним, которые способна выдать модель. К слову через эту модель лучше генерить всякие анимешные арты ибо они там получаются лучше всего.
Мои:
((masterpiece)), painting of a ((Mandalorian)) bounty hunter, Star wars, Tatooine, space, stars, art by John J. Park
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3998559443, Size: 512x704, Model hash: 925997e9
((masterpiece)), girl,red dress,short hair,summer, twintails, black hair,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3013799092, Size: 512x704, Model hash: 925997e9
copic, thick outlines, {{mohawk, shaved sides}}, 1girl, {vibrant}, deep shadows, deep space, {{80s, scifi, movie poster}}, skin tight spacesuit, jumpsuit, {power armor}, {{small breasts}}, closeup, detailed eyes, torso, headshot
{{BEST QUALITY}}, {{MASTERPIECE}}, {{HIGH RES}}, {{CINEMATIC LIGHTING}}, {{DETAILED}}, {{TELEPHOTO LENS}}, beautiful hd background, high detailed background, {realistic shadows}, HD shadows, {{{midjourney}}}, tarte (hodarake), Anor Lando, avataart, Andy Livy, by dark album, god teir background art, realistic, realistic portrait, masterpiece portrait, {{{{{{MASTERPIECE}}}}}}, sharp, photo realistic, background focus, {{{{{background only}}}}}, futuristic city, future, advanced technology, neon lights, holograms, flying ships, buildings metalic silver , advanced civilization, year 5096 , science fiction, sci-fi, futuristic dome, matrix
{white hair}, {very long hair}, gloves, black yellow coat, bandaged wrist, torn clothes, {{black}} eyeshadow, black and white eyes, earrings, {{floating crown}}, {star halo}, detached wings, {{masterpiece}}, {1girl}, black smear on right side of face, space background, {goddess}, {standing on a white platform}, {star symbol on clothes}, star earrings, {{medium}} breasts, bandaged torso, patterns on eye pupils, long majestic black yellow coat, chain earrings, makeup, large black and yellow coat, inside a cathedral at night, {detailed large crown}, character focus, floating stars, presenting a menger cube, magic cubes on background, dark magic, serious, {divine}, {{teenage}}, mini universe above hand, black cubes on the background, supernova on the background, decorated hair, covered body, {{{black background}}}, light above head, spirals on background, fractal patterns, {{dirty face}}, bandaged arms, fractal background
Подробнее
Name > □ > > > > > > > > > > □ □ □ □ □ novelaileak github stableckpt Q animefull-final-pruned □ animefull-latest □ animefull-prevgood □ animesfw-final-pruned □ animesfw-latest □ animesfw-prevgood □ extra-sd-prune Q modules O vector_adjust Q animevae.pt □ clean.py workspace aboutus.gpg readme.txt [D sha256sum sha256sum.sig
outputs/extras-i mages Output directory for grids; if empty, defaults to two directories below Output directory for txt2img grids outputs/txt2img-grids Output directory for img2img grids outputs/img2img-grids Directory for saving images using the Save button log/images System VRAM usage polls per second during generation. Set to 0 to disable. 0 Always print all generation info to standard output Add a second progress bar to the console that shows progress for an entire job. Stable Diffusion Stable Diffusion checkpoint final-pruned.ckpt [925997e9] Stable Diffusion finetune hypernetwork anime v »■__ aini anime anime_2 anime_3 furry furry_2 furry_3 furry_kemono furry_protogen furry_scalie furry_transformation pony Emphasis: use (text) to make model pay more attention to text and w [text] to make it pay less attention Use old emphasis implementation. Can be useful to reproduce old seeds. Make K-diffusion samplers produce same images in a batch as when making a single image Filter NSFW content Ignore last layers of CLIP model Allowed categories for random artists selection when using the Roll button anime black-white c cartoon digipa-high-impact digipa-low-impact digipa-med-impact fareast fineart n nudity scribbles special ukioe weird eta (noise multiplier) for ancestral samplers img2img DDIM discretize £ uniform quad sigma churn sigma tmin sigma noise Request browser notifications
нейросети,Stable diffusion,длиннопост,NovelAI
А вообще по изображениям выглядит гораздо лучше чем то что делает Dall E 2/Stable Diffusion
Т.е. в принципе никаких намёков что это делала нейросеть (ну почти), все глаза, руки, пальцы на месте, анатомически верные пропорции и позы.
Это из-за того что больше ресурсов на своей машине, или в принципе модель на порядок лучше, потому и сливтая, а не опенсорс?
Н
Касаемо качества тут точно не скажу, но видимо тренеровали лучше, на сколько почитал в срачах в дискорде, то модель тренировали на датасете Danbooru, ну и правильно указаные промпты так же важны, для хорошей генерации изображения. Без тех же негативных промптов, что я указывал, некоторые изображения персонажей будут мутантами с несколькими руками или пальцами или прочими деформациями.
А лучше скинь скрин ошибки, что бы точно понять в чём трабл.
На скрине питон явно ругается что его модуль работы с кудой не доступен еще на этапе инициализации торча.
https://textual-inversion.github.io/
Попытался сделать демонического воина, час убил точно (справа до, слева после доработки напильником):
Реальность: Роботы отбирают у людей творческие занятия, а монотонная тяжелая работа все ещё не может быть автоматизирована.
человеки тупо дешевле
Было бы интересно видеть к примеру кроссовер вахи 40к и деад спейса
2 планеты в одной системе.
Одна планета - это братская луна, вторая же - Кадия. Братская луна выходит из варпа навстречу Кадии. А в этот момент луну обстреливают линкоры Империума. Как-то так
Как насчёт совместить Morrowind и стиль Хаяо Миядзаки?
Впервую очередь необходимо установить stable diffusion webui, берём его от автора AUTOMATIC1111.
Вот инструкция под установку на Linux https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installation-on-linux или вот ещё https://rentry.org/voldy но на английском, там есть описание всяких популярных ошибок и вопросов.
Так же инструкции выше предложат скачать популярные модели вроде stable-diffusion-v-1-4 или waifu-diffusion, эти пункты можно пропустить, так как мы пока ставим модель NovelAI, но всё же их я бы тоже поставил.
Вот есть гайд на youtube от англоязычного человека, там он довольно кратко и по делу показывает процесс установки, но под винду.
Далее запускаем и проверяем, работает ли. Если нет копируем ошибку, и ищем её в обсуждениях на гите этого репозитория, или спрашиваем тут, может разберёмся.
После следуем инструкции, что расписывал я, иии ну вроде всё должно быть в шоколаде.
Энивей, всё зависит от данных, из слов "куча данных" никаких тебе рекомендаций что с ними делать никто не даст.
В целом скорость на проце "1.1 it/s" но хз может на карте будет быстрее.
https://github.com/JoePenna/Dreambooth-Stable-Diffusion
У меня несколько часов уже стоит, не может пиров найти. Подкиньте пожалуйста парочку если у вас скачалось
1.30.246.57:49494
113.200.219.50:56111
cpe989d5deca6c3-cm989d5deca6c1.cpe.net.cable.rogers.com:28257
114.254.89.5:6881
180.174.130.127:15277
193.32.126.233:55162
112.109.246.148:46614
115.20.169.171:6792
49.169.196.151:35166
fp73a398e9.chbd207.ap.nuro.jp:51025
117.152.223.204:18250
75.172.20.42:55670
221.2.164.39:54844
124.133.245.140:9043
ppp-94-69-149-123.home.otenet.gr:65207
ip34.ip-51-254-183.eu:20007
c188-150-91-17.bredband.tele2.se:59671
nz45l84.bb60246.ctm.net:1179
222.187.148.76:5228
185.21.216.149:48609
pppoe.ach-1-bng031.sibttk.net:13354
119.162.184.248:61137
27.212.93.229:57273
139.227.185.80:33536
Залил только те файлы которые на скрине в посте выбраны, полный набор файлов 20+ гб весит
Видимо автор с реддита скачал себе ещё пару лишних моделей, как например обе NSFW и SFW версии и прочего.
встал на пункте "4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork"
А как запустить то? ) экзешника нет xD
Заходим сюды https://github.com/AUTOMATIC1111/stable-diffusion-webui#installation-and-running и следуем инструкции по установке, опишу её кратко.
Качаем и устанавливаем Python 3.10.6 и во время его установке ставим галочку на Add Python to PATH, далее качаем и ставим GIT.
Когда всё это сделали запускаем GIT, и вводим команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git, она установит сборку Stable diffusion на наш ПК в раздел C:\Users\твойюзернейм\stable-diffusion-webui\
Далее ставим какую нибудь модель, например ту про которую и был создан пост.
Сама сетка просто запускается из батника webui-user.bat, который находится в корне stable-diffusion-webui\.
Он установит неообходимые ему файлы, может занять какое то время и место на диске, у меня папка эта весит чуть больше 30гб, но у меня там несколько моделей и прочей лабуды, у тебя будет поменьше чутка.
Когда всё будет установлено он выдаст тебе ссылку которую вставляем в браузер и вуаля, мы можем работать с сеткой.
Ну вроде объяснил максимально доступно и юзер-френдли на сколько смог, если есть вопросы, пиши отвечу.
set COMMANDLINE_ARGS= добавив аргумент --skip-torch-cuda-test, а если восем худо будет работать, то докинь --lowvram --precision full --no-half
Но можешь прям с ходу воткнуть вот так:
set COMMANDLINE_ARGS= --lowvram --precision full --no-half --skip-torch-cuda-test
Гайд: https://rentry.org/ayymd-stable-diffustion-v1_4-guide
Вот на ютабчике даже нашёл что то по этой теме
Как понял нужно будет накатить библиотеку Onnx. За всё, что происходит дальше в процессе я уже не шарю, ибо я сам профан.
ПОка играюсь с тем что выходит но уже что то. Благодарю вас техномаг
второе, при первой генерации он долго подгружал файлы.
3-е сам веб интерфейс он глючит у меня и не отображает реальное вермя рендера. зато в консоле это все видно. Время от времени жмякаю ЕНТЕР в самой консоли, это обновляет статус некоторых запросов. Хз как работает, но работает.
set COMMANDLINE_ARGS= --medvram --precision full --no-half
Могу только предположить, что в название пути должно быть полностью на латинице, а у тебя там кирилица встретилась "C:\Users\ тчЁЄ"
Но в примере который приложил товарищ zpyroz, он ещё воспользовался скриптом X/Y plot, который позволяет комбинировать различные настройки и промпты. Рекомендую изучить вики, много интересных штук можно узнать https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#xy-plot
Не дает выбрать Hypernetwork ибо там пусто и сам пункт Checkpoint вынесен сейчас на верх странички
C:\Users\юзернейм\stable-diffusion-webui\models\hypernetworks\ и тут файлы .pt
Результат того стоил
Искрене надеюсь, что сделают возможность сохранять потом этот прогресс создания в формате gif.
Это. Просто. Охуенно.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/873efeed49bb5197a42da18272115b326c5d68f3
Если вы уже ранее установили всё, то вам париться не нужно.
Если вы регулярно обновляетесь через git pull, то папка у вас автоматически переименуется.
Хоть ты лопни, хоть ты тресни. Карточка - 4 гига (GTX 1650), в батнике прописано: --medvram --precision full --no-half --skip-torch-cuda-test
запускаю так
--listen --opt-split-attention --lowvram --precision full --no-half --precision full --no-half
всё работает, если не жестить с большими запросами
PS или я могу даже не пытаться со своим потайто Пк (GTX 750 ti + Intel i5 4570 + 24 Гб) даже в маленькие пикчи?
Видяха Nvidia GTX 750 ti
Если не поможет, то уже точно хз
Например от куда, что, куда и как скачал, и что где изменил или запустил.
Попробуй переставить папку SD и переустанови питон с гитом как указал дальше.
1) Качаем Python версии 3.10.6 - https://www.python.org/downloads/windows/ , во время его установки начале ставим чек напротив "Add Python to PATH".
2) Устанавливаем GIT - https://git-scm.com/download/win не трогая никакие настройки по худу установки, разве что можно выбрать какой "блокнот" хочется оставить.
3) Устанавливаем файлы из репозитория AUTOMATIC1111. Я обычно перехожу в C:\Users\[User]\ или можно выбрать другое удобное место, и от туда вызываю командную строку и запускаю команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git , должна будет скачаться папка stable-diffusion-webui
4) В папку \stable-diffusion-webui\models\Stable-diffusion\ закидываем модели которые хотим.
5) Запускаем webui-user.bat из корня папки и оно до качает остальное и в конце предложит ввести в браузер ссылку, что бы перейти уже непосредственно в webui SD для дальнейшей работы.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions
Когда при запуске в консоли увидишь строку "Runnging on Local URL : http://127.0.0.1:7860/" то копируем в браузер эту ссылку и переходим, и уже работаем там.
А вот если там уже залипает, что то, то даже предположить не смогу в чём проблема.
Stable Diffusion работает с () и []. Круглые скобки усиливают акцент, а квадратные наоборот будут уменьшать.
Слово взятые в круглые скобки один раз (word) будет иметь усиление акцента на него в 1,1 раз, если возьмём слово в скобки 2 раза ((word)), то будет уже в 1,21 раза = 1,1 * 1,1
По такой же схеме с квадратными, но будет уменьшение акцента на слово.
Можно в ручную задать этот параметр, напримет: (word:1.5) - увеличит акцент на "word" в 1,5 раза.
(word:0.25 )- уменьшит акцент на "word" 4 раза = 1 / 0,25
Если хотим, что бы скобки ()[] учавствовали в самом промпте, не как усилитель акцента, а как часть промпта, то пользуемся обратными косыми чертами \\
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#attentionemphasis
Вот к примеру вариант:
Промпты masterpiece, best quality, girl, black hair, brown eyes, green shirt, blue jeans, smile
и дальше меняю floppy dog ears и floppy_dog_ears
Негативные промпты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers)), tail,
Steps: 40, Sampler: Euler a, CFG scale: 11, Seed: 282, Size: 512x704, Model hash: 925997e9, Model: NovelAI, Clip skip: 2, ENSD: 31337
NAIFU: NovelAI model + backend + frontend
Runs on Windows/Linux on Nvidia with 8GB RAM. Entirely offline after installing python dependencies.
Web frontend is really good, with danbooru tag suggestions, past generation history, and mobile support.
Have fun!
magnet:?xt=urn:btih:4a4b483d4a5840b6e1fee6b0ca1582c979434e4d&dn=naifu&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce
Ну а про различия в качества генерации, тут мимо. Результат генерируют обе они одинаковый, нужно лишь правильно подобрать настройки stable diffusion и правильно задать промпты.
Если у меня только такой косяк, значит я что-то не так сделал.
Seed изображения 3091775605, 704x1024, 40 шагов со скейлов в 15, какой сэмплер у тебя стоит?
Попробуй так же отключить undesired content (Low Quality + Bad Anatomy), ибо негативные промпты я вижу ты уже ввёл туда, и могут просто дублироваться и ломать из за этого.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017
Если кратко, то позволяет эмулировать результаты выдаваемые другим ПО. Ну и delta seed который нам поможет эмулировать результаты NAI является 31337.
Про CLIP skip вот - https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#ignore-last-layers-of-clip-model
masterpiece, best quality, tatsumaki_\(one-punch_man\), \(\(\(tatsumaki\)\)\), 1girl, sweat, \(\(\(\(\(masterpiece\)\)\)\)\), extremely detailed, \(\(soft lighting\)\),
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name
Steps: 40, Sampler: Euler a, CFG scale: 15, Seed: 3091775605, Size: 704x1024, Model hash: 925997e9, Model: NovelAI, Clip skip: 2, ENSD: 31337
Полезно при переводе промптов с оригинального NovelAI в Stable Diffusion. В оригинальном NovelAI скобки () не имеют смысла, вместо них для усиления акцента работают фигурные {}. Поэтому если перенести промпт с скобками из NAI в SD, то перестанут работать {} и станут активны () которые автор не задумывал для усиления акцента.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#attentionemphasis
А) По максимуму снять нагрузку с видеопамяти, закрыв лишние процессы которые её жрут.
Б) Уменьшить разрешение создаваемого изображения.
На моей RTX 3080, я стараюсь не генерить больше чем 1024x1024, так или иначе можно потом поднять апскелерами разрешение если захочется.
Подскажите, Stable-Diffusion вообще возможно запустить на ноуте со встройкой от интел? Или хорошая дискретная карта от nvidia обязательна?
(masterpiece))Cute Boy, gray eyes, red handkerchief tie, one big gray fox tail, fox ears, short hair, fox ears, white shirt, no panties, penis,
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username,
Либо если какие то запросы просто начинают неучитываться сеткой, попробуй добавить им акцент, заключив их круглые скобки - (word)
А то что-то (не)приличное получается только с yiffy, но там фурри.
Уважаемые, если вам необходима гуманитарка с данными проптами, пишите сразу в лс.
Могу вот краткий гайдлайн по промптам накидать, что бы можно было собирать самому.
Я делю создание проптов на несколько частей:
1.Персонаж - кто или что, как выглядит, во что одет, что делает.
2.Окружение - ночь, улица, фонарь, аптека и т.д
3.Стилизация - Киберпанк, тёмное фентези и прочее
4.Эффекты - Туман, блики, освещение, детализация, и ещё тонна вариантов
5.Не обязательно - в самом конце можно написать - by (имя какого нибудь художника, студии) и т.д... И она попробует нарисовать в этом стиле если хочется.
Если ваш парсонаж уже впринцепе существует, например какой нибудь Геральт, то ищем максимально детальную пикчу с ним и выводим на второй экран, телефон и подмечаем детали, как шрамы, побрякушки, материалы снаряжения, чем больше, тем лучше.
Если персонажа создаём спонтанно, то тут уже, как у кого фантазия играет.
Не забываем пользоваться негативными проптами, невероятно полезно.
Полируем по необходимости отдельные промпты скобками ()[], если хотим, акцентировать над чем то внимание в композиции, или если какая то деталь не получает нужного внимания или наоборот глушим акцент со слишком мешающейся, но нужной композиции детали.
Ну и конечно нужно некоторое количество попыток и терпения, что бы сгенерировать то, что захочется сохранить себе на диск.
Если бы еще и негативные писали бы.....
Негативные промпты довольно ситуативны. Допустим делаем арт какой нибудь машины, но подставляем негативные промпты которые подошли бы при генерации персонажа, например с исправлением пальцев, деформаций и т.д... В этом не так много смысла не так ли?
Но вот если я сгенерирую машину например по запросу "man sitting in red ferrari car and hold desert eagle" и у нас вместо мужика в красной феррари с диглом в руке, будет пустыня в которой мужик в машине держит в руке красного пернатого орла, то тогда мы можем применить соответствующие негативные промпты, например, что то вроде animal, bird и desert, что бы убрать подобное недоразумение. Надеюсь пример был понятен и не слишком абсурден, придумал на ходу, на часах 8 утра, ща ток пойду спать и мозг чутка плывёт xd
Negative prompt: lowres, (((bad anatomy))), bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers))
Оперативы на пк 12гигов, видеопамяти 4 гига, аргумент запуска прописан --medvram.
В гайде мы устанавливаем animefull-final-pruned. Но там есть еще и animefull-final, который весит на 3 гига больше вроде как. Первая это SFW, вторая NSFW? Или в чем их разница? (Я просто с дуру выкачал все 50+ гигов и теперь пытаюсь хоть как-то оправдать затраченное время)
Можно сделать это через батник запуска, добавив строчку git pull над call webui.bat
А насколько вообще эта нейронка с этой моделью может в NSFW контент? Просто сольная около эротика? Или есть какие-то колдунские промпты для отрисовки полноценного NSFW контента? Ибо мои попытки привели к каким-то экстра ужасным результатам.
Попытался сменить модель на Hentai Diffusial - лучше не сильно стало. Сам хентайный контент начал рисоваться лучше, но качество самих генераций споткнулось :D
https://rentry.org/sdmodels
если получится сгенерить хоть что-то, буду рад если поделишься инфой.
https://huggingface.co/Deltaadams/Hentai-Diffusion/discussions/16
Тут короткая инструкция о том как в SD поставить Hentai Diffusion. Если знаний нет английского даже минимальных, то можешь воспользоваться переводчиком deepl - вроде справляется на уровне.
Если кратко: Скачать ckpt файла хентай дифьюжена, кинуть в папку ..\models\Stable-diffusion
В самом веб интерфейсе переключить чекпоинт на HD.
Но сейчас борюсь с другими проблемами с нейронкой, так что просто забил :D
Никто случаем решения не заимел? (4 гига видеопамяти, 12 оперативы, --medvram в аргументах)
С космонавтом изображение по умолчанию.
Все делал по гайдам, все работает но на выходе вместо чего либо черный, серый, квадрат и все...
С любыми настройками...
Куда копать ?
RX590
NovelAi Работает на проце((
Запустил быстро, не считая дырявого токена, который меня взбесил еще на Stable ветке.
Про черные, серые квадраты на выходе не встречал. Мейби что-то упустил. Данный выше гайд более анимешный (Waifu Diffusion). Если нужен именно Stable, то вот У меня rx5700xt, может у rx590 какие-то траблы есть хз, на 580 вроде работает норм
Проблема оказывается была в количестве шагов.
Для тех у кого будет подобное, советую начинать с 5 и увеличивать по нарастающей.
Runtime Error: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 4.00 GiB total capacity; 3.02 GiB already allocated; 0 bytes free; 3.04 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Видеокарта - gtx 1050ti
Где изменить max split size?
Сам гиперсети я юзаю не часто, если и использую, то только те, что тренирую сам, на свою рожу, на определённого автора или стиль. Те, что идут по умолчанию с NovelAI как по мне довольно скучные.
Да, под перекачать заного имею в виду полностью снести имеющуюся stable-diffusion-webui (можно забэкапить файлы моделей там, embeddings, стили кастомные и скриптики если есть). И заного через команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git поставить всё по новой. Один раз у меня самого поламалось что то и git pull не помогал ни в какую. По этому на всякий на втором диске держу бэкап и раз в недельку перезаписываю.
Пили гайд)
По поводу качества тут сказать и спорить не смогу, ибо не тестил. Было бы хорошо проверить на одинаковых сидах и настройках, как они обе отрабатывают сценарии с отрисовкой пальцев, лиц, и прочего.
А для img2img, как основа используется изображение, ну собственно поэтому и называется Image to Image, преобразование одного изображения в другое.
Фигурные скобки {} только в оффициальном NAI https://novelai.net/image
https://joyreactor.cc/post/5352923
При первом запуске качает файлы, которые размещаются в "C:\Users\Егор\.cache\huggingface\transformers\"
И на последнем файле который на 1,5 Гб выдаёт какую-то ошибку, типа не хватает памяти, хотя скачалось полностью и на диске ещё 7 гигов свободно. И при повторном запуске пишет как на скрине.
В чём может быть ошибка и возможно ли чтобы скачивание шло не на диск C?
1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui
¯\_(ツ)_/¯
пишет:
https://pastebin.com/raw/BKVtGMwY
File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 255, in
prepare_enviroment()
File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 179, in prepare_enviroment
run_pip(f"install {gfpgan_package}", "gfpgan")
File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 63, in run_pip
return run(f'"{python}" -m pip {args} --prefer-binary{index_url_line}', desc=f"Installing {desc}", errdesc=f"Couldn't install {desc}")
File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 34, in run
raise RuntimeError(message)
RuntimeError: Couldn't install gfpgan.
ERROR: Cannot find command 'git' - do you have 'git' installed and in your PATH?
У тебя видимо не установлен GIT
Что означает, что ты его вроде бы установил, но что то пошло не так. Попробуй обновить его, как он просит.
Либо попробуй переустановить, чётко следуя инструкции автора - https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installation-on-windows
1. установить https://github.com/git-for-windows/git/releases/download/v2.37.3.windows.1/Git-2.37.3-64-bit.exe
2. в нужной папке по ПКМ - "Git Bash here" - "git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui"
а далее тупо по директории /models/Stable-diffusion закинуть .ckpt файл. запустить webui-user.bat
все
ошибка, https://pastebin.com/raw/d2pq77Pp
Скачай wd-1-4-anime_e1.yaml и помести рядом с .ckpt моделью, называться должны одинаково.
https://huggingface.co/hakurei/waifu-diffusion-v1-4/blob/main/wd-1-4-anime_e1.yaml
To create a public link, set `share=True` in `launch()`.
? на "True"?
set COMMANDLINE_ARGS=--share
То, что в консоли в конце запуска пишет это, не более чем напоминалка о том, что так можно сделать.
Рекомендую прочитать вики, если есть вопрос, то скорее всего ответ есть там - https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Command-Line-Arguments-and-Settings
далее, при запуске пишет теперь такую ошибку https://pastebin.com/raw/CZLscXDb
и перезагрузка больше не помогает
Лучше спросить у мудрецов напрямую - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/new
проблема оказалось в sata подключении диска. у меня чередующийся, динамический и грузило только один физический ссд, а второй простаивал в итоге к части данным не мог софт обратиться, ну как я думаю¯\_(ツ)_/¯ хотя по приколу до того как обнаружил это успел и venv переустановить. а вместе с ним и еще что-то напереустанавливалось.. наверное от того у меня теперь новая ошибка - https://pastebin.com/raw/cHzReAUT как ее решить? или тупо полная переустановка поможет?))
с старым каталогом не разбирался что да как. раз не стал помогать _
Extensions > Install from URL > URL for extension's git repository: https://github.com/Mikubill/sd-webui-controlnet
выставляю эту ссылку. у меня в логе пишет:
https://pastebin.com/raw/cL50Vvs0 OSError: [WinError 5]
... ничего не получается с одного раза установить
запуская через пкм- запустить от имени администратора
Но у меня лично с ControlNet проблем не было, я даже попробовал его переустановить с нуля, словил такую же ошибку, что была у тебя, но работоспособности расширения это никак не сказалось. Просто после этого сообщения, я применил его и перезапустил SD, и всё спокойно работает.
Установи по инструкции Python 3.10.6 (Во время установки поставь чек на Add Python to PATH)
Установи GIT
И потом запусти команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
После перейди в папку куда у тебя это установилось, закинь нужные тебе модели в папку с моделями.
И запусти батник webui-user.bat дальше он сам подкачает и доставит всё необходимое.
https://github.com/AUTOMATIC1111/stable-diffusion-webui#installation-and-running
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs
Возможно из за этого он и не видит путь до питона.
1) Качаем Python версии 3.10.6 - https://www.python.org/downloads/windows/ , во время его установки начале ставим чек напротив "Add Python to PATH".
2) Устанавливаем GIT - https://git-scm.com/download/win не трогая никакие настройки по худу установки, разве что можно выбрать какой "блокнот" хочется оставить.
3) Устанавливаем файлы из репозитория AUTOMATIC1111. Я обычно перехожу в C:\Users\[User]\ или можно выбрать другое удобное место, и от туда вызываю командную строку и запускаю команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git , должна будет скачаться папка stable-diffusion-webui
4) В папку \stable-diffusion-webui\models\Stable-diffusion\ закидываем модели которые хотим.
5) Запускаем webui-user.bat из корня папки и оно до качает остальное и в конце предложит ввести в браузер ссылку, что бы перейти уже непосредственно в webui SD для дальнейшей работы.
Если, что то не заработает по этому гайду, то я уже врятли смогу помочь
Если хреново генерит по умолчанию, то зайди в webui-user.bat и в строке с set COMMANDLINE_ARGS= добавь --medvram --precision full --no-half. Должно получиться
set COMMANDLINE_ARGS=--medvram --precision full --no-half
И чёрные картинки могут получиться если выставить разрешение для генерируемой картинки слишком высоким. Рекомендую если ты не на хай-энд пк каком ни будь, то генерить в разрешениях близких к 512x512, поднять разрешение понравившейся картинки потом можно апскейлером в том же SD в разделе Extras.
Ну а по поводу двух разных персонажей, то простого txt2img не хватит, потребуется дорисовывать второго персонажа в img2img уже рядом со вторым через inpainting
Уж не знаю сколько раз я пытался поставить все это дело, но все никак не выходит
Выдает следующую ошибку. Надеюсь на помощь и что время не пропало зря
У меня вот как бы есть проблемка, не выходит поставить стабильную диффузию из магнит ссылки, всё по пунктам автора ставил, так же удалял папку .кэш, но не хочет, со стандартной ток работает, при попытке переключить на стороннюю - еррорс (скрин ниже)
А на стандарте - ну пока не плохо(результат прикреплю в комм), даже нрав результаты) Моя Благодарность автору =*
Так, же вижу, что сетка видимо ставилась в ручную скачиванием папки с гита и разархивацией. В таком случае корневую папку сетки лучше назвать просто "
stable-diffusion-webui" без -master.
Часто возникают проблемы, что сетка начинает бугуртить, если лежит не в том месте или не так.
Ну и нужно всё таки найти модель, которая не хочет отрубать защиту, а то генерить разное, конечно хорошо, но безопасность никто не отменял.
Сейчас переименую убрав "мастера" с названия и отпишусь если поможет, если нет - переустановлю в авто.
Пасиб за быстрый ответ
Отредактируем батник webui-user.bat добавив в строку с аргументами set COMMANDLINE_ARGS= аргумент --deepdanbooru
Запускаем сетку, в настройках рекомендую включить чексбокс (use spaces for tags in deepbooru), переходим в раздел img2img, перетаскиваем туда понравившуюся картинку и жмём Interrogate DeepBooru, при первом запуске прийдётсся подождать, ибо она подкачает нужные файлы.
Вот небольшой гайд на английском, если не хватает картинок для пояснения https://gigazine.net/gsc_news/en/20221012-automatic1111-stable-diffusion-webui-deep-danbooru/
Для твоего изображения предложило следующие промпты - 1boy, 1girl, after paizuri, bangs, bar censor, black hair, blurry, blush, bow, breast squeeze, breasts, censored, cum, cum on body, cum on breasts, cum on clothes, cum on hair, cum on penis, ejaculation, facial, hetero, long hair, long sleeves, looking at viewer, low twintails, male pubic hair, mosaic censoring, paizuri, paizuri under clothes, penis, pov, projectile cum, pubic hair, purple eyes, school uniform, see-through, shirt, smile, solo focus, twintails, wet
Спасибо большое
Удали эту версию питона, так же удали папку с stable difusion, установи Python версии 3.10.6 и после опять ставим SD и всё должно работать.
Вот на всякий моя последовательность надёжной установки - https://joyreactor.cc/post/5352923#comment26802657
Касаемо настроек, когда работаем с NovelAI моделью, то лучше выставить "eta noise seed delta": 31337 и ползунок "Stop At last layers of CLIP model" на 2
0 - идентичное, без изменений
1 - Полностью оригинальное, ничего общего.
Ну и промежуточные значения между 0 и 1, уже подбираем под свои хотелки и нужды.
Необходимо откатить fastapi, как я понял.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/7714#issuecomment-1426058038
а так, жаль что норм ру сообщества по sd и прочим нейросеткам нет
При нажатии клавиши interrogate deepdabaroo в img2img возникает данная ошибка. Не знаете в чем может быть проблема?