Модель NovelAI под Stable-Diffusion / NovelAI :: Stable diffusion :: длиннопост :: нейросети

нейросети Stable diffusion длиннопост NovelAI 

Модель NovelAI под Stable-Diffusion

Там недавно слили исходники NovelAI, на сколько знаю сервис генерит истории по описанию, что то вроде AI Dungeon. Но с 3 октября у них появилась фича генерить и изображения по описанию. Собственно слили и её.

Автор репозитория одной из сборок, AUTOMATIC1111 добавил в свою сборку поддержку работы новых слитых моделей ,его кстати забанили в офф. дискорде Stable Diffusion после произошедшего.

Если хотим поиграться с новой моделью, а выдаёт она довольно неплохие результаты, то нам нужно:

1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui

2. Качаем модель (у них есть NSFW и SFW версии) и некоторые ещё необходимые вещи из слитых материалов - magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak

Name > □ > > > > > > > > > > □ □ □ □ □ novelaileak github stableckpt Q animefull-final-pruned □ animefull-latest □ animefull-prevgood □ animesfw-final-pruned □ animesfw-latest □ animesfw-prevgood □ extra-sd-prune Q modules O vector_adjust Q animevae.pt □ clean.py workspace

3. Переименуйте model.ckpt, что лежит внутри animefull-final-pruned в любоеназвание.ckpt. например в novelai.ckpt, теперь переименуем animevae.pt в название которое мы дали предыдущему файлу и добавляем к нему .vae.pt к примеру в novelai.vae.pt... Теперь заходим директорию \stable-diffusion-webui\, заходим в папку models и создаём там папку с именем hypernetworks и кидаем в неё файлы aini.pt, anime.pt, anime_2.pt и т.д из папки modules, что мы скачивали. Теперь в папку \models\Stable-diffusion\ с основными моделями что мы используем, переносим ранее переименованый файл novelai.ckpt и файл novelai.vae.pt

4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork

outputs/extras-i mages Output directory for grids; if empty, defaults to two directories below Output directory for txt2img grids outputs/txt2img-grids Output directory for img2img grids outputs/img2img-grids Directory for saving images using the Save button log/images System VRAM usage

5. Готово, можем работать с новой моделью.

NovelAI использует CFG:11 и негативные промты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, поэтому если хотите результаты похожие на те, что генерит оригинальная, то используйте эти параметры.

В некоторых промптах взятых напрямую из NovelAI может встречаться синтаксис {}. Он предназначен только для официального сервиса NovelAI. Так же усиливает акцент, как и (), но акцентирование увеличивается только в 1,05 раза вместо 1.1 с (). Поэтому если прям точь в точь повторить результат с понравившегося промпта, что увидели в интернетиках, то используем (слово:1.05) или видим {{}}, то используем (слово:1.1025)... А лучше почитайте https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features для понимания всяких тонких фишек.

Ну надеюсь всё правильно описал расписал. Если есть вопросы спрашивайте, если они в рамках понимания моего разума, то отвечу. Ниже приложу пару примеров изображений и промптов к ним, которые способна выдать модель. К слову через эту модель лучше генерить всякие анимешные арты ибо они там получаются лучше всего.

Мои:

((masterpiece)), painting of a ((Mandalorian)) bounty hunter, Star wars, Tatooine, space, stars, art by John J. Park
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3998559443, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

((masterpiece)), girl,red dress,short hair,summer, twintails, black hair,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3013799092, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

Из Discord'a NovelAI:

copic, thick outlines, {{mohawk, shaved sides}}, 1girl, {vibrant}, deep shadows, deep space, {{80s, scifi, movie poster}}, skin tight spacesuit, jumpsuit, {power armor}, {{small breasts}}, closeup, detailed eyes, torso, headshot

нейросети,Stable diffusion,длиннопост,NovelAI

{{BEST QUALITY}}, {{MASTERPIECE}}, {{HIGH RES}}, {{CINEMATIC LIGHTING}}, {{DETAILED}}, {{TELEPHOTO LENS}}, beautiful hd background, high detailed background, {realistic shadows}, HD shadows, {{{midjourney}}}, tarte (hodarake), Anor Lando, avataart, Andy Livy, by dark album, god teir background art, realistic, realistic portrait, masterpiece portrait, {{{{{{MASTERPIECE}}}}}}, sharp, photo realistic, background focus, {{{{{background only}}}}}, futuristic city, future, advanced technology, neon lights, holograms, flying ships, buildings metalic silver , advanced civilization, year 5096 , science fiction, sci-fi, futuristic dome, matrix

нейросети,Stable diffusion,длиннопост,NovelAI

{white hair}, {very long hair}, gloves, black yellow coat, bandaged wrist, torn clothes, {{black}} eyeshadow, black and white eyes, earrings, {{floating crown}}, {star halo}, detached wings, {{masterpiece}}, {1girl}, black smear on right side of face, space background, {goddess}, {standing on a white platform}, {star symbol on clothes}, star earrings, {{medium}} breasts, bandaged torso, patterns on eye pupils, long majestic black yellow coat, chain earrings, makeup, large black and yellow coat, inside a cathedral at night, {detailed large crown}, character focus, floating stars, presenting a menger cube, magic cubes on background, dark magic, serious, {divine}, {{teenage}}, mini universe above hand, black cubes on the background, supernova on the background, decorated hair, covered body, {{{black background}}}, light above head, spirals on background, fractal patterns, {{dirty face}}, bandaged arms, fractal background

нейросети,Stable diffusion,длиннопост,NovelAI


Подробнее
Name > □ > > > > > > > > > > □ □ □ □ □ novelaileak github stableckpt Q animefull-final-pruned □ animefull-latest □ animefull-prevgood □ animesfw-final-pruned □ animesfw-latest □ animesfw-prevgood □ extra-sd-prune Q modules O vector_adjust Q animevae.pt □ clean.py workspace aboutus.gpg readme.txt [D sha256sum sha256sum.sig
outputs/extras-i mages Output directory for grids; if empty, defaults to two directories below Output directory for txt2img grids outputs/txt2img-grids Output directory for img2img grids outputs/img2img-grids Directory for saving images using the Save button log/images System VRAM usage polls per second during generation. Set to 0 to disable. 0 Always print all generation info to standard output Add a second progress bar to the console that shows progress for an entire job. Stable Diffusion Stable Diffusion checkpoint final-pruned.ckpt [925997e9] Stable Diffusion finetune hypernetwork anime v »■__ aini anime anime_2 anime_3 furry furry_2 furry_3 furry_kemono furry_protogen furry_scalie furry_transformation pony Emphasis: use (text) to make model pay more attention to text and w [text] to make it pay less attention Use old emphasis implementation. Can be useful to reproduce old seeds. Make K-diffusion samplers produce same images in a batch as when making a single image Filter NSFW content Ignore last layers of CLIP model Allowed categories for random artists selection when using the Roll button anime black-white c cartoon digipa-high-impact digipa-low-impact digipa-med-impact fareast fineart n nudity scribbles special ukioe weird eta (noise multiplier) for ancestral samplers img2img DDIM discretize £ uniform quad sigma churn sigma tmin sigma noise Request browser notifications





нейросети,Stable diffusion,длиннопост,NovelAI
Еще на тему
Развернуть
Когда нейронки начнут уже заниматься полезным делом?
В эту статью нужно добавить как можно больше косплееров-лесбиянок. Также сюда можно добавить интересные факты, картинки и прочие кошерные вещи.
Чем порнуха не полезное?
Сложна. Это что, хабр?

А вообще по изображениям выглядит гораздо лучше чем то что делает Dall E 2/Stable Diffusion

Т.е. в принципе никаких намёков что это делала нейросеть (ну почти), все глаза, руки, пальцы на месте, анатомически верные пропорции и позы.

Это из-за того что больше ресурсов на своей машине, или в принципе модель на порядок лучше, потому и сливтая, а не опенсорс?
Вот гайд с реддита (удалённый), он покороче но английском. https://www.reveddit.com/v/StableDiffusion/comments/xxxx94/guide_to_set_up_the_leaked_novelai_model_for/
Н
Касаемо качества тут точно не скажу, но видимо тренеровали лучше, на сколько почитал в срачах в дискорде, то модель тренировали на датасете Danbooru, ну и правильно указаные промпты так же важны, для хорошей генерации изображения. Без тех же негативных промптов, что я указывал, некоторые изображения персонажей будут мутантами с несколькими руками или пальцами или прочими деформациями.
Это и есть Stable Diffusion, просто модифицированная и дохуя натренерованная.
У меня так и не получилось заставить сборку работать( CUDA не может получить доступ к процу, поэтому программа не работает.
У тебя какая видеокарта?
GTX 1060.
На сколько она гигов?
В файле webui-user.bat, в стоке "COMMANDLINE_ARGS= " добавь аргумент --medvram.
А лучше скинь скрин ошибки, что бы точно понять в чём трабл.
А дрова/сдк кудовские ставил? Гдето гиг с сайта нвидии против обычных игровых.
Я скачивал CUDA tollkit с сайта NVidia, но как я понял там нет моей винды (8.1). Я скачивал для 10-ой, но видать не подходит.
Как там сейчас не знаю но пару лет назад была проблема (когда кула в матлаье приспичила) что сдк не ставился изза того что игровые дрова были новее чем те что шли в составе сдк. Приходилось сносить дрова и под 800х600 ставить кудовский тулкит. Возможно попробуй поискать и поставить более старую версию. Или конкретно почитать про совместимость с 8.1 виндой.
На скрине питон явно ругается что его модуль работы с кудой не доступен еще на этапе инициализации торча.
курс художников
Пока ещё всё не так плохо. Для игр художники всё ещё будут актуальны, по крайней мере пока люди не научатся вбивать запросы так, чтобы все 100 необходимых картинок были в одной стилистике и подходили для анимирования
Ну для подгона под один стиль уже намутили Textual inversion. Нужно только натренить на определённый стиль и вуаля. Не идеально пока конечно, но как же быстро всё сегодня развивается.
https://textual-inversion.github.io/
это всё вопрос более обученной рейросети. нейросети будут становиться сложнее и умнее. может на нашем веку увидим вторую серию идиота 1958 года.
Весь саб на реддите уже завален self-insert'ом авторов куда только можно с помощью textual inversion и dreambooth
Но в любом случае пока это не замена художников, но очень хороший тулинг и замена стоков. Очень большие проблемы с деталями и конкретными объектами, например, я так и не смог нарисовать с нуля нормалньое оружие, приходится готовить заготовку руками и генерить с неё. Проблемы с большими разрешениями (требует крутой техники, начинаются повторы и дублирования). Но в целом сейчас это позволяет рисовать даже таким криворуким пидорам как я.
Попытался сделать демонического воина, час убил точно (справа до, слева после доработки напильником):
Предсказания в прошлом: роботы займутся монотонноц тяжелой работой, оставив человеку больше времени на творческие занятия!

Реальность: Роботы отбирают у людей творческие занятия, а монотонная тяжелая работа все ещё не может быть автоматизирована.
Это еще фантастика предсказывала: в далекой-далекой, где высокие технологии и андроиды, рабы все еще дешевле железки на батарейках. Дворники и грузчики могут спать спокойно.
А что собственно в рисовании творческого? Творчество - это задумка, идея. Остальное же это тупо тяжёлое монотонное задрачивание техники, слои, отрисовка деталей, и стирка стирка стирка.
Ну да, ведь все рисуют абсолютно одинаково, и сразу в идеальной точности то что представили в голове.
Ну да, ведь ИИ рисует абсолютно одинаково, и сразу в идеальной точнсти то, что человек представил в голове
"а монотонная тяжелая работа все ещё не может быть автоматизирована."
человеки тупо дешевле
Пфф, судя по тому какую мазню продают за миллионы на выставках, будет просто разделение в котором среди мажоров появится дополнительный критерий ценности = создано кривыми руками живого художника =)
Бля, а можно просто в комментах за спасибо заказывать картинки и смотреть, что нейросеть сгенерирует? Хотел установить Stable, но запарился и бросил это дело.
Было бы интересно видеть к примеру кроссовер вахи 40к и деад спейса
Буду у компа, попробую накуралесить. Опиши пока максимально жирно, как Толстой, чего узреть желаешь.
Ну допустим:
2 планеты в одной системе.
Одна планета - это братская луна, вторая же - Кадия. Братская луна выходит из варпа навстречу Кадии. А в этот момент луну обстреливают линкоры Империума. Как-то так
Кароче, на NovelAI получались уж совсем странные вещи, переставил на sd-1.4, но думаю они теперь относительно различимые, но всё ещё странные... Точно, по описанию, как по крайней мере представил себе я, не получилось, но уж что получилось, то получилось. Залил на https://imgur.com/a/KFqtcjy , что бы тут не пугать мимо проходящих.
Выглядит как типичная баталия во вселенной 40K. Но за отклик спасибо
Я ещё с одним запросом.
Как насчёт совместить Morrowind и стиль Хаяо Миядзаки?
Ого. Выглядит как минимум необычно. Благодарю
Так. Я, как мамкин программист, ничего не понял, но хочу разобраться. И у меня есть несколько вопросов для начала. 1. Это на Линукс? 2. Пункта 1 и 2 для работы достаточно или необходимо устанавливать дополнительный софт?
Из меня самого программист, как балерина, и я в этой "теме" относительно пару месяцев, так, что ничего страшного. Единственное, что может быть ограничением, это твоё железо, ибо это крайне ресурсотребовательный к видеокарте процесс, но вполне можно запустить на облачном сервисе или google colab.
Впервую очередь необходимо установить stable diffusion webui, берём его от автора AUTOMATIC1111.
Вот инструкция под установку на Linux https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installation-on-linux или вот ещё https://rentry.org/voldy но на английском, там есть описание всяких популярных ошибок и вопросов.
Так же инструкции выше предложат скачать популярные модели вроде stable-diffusion-v-1-4 или waifu-diffusion, эти пункты можно пропустить, так как мы пока ставим модель NovelAI, но всё же их я бы тоже поставил.
Вот есть гайд
на youtube от англоязычного человека, там он довольно кратко и по делу показывает процесс установки, но под винду.
Далее запускаем и проверяем, работает ли. Если нет копируем ошибку, и ищем её в обсуждениях на гите этого репозитория, или спрашиваем тут, может разберёмся.
После следуем инструкции, что расписывал я, иии ну вроде всё должно быть в шоколаде.
Большое спасибо. Все заработало. Не с первого раза и не с линукса, но работает)
И из доп софта нам потребуется Python и GIT
Может кто подсказать сервис/нейронку, чтобы спрогнозировать события на основе кучи данных, что уже имеются?
Головной мозг. Но нужно долго обучать сперва
Комиксы от corruptor
Нейронка это не сильный ИИ которому можно сказать "на данные, сделай с ними чето". Её нужно обучить на своих данных, данные тоже почистить, для этого нужно знать как это делать и тд. И хрен знает что у тебя вообще за задачи, может тебе линейной/полиномиальной регрессии бы хватило.
Энивей, всё зависит от данных, из слов "куча данных" никаких тебе рекомендаций что с ними делать никто не даст.
Уже что-то. Спасибо
нет с курсом так не прокатит
Автоматик кстати русский. Там из-за слива его турнули с главного дискорд сервера Stabble Diffusion, назвали его вором, хотя он ни строчки кода из слитых исходников не взял, ну и обещали судебными разбирательствами. А ну еще сказали, что он поступает неэтично.
»89048785 If OUR GUY goes to jail I will go to him. Life has no purpose anymore without prompting. ¡>>89048966. ■ Anonymous ITth 07 OKTfl6pa 2022 16:55:09 No.89048906 X ► ■! 443 \nonymi »89048856 What jail are you talking about? I live in Russia 4896% »89048965, »89049012
Ох, ну то что он русский я не знал. Может ещё и на реахтуре сидит? Как тесен мир...
Это за то что он добавил поддержку novelai, который обучался на картиночках из danbooru без разрешения их авторов? Можно ли сказать, что он спиздил спизженное?
Да там в принципе вся ситуация с лицензиями достаточно забавная. Учитывая лицензию самого Stable Diffusion, в общем там тот еще цирк. Но все эти разговоры про не этичность позабавили. Он делает поддержку - не этично. Они без разрешения авторов юзают их работы для датасета, чтобы зарабатывать на этом бабло - этично.
Не знаю насколько ситуация с novelai юридически легально, но если то что они делают считаются легальным, то это открывает возможность "отмывания" авторских прав. Обучаем нейросетку некоторым образом на целевом изображении, генерим почти или абсолютно идентичное изображение (с датасетом в одну картинку думаю это не сложно), продаем сгенерированное изображение как свое. profit!
Там сложнее все, оно хуево прописано, но тебя всеравно засудят. Я хуевьій студент, но у нас прям отдельная тема про єто бьіла на Правовом захисті в универе. И датасет, и нейронка имеет собственньіх авторов и владельцев и хер его знает брали вообще StableDiffusion хоть у кого-то право на использование их работ или решили наебать всех и только с владельцем датасета(например тем же Danbooru) договорились.
сами нейросетки в основе своей пиздят сделаное другими
Я бы не стал так категоричен. Во первых, нейросетки можно сделать так, чтобы он обобщал и абстрагировал входные данные. Тогда обозвать то что сгенерено тупой копипастой или комбинацией входных картиночек не совсем получится. Во вторых, всегда можно использовать для обучения только те данные, на которых у тебя есть разрешение на такое вот использование.
У меня работает нормально, но судя по всему за счет процессора, по крайней мере нагрузки на видео нет вообще. Там можно как-то отследить выбирать через что генерить?
А что за видеокарта?
nvidia 1060 6гб
В целом скорость на проце "1.1 it/s" но хз может на карте будет быстрее.
Да в общем судя по всему с такой скоростью на видяхе и работает. На проце было бы гораздо дольше. Там надо смотреть на потребление видопамяти, если увеличивается во время генерации, то работает. Но еще раз говорю для проца слишком большая скорость. Если у тебя конечно не стоит какой-нибудь ксеон последнего поколения с 50 ядрами за 10к баксов.
Все в порядке, на 1050 по 1.5 секунды на итерацию. Сэмплер тоже влияет, но я все на Euler a генерю, ему хватает 10-14 итераций, в то время как Dpm 2 a тратит уже по 2.4 секунду, и надо ему 80+ итераций. Результат, конечно, графонистее, но не всегда и не такой ценой
Ну как таковой нагрузки на видеокарту вроде особо и не будет, будет использоваться выделенная память видюхи. Вот к примеру как у меня выглядит производителоность пк во время генерации картиночек
id cables, strong wind, strong rim 4) Interrupt Skip ® 44/75 Apply style Create style nal quality, jpeg artifacts, signature, 55% I© Диспетчер задач □ X Файл Параметры Вид Процессы Производительность Журнал приложений Автозагрузка Пользователи Подробности Службы ЦП 27% 4,88 ГГц
Как обучить такую сетку? А то везде только как использовать.
Ну из самого доступного, можно натренировать модель с помощью Dreambooth. Но там минимум желательна видеокарта на 24GB памяти. А лучше вообще какие то профессиональные решения.
https://github.com/JoePenna/Dreambooth-Stable-Diffusion
Такие сетки обучают(если вообще с нуля), насколько я знаю, обычно на кластере из кучи топовых видях на протяжении недель. Оно тебе надо?
Обычно берут уже претренированные веса, в которых, грубо говоря, сетка научилась уже распознавать разные распространенные образы, паттерны и тд и потом дают ей свой специфический датасет чтобы она еще немного подучилась и запомнила хорошо именно те образы которые ты хочешь ей скормить. Так да, так сетки обучают различные исследователи. А вот именно базовые образы тренятся на кластерах где-нибудь в гуглах, амазонах и фейсбуках.
У кого-нибудь скачалась магнитка magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak из поста?
У меня несколько часов уже стоит, не может пиров найти. Подкиньте пожалуйста парочку если у вас скачалось
v1294134.hosted-by-vdsina.ru:51009
1.30.246.57:49494
113.200.219.50:56111
cpe989d5deca6c3-cm989d5deca6c1.cpe.net.cable.rogers.com:28257
114.254.89.5:6881
180.174.130.127:15277
193.32.126.233:55162
112.109.246.148:46614
115.20.169.171:6792
49.169.196.151:35166
fp73a398e9.chbd207.ap.nuro.jp:51025
117.152.223.204:18250
75.172.20.42:55670
221.2.164.39:54844
124.133.245.140:9043
ppp-94-69-149-123.home.otenet.gr:65207
ip34.ip-51-254-183.eu:20007
c188-150-91-17.bredband.tele2.se:59671
nz45l84.bb60246.ctm.net:1179
222.187.148.76:5228
185.21.216.149:48609
pppoe.ach-1-bng031.sibttk.net:13354
119.162.184.248:61137
27.212.93.229:57273
139.227.185.80:33536
Спасибо тебе, добрый человек!
Тебе удалось скачать? Я добавлял разные ip из этого списка, но закачка так и не пошла.
да, вполне себе скачалось
Тебе залить куда-нибудь?
Я, и думаю, многие другие, были бы очень тебе благодарны за это.
https://mega.nz/folder/ZdljSKwR#D_4zd7HF2A-gaYURIfRCqw
Залил только те файлы которые на скрине в посте выбраны, полный набор файлов 20+ гб весит
Лучей добра тебе, добрый человек!
сюда закинул все 52 гб, через архив https://t.me/+RNuGAoeTmcRhYzky
Кстати, так как AUTOMATIC1111 обновляет свой репозиторий как бешеный почти каждый день по 20 раз, то рекомендую добавить в наш батник webui-user.bat из которого запускаем stable diffusion, одну строчку git pull прямо над call webui.bat, что бы при запуске сетки, у нас она проверяла обновления и если таковые есть, устанавливала их.
Ы webuKJser bat □ 1 echo off 2 3 set PYTHON= 4 set GIT= 5 set VENV_DIR= 6 set COMMANDLINE_ARGS 7 3 #git pullj 9 call webui.bat
А есть слитый репозиторий novelai для генерации текста?
Есть, но там всё плохо. Для генерации текста нужно 40 с гаком гигов видеопамяти.
Линканите пожалуйста торрент текстовой нейронки - не гуглиться.Теоретически её можно наверно через гугл коллаб запустить, типа как Kobold AI, там монстры на 20b параметров шустро работают.
Спасибо топик стартеру и отписавшимся по теме в треде. Всегда приятно встретить на реакторе что-то помимо котиков, сисек и политботов.
На редите сказано что 11 гигов должно в итоге быть, а файлы с торэнта на 5 с копейками. Что я пропустил ?
Вроде нет. У меня у самого вышло 5.72 ГБ
Видимо автор с реддита скачал себе ещё пару лишних моделей, как например обе NSFW и SFW версии и прочего.
Свойства: поуе1аПеак X Общие Доступ Безопасность Предыдущие версии Настройка поуе!а|1еак Тип Папка с файлами Расположение D:\Torrent Размер 5.72 ГБ (б 150 329 521 байт) На диске 5.72 ГБ (6 151 086 080 байт) Содержит Файлов 17, папок 4 Создан: 9 октября 2022 г, 20:07:22
Если б я не был рукожопом-кодером можно было бы запилить на dwarf fortress визуализатор персонажей, предметов и прочего.
я не програмист но с нейросетками поиграться давно хочу.

встал на пункте "4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork"

А как запустить то? ) экзешника нет xD
емнип у автоматика в папке с UI лежит батник webui.cmd (или как-то так)
Ну тут всё хардкорно и без exe'шников.
Заходим сюды https://github.com/AUTOMATIC1111/stable-diffusion-webui#installation-and-running и следуем инструкции по установке, опишу её кратко.
Качаем и устанавливаем Python 3.10.6 и во время его установке ставим галочку на Add Python to PATH, далее качаем и ставим GIT.
Когда всё это сделали запускаем GIT, и вводим команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git, она установит сборку Stable diffusion на наш ПК в раздел C:\Users\твойюзернейм\stable-diffusion-webui\
Далее ставим какую нибудь модель, например ту про которую и был создан пост.
Сама сетка просто запускается из батника webui-user.bat, который находится в корне stable-diffusion-webui\.
Он установит неообходимые ему файлы, может занять какое то время и место на диске, у меня папка эта весит чуть больше 30гб, но у меня там несколько моделей и прочей лабуды, у тебя будет поменьше чутка.
Когда всё будет установлено он выдаст тебе ссылку которую вставляем в браузер и вуаля, мы можем работать с сеткой.
Ну вроде объяснил максимально доступно и юзер-френдли на сколько смог, если есть вопросы, пиши отвечу.
Благодарю тебя технически прошаренный пидор, вроде все сделал как было по юзерфрендле инструкции но теперь наблюдаю вот эту проблему.
fcT] C:\Windows\systemB2\cmd.exe Couldn’t launch python exit code: 9009 stderr: Python Launch unsuccessful. Exiting. Для продолжения нажмите любую клавишу ЛЧЭ1 - □ X Л
Убедись, что во время установки питона, ты поставил галочку на "Add Python to PATH"
Либо ещё варик открыть webui-user.bat и найти строчку set PYTHON=, и добавить к ней путь до exe'шника питона, например PYTHON=C:/бла-бла-бла/python310/python.exe
о великий техножрец. БАТник запустился, но теперь не хочет работать с моей .GPU неужели все колдунство и молитвы были зря ?
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: 7349088d32b080f64058b6e5de5f0380a71ecd09 Traceback (most recent call last): File "C:\Users\GG-Home\stable-diffusion-webui\launch.py", line 164, in <module> prepare_enviroment() File
Скажи какая у тебя видеокарта, и за одно попробуй в webui-user.bat изменить строку:
set COMMANDLINE_ARGS= добавив аргумент --skip-torch-cuda-test, а если восем худо будет работать, то докинь --lowvram --precision full --no-half
Но можешь прям с ходу воткнуть вот так:
set COMMANDLINE_ARGS= --lowvram --precision full --no-half --skip-torch-cuda-test
сейчас пробую со строками, видяха у меня RADEON RX 580, проц AMD Ryzen 7 1700, 16 gb ОЗУ
Ну для работы конечно рекомендуется карточка от зелёных, но и на амд можно запустить. Нашёл гайд, но т.к картой от красных не обладаю, то проверить некоторые моменты и с новыми вызающими там ошибками, помочь смогу с трудом.
Гайд: https://rentry.org/ayymd-stable-diffustion-v1_4-guide
Вот на ютабчике даже нашёл что то по этой теме

Как понял нужно будет накатить библиотеку Onnx. За всё, что происходит дальше в процессе я уже не шарю, ибо я сам профан.
Спасибо, по итогу интерфейс у меня запустился. Вот только картиночки не генерятся :(
Arguments: (0, '\nflat, asian, bdsm, sex, girl, anal, , Agustin Fernandez’, 'None', 'None', <PIL.Image.Image image mode=RGB size=899xl599 at 0xlEB235BBB80>, None, None, None, 0, 20, 0, 4, 1, False, False, 1, 1, 7, 0.75, -1.0, -1.0, 0 , 0, 0, False, 512, 512, 0, False, 32, 0, ", 0, 1, 50, 0,
Остаётся надеяться, что здесь найдутся господа с картачками AMD, что смогли, и быть может они подскажут. Либо искать корень проблемы в обсуждениях на гитхабе - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions
Кажется ругается на точность переменных, некоторые карточки не могут в вычисления половинной точности. Используй последний раздел с этой страницы https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Troubleshooting про флаги --precision full --no-half. Куда в современной версии прописывать уже не помню, но можно просто как аргумент к запуску скрипта (в ярлык например). У меня на 1660 была такая же проблема только выливалась в зеленые равномерные квадраты вместо картинок и схожую ругань в консоли. Хз поможет оно на амд или нет, но как минимум выдаст следующую ошибку. Если будет ругаться про нехватку памяти добавь соотвественно еще флаг --medvram или --lowvram
Добавил комментарий " --precision full --no-half." через блокнот в батник, и о чуду. ОН НАЧАЛ ГЕНЕРИТЬ!

ПОка играюсь с тем что выходит но уже что то. Благодарю вас техномаг
У меня видимо схожая проблема как конкретно вы ее исправили?
FI C:\Windows\system32\cmd.exe AttributeError: 'NoneType' object has no attribute 'convert' □ X Loading weights [7460a6fa] from C:\StableDiffusion\stable-diffusion-webui-master\models\Stable-diffusion\model.ckpt Global Step: 470000 Applying cross attention optimization (Doggettx). Weights
в блокнотик добавил 2 комментария по советам выше, это первое.

второе, при первой генерации он долго подгружал файлы.

3-е сам веб интерфейс он глючит у меня и не отображает реальное вермя рендера. зато в консоле это все видно. Время от времени жмякаю ЕНТЕР в самой консоли, это обновляет статус некоторых запросов. Хз как работает, но работает.
Я немного глупенький и не совсем шарю в этом деле, где именно в блокнотик выписывать? и как я понял команды --precision full --no-half а также --medvram или --lowvram
В файлике webui-user.bat из которого и запустаем всё колдунство, в стоке set COMMANDLINE_ARGS= пишем аргументы. Пример:
set COMMANDLINE_ARGS= --medvram --precision full --no-half
Большое спасибо, великий человек
И да, порой гугли артистов подсунутых по рероллу, порой они пробиваются сквозь анимешную нейросетку и начинают рисовать в подсунутом стиле. Твоя плоская секси аниме барышня, ценительница прекрасного с этим запросом могла бы быть нарисована в таком стиле
У меня тоже прикол есть. Я посмотрел видос, могу генерить через терминал, но интерфейс не запускается.
Не подскажешь как это решить?
| S C:\Windows\system32\cmd.exe Creating venv in directory venv using python "C: \Users\-|f-x£€V Unable to create venv in directory venv exit code: 3 stderr: Системе не удается найти указанный путь. Launch unsuccessful. Exiting. Для продолжения нажмите любую клавишу . . . □ X
Не очень понимаю, что за ошибка. На каком этапе она у тебя появляется?
Могу только предположить, что в название пути должно быть полностью на латинице, а у тебя там кирилица встретилась "C:\Users\ тчЁЄ"
Спасибо. Действительно помогло, переставил питон на корень диска и все завелось. А может ты в курсе почему иногда генерируются чисто черные холсты? С чем это связано?
Видеопямять забивается под потолок и может из за этого генериция шалить. Рекомендую в таких случаях понилизь разрешение генерируемых изображений.
Пидоры, спасибо! Теперь не надо жить в страхе, что при отказе инета не будет свежего хентая.
Steps: 10 Steps: 20 Steps: 30 Seed: 30 Seed: 31 Seed: 32 Seed: 33 Seed: 34 Seed: 35 gT*55 r( i ^ i V %ISim m ? ■ r< i 1 1 ► / { '
А как такие коллажи делать? Как генерировать сразу пачку картинок через Batch count и Batch size я понял.
Нужно включить в настойках сохранение изображений в виде сетки.
Но в примере который приложил товарищ zpyroz, он ещё воспользовался скриптом X/Y plot, который позволяет комбинировать различные настройки и промпты. Рекомендую изучить вики, много интересных штук можно узнать https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#xy-plot
Saving images/grids y Always save all generated images File format for images Png Images filename pattern [seed]-[sampler]-[steps]-[cfg]-[width]-[height] >/ Always save all generated image grids File format for grids Png
И, что бы в интерфейсе показывало потом сетку, то в Settings > User Interface > галочку на Show grid in results for web
Спасибо тебе, мил человек.
А по каким промтам ты это создал?
Вроде сделал все по инструкциям... но отсутствуют последние пункты..
Не дает выбрать Hypernetwork ибо там пусто и сам пункт Checkpoint вынесен сейчас на верх странички
Stable Diffusion checkpoint novelai.ckpt [925997e9] novelai.ckpt [925997e9] Merger Textual inversion Settings sd-v1 -4.ckpt [7460a6fa] Prompt Stable Diffusion Stable Diffusion finetune hypernetwork None None Save a copy of image before applying color correction to img2img results
Убедись, что залил .pt куда надо
PC > Local Disk (C:) > git > stable-diffusion-webui > models > hypernetworks Name Date modified Type Size B aini.pt 09.10.2022 17:21 PT File 85 713 KB B anime.pt 09.10.2022 17:16 PT File 85 713 KB B anime_2.pt 09.10.2022 17:16 PT File 85 713 KB B anime_3.pt 09.10.2022 17:16 PT File 85 713
Проверь как у тебя выглядит содержимое папки hypernetworks.
C:\Users\юзернейм\stable-diffusion-webui\models\hypernetworks\ и тут файлы .pt
\stable-diffusion-webui\models\hypemetworks Имя I aini.pt I anime.pt I anime_2.pt I anime_B.pt I furry.pt I furry_2.pt I furry_B.pt I furry_kemono.pt I furry_protogen.pt I furry_scalie.pt I furry_transformation.pt ■ pony.pt
Столкнулся с такой же проблемой... Все разложил по нужным папочкам
[stable Diffusion checkpoint Error txt2img img2img Extras PNG Info Image Browser Checkpoint Merger Train Prompt (press Ctrl+Enter or Alt+Enter to generate) Negative prompt (press Ctrl+Enter or Alt+Enter to generate) Sampling Steps 20 O Sampling method • Euler a Euler LMS Heun DPM2 DPM2 a
Может быть из-за битого торрента?
^ Р (Т) 2 "® =■ Э Главная/Твип [RPGM] - Transé [VN] - [Ren'Py] íjí' NovelAI / смеш Избранное/as \У Модель Nove X О GitHub - AUTO! O GitHub - Tencen ^ Google Перево; в* Stable Diffusion + v — О X ♦ ♦ <- -> O O ñ o- https://joyreactor.cc/post/5352923 (E 120% [E] = Im C:\Windows\system32\cmd.exe —
Ибо просто stable diffusion работает...
Отбой, дело было хуй знает в чем, но полная перекачка и переустановка всего все починила ( - 2 часа ... ).
Результат того стоил
Неплохо, и это всего 60 шагов, и работает даже на несчастной 1650s
красота
Кстати, если хотите позалипать, пока ваши "точно не хорни арты" подмиг-подмиг генерятся, то в настройках в пункте User Interface измените ползунок настройки "Show image creation progress every N sampling steps." на единицу, и наслаждайтесь зрелищем, как ваши картиночки создаются буквально из ничего в реальном времени.
Искрене надеюсь, что сделают возможность сохранять потом этот прогресс создания в формате gif.
User interface * Show progressbar Show image creation progress every N sampling steps. Set 0 to disable. * Show grid in results for web Do not show any images in results for web y Add model hash to generation information * Add model name to generation information
Сегодня попробовал
Это. Просто. Охуенно.
Наготовлю пожалуй пикч на десять лет ивентов вперёд.
ПОРА!
UPDATE: Если ставите Stable Diffusion сейчас, то папку hypernetwork теперь переименовываем в hypernetworks.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/873efeed49bb5197a42da18272115b326c5d68f3
Если вы уже ранее установили всё, то вам париться не нужно.
Если вы регулярно обновляетесь через git pull, то папка у вас автоматически переименуется.
RuntimeError: CUDA out of memory. Tried to allocate 40.00 MiB (GPU 0; 4.00 GiB total capacity; 3.39 GiB already allocated; 0 bytes free; 3.44 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

Хоть ты лопни, хоть ты тресни. Карточка - 4 гига (GTX 1650), в батнике прописано: --medvram --precision full --no-half --skip-torch-cuda-test
Хм, попробуй вместо --medvram прописать --lowvram, может хоть так получится, но по идеи должно работать и с --medvram на 4гб памяти. Может у тебя запущено, что то на фоне ещё, что кушает видеопамять?
у меня тоже 1650s
запускаю так
--listen --opt-split-attention --lowvram --precision full --no-half --precision full --no-half
всё работает, если не жестить с большими запросами
Приветствую техножрецы! Подскажите где я напортачил.
PS или я могу даже не пытаться со своим потайто Пк (GTX 750 ti + Intel i5 4570 + 24 Гб) даже в маленькие пикчи?
FI C:\WINDOWS\system32\cmd.exe venv "D:\Downloads\stablG-diffusion-wGbui-mastGr (l)\stablG-diffusion-wGbui-mastGr\vGnv\Scripts\Python. Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: <nonG> Installing torch and torchvision
Не вижу ошибок. Идёт установка компонентов, может быть немного долгой, минут 5-15.
Точно, немного дольше посидел, пошло, но теперь другое. Я так понимаю моя видяха не потянет?
□ X S C:\WINDOWS\system32\cmd.exe shared.sd_model = modules.sd_models.load_model() File ”D:\Downloads\stable-diffusion-webui-master (l)\stable-diffusion-webui-master\modules\sd_models.py", line 187, in load_model sd_model.to(shared.device) File ”D:\Downloads\stable-diffusion-webui-master
В файле webui-user.bat в строке "set COMMANDLINE_ARGS=" добавь --lowvram
Напиши на всякий случай, кака я у тебя видеокарта
Данная строка давно прописана.
Видяха Nvidia GTX 750 ti
Попробуй добавь ещё --precision full --no-half --skip-torch-cuda-test
Если не поможет, то уже точно хз
Сижу с установкой торча уже больше суток, в чем трабл?)
Ну телепатически не угадаю. По пунктам опиши, свои шаги установки до этого момента и я может увижу, где был трабл.
Например от куда, что, куда и как скачал, и что где изменил или запустил.
Да все по инструкции делал, качал с гитхаба и сайта питона
Ну боюсь этой информации мало, что бы я мог понять в чём проблема. Да и в сети не видел особо ничего, что могло бы это исправить. Либо ждать пока установит, либо просто попробовать с нуля переустановить.
Попробуй переставить папку SD и переустанови питон с гитом как указал дальше.
1) Качаем Python версии 3.10.6 - https://www.python.org/downloads/windows/ , во время его установки начале ставим чек напротив "Add Python to PATH".
2) Устанавливаем GIT - https://git-scm.com/download/win не трогая никакие настройки по худу установки, разве что можно выбрать какой "блокнот" хочется оставить.
3) Устанавливаем файлы из репозитория AUTOMATIC1111. Я обычно перехожу в C:\Users\[User]\ или можно выбрать другое удобное место, и от туда вызываю командную строку и запускаю команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git , должна будет скачаться папка stable-diffusion-webui
4) В папку \stable-diffusion-webui\models\Stable-diffusion\ закидываем модели которые хотим.
5) Запускаем webui-user.bat из корня папки и оно до качает остальное и в конце предложит ввести в браузер ссылку, что бы перейти уже непосредственно в webui SD для дальнейшей работы.
Ну, полностью все снес и заново поставил. Ошибка при установке гита была, модели и остальное перенес, клонировал. Я так понимаю у меня батник не использует сеть, т.к. нагрузки на сеть с него не вижу
Installing Please wait while Setup installs Git on your computer. Initializing Explorer integration Git 2.39.0 Setup X Line 3362: Could not reconfigure Scalar enlistments (output: (no output), errors: (no output)). OK https : //gitf orwindows. org/
Увы боюсь, что на этом мои полномочия, всё. Попробуй обратиться к нейро-колдунам более высокого ранга на гитхабе.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions
Оно живое. Аче, у меня дальше не кликабельно..
□ X FI C:\Windows\system32\cmd.exe ^env ”C:\Users\mrpam\stablG-diffusion-wGbui\vGnv\Scripts\Python.gxg" python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Zommit hash: 685f9631b56ff8bd43bcG24ff5cG0f9a0G9af490 Installing requirements for Web UI Launching
Не кликабельно?
Ну, я мож не шарю, но я ниче написать не могу)
Я надеюсь ты пытаешься писать в webui, а не в консоли?
Когда при запуске в консоли увидишь строку "Runnging on Local URL : http://127.0.0.1:7860/" то копируем в браузер эту ссылку и переходим, и уже работаем там.
А вот если там уже залипает, что то, то даже предположить не смогу в чём проблема.
Долго ждал? А то сижу уже минут 15, но в диспетчере командная строка и питон ваще пару мегов хавают и все
~мин 10-20
У меня ноут, походу надо другой гайд искать)
А у меня комп-картошка (выше кидал хар-ки), видяха не потянула. Обосралась с подливой, как и я собсно, ну и забил я хуй и тебе советую пока не проабгрейдишься.
Всё работает, всё классно (По крайней мере всё работает из того, что было мне нужно). Но вопрос. Можно ли какому-то промту выдать абсолютную важность? Например, при генерации персонажа их текста (txt2img) я планирую, что у него будут этакие "спаниелевские ушки", то есть лежащие собачьи и я указываю промт {floppy dog ears}. И до определенного момента всё супер, но при попытке сгенерировать еще и нужную одежду этот тег начинает будто-бы пропадать и игнорироваться. Читав инструкции на гите были попытки сделать нечто {floppy dog ears:5.0} и т.д. Но почти ни на что не повлияло.
Фигурные скобки предназначены для использования только непосредственно оригинальной NovelAI.
Stable Diffusion работает с () и []. Круглые скобки усиливают акцент, а квадратные наоборот будут уменьшать.
Слово взятые в круглые скобки один раз (word) будет иметь усиление акцента на него в 1,1 раз, если возьмём слово в скобки 2 раза ((word)), то будет уже в 1,21 раза = 1,1 * 1,1
По такой же схеме с квадратными, но будет уменьшение акцента на слово.
Можно в ручную задать этот параметр, напримет: (word:1.5) - увеличит акцент на "word" в 1,5 раза.
(word:0.25 )- уменьшит акцент на "word" 4 раза = 1 / 0,25
Если хотим, что бы скобки ()[] учавствовали в самом промпте, не как усилитель акцента, а как часть промпта, то пользуемся обратными косыми чертами \\
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#attentionemphasis
А. Понял. То что я несколько дней ставил разных местах {слово:цифра} не влияло ни на что. Стало грустно :D Но спасибо за информацию. А еще можешь ли подсказать, если я допустим хочу получить те же floppy dog ears, то есть ли какая-то разница между floppy dog ears и floppy_dog_ears (через нижнюю черточку). Или возможно оно воспринимает только что-то одно а из-за другого полностью руинится?
Ну не особо, от случаю к случаю меняется чутка кадр, но не могу сказать, что бы прям сильно.
Вот к примеру вариант:
Промпты masterpiece, best quality, girl, black hair, brown eyes, green shirt, blue jeans, smile
и дальше меняю floppy dog ears и floppy_dog_ears
Негативные промпты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers)), tail,
Steps: 40, Sampler: Euler a, CFG scale: 11, Seed: 282, Size: 512x704, Model hash: 925997e9, Model: NovelAI, Clip skip: 2, ENSD: 31337
Seed: 282 Seed: 565 floppy dog ears floppy_dog_ears
А как вы задаете негативные промпты?
Понял, в отдельное окно. У меня не запускается батник потому что карта от красных, а после просмотра гайда вчера, я смог начать генерить только через терминал. Он говорит - добавь скип-чек-куда и так далее по тексту, я добавил, ему похуй. Может лыжи не едут, а может я делаю что-то не так.
Но, если мешаются какие то объекты, как вот например появились собаки в кадре, которых я не задумывал, то всегда можно добавить пару негативных промптов и справить ситуацию.
Seed: 282 Seed: 565 floppy dog ears floppy_dog_ears Seed: 656 Seed: 828
Есть кстати немного другая версия нейросети, с фронтом самого NovelAI. Есть сразу готовая версия, скачать и запустить. Интерфейс выглядит так, магнит на торрент находил на 4чане. Если найду снова скину сюда. Тут конечно не там много настроек но генерит намного лучше по моему мнению и интерфейс неплохой.
# Paint New Image Cp Upload Image megumin, lgirl, ((loli)), sweat, (((((ms jsterpiece))))), extremely detailed, ((soft lighting)), sitting on the co *> Settings Generate Image Resolution [wx h] Custom (Custom) >/ 704 X 1024 Number of Images: 1 Model-Specific Settings Steps Scale 40
Нашел:

NAIFU: NovelAI model + backend + frontend

Runs on Windows/Linux on Nvidia with 8GB RAM. Entirely offline after installing python dependencies.

Web frontend is really good, with danbooru tag suggestions, past generation history, and mobile support.

Have fun!

magnet:?xt=urn:btih:4a4b483d4a5840b6e1fee6b0ca1582c979434e4d&dn=naifu&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce
Читаем инструкцию, сначала SETUP.bat, ждём долго, может казаться что подвисло, как закончит установку, запускаем через RUN.bat. Переходим по адресу http://localhost:6969/
Немного не правильно написал, это не другая нейросеть, это тот же NovelAI, просто с другим backend + frontend, уже настроенный и по моему скромному мнению работает намного лучше. Интерфейс очень приятный, negative promt уже установлен его можно дополнить. Устанавливается намного легче.
f Paint New Image Cp Upload Image megumi) Did you mean? X megurine luka • megumin • fushiguro megumi katou megumi tokoro megumi megumiya megumi (girls und panzer) megumin (cosplay) amatsuka megumi (gj-bu) tadokoro megumi
На rtx 2060 не может генерировать через эту прогу, сразу выдаёт ошибку о нехватке памяти
2022-10-16 19:54:21,602 INFO main.py(11936) - Request took 8.091 seconds INFO: 127.0.0.1:65154 - "GET /predict-tags?prompt=committing%20seppuku. HTTP/1.1" 200 OK 0%| I 0/28 [00:11<?, ?it/s] Traceback (most recent call last): File "E:\Torrent\naifu\program\.\main.py", line 171, in generate
Runs on Windows/Linux on Nvidia with 8GB RAM, тут требования от 8 гб памяти видеокарты, а не оперативной памяти.
Прикольно, но всё таки более урезано. Тем не менее, для тех кто не сильно хочет мудриться с установкой stable-diffusion-webui, а кто хочет просто генерить картиночки без выкрутасов и шобловоблей с настройками, этот вариант подойдёт более чем.
Ну а про различия в качества генерации, тут мимо. Результат генерируют обе они одинаковый, нужно лишь правильно подобрать настройки stable diffusion и правильно задать промпты.
@ + X □ i > © Image Generation - NovelAI X + V <- C ù O 127.0.0.1:7860 if? ☆ Ik abp * * □ # : <- C Û A novelai.net/image if? ☆ 1ÖI ABP & Stable Diffusion checkpoint NovelAI.ckpt [925997e9] v G i $ Paint New Image Cp Upload Image Anlas: 1985 \b + ? Settings txt2img img2img Extras PNG Info
У меня не выходит запустить версию Stable Diffusion, просто артефакты получаются. В версии которую я скинул всё работает без проблема. Всё делал по инструкции, запросы одни и те же как и настройки. Посмотри пожалуйста на скриншоте, может я что то пропустил?
<- -> G ® localhost:S969 Paint New Image Cf] Upload Image Stable Diffusion checkpoint novelai.ckpt [925997e9] History Image Resolution tatsumaki_(one-punch_man), (((tatsumaki))), lgirl, (((((((((((loli)))))))))), sweat, (((((masterpiece))))), extn Custom (Custom) img2img Extras PNG Info
По поводу качества, вот попробуй сделать вот такой запрос там и там: tatsumaki_(one-punch_man), (((tatsumaki))), 1girl, sweat, (((((masterpiece))))), extremely detailed, ((soft lighting)),
Если у меня только такой косяк, значит я что-то не так сделал.
л . v — □ X . V - □ х NAIFU X + t$* Stable Diffusion X Модель NovelAI под Stable-Dif X -j- <- -> G ® localhost:S969 £>★ □ H • <- -> C ® 127.0.0.1:7860 \& ★ @ * □ H • ^ Paint New Image Cp Upload Image tatsumaki_(one-punch_man), (((tatsumaki))), lgirl, sweat, (((((masterpiece))))), extremely
Странно, этот запрос у меня даже в обычной NovelAI не хочет быть до конца таким же, как у тебя.
Seed изображения 3091775605, 704x1024, 40 шагов со скейлов в 15, какой сэмплер у тебя стоит?
Попробуй так же отключить undesired content (Low Quality + Bad Anatomy), ибо негативные промпты я вижу ты уже ввёл туда, и могут просто дублироваться и ломать из за этого.
+ V □ > <r -> C Û © 127.0.0.1:7860 £>☆ m «p & * [J © Stable Diffusion checkpoint NovelAl.ckpt [925997e9] txt2img img2img Extras PNG Info Checkpoint Merger Train Settings masterpiece, best quality, tatsumaki_(one-punch_man), (((tatsumaki))), lgirl, sweat, (((((masterpiece))))), extremely
Попердел попыхтел с разбором скобок и негативных промптом, что ты юзал. Вот максимально похожий вариант. Если ещё минут 15 помозговать, может выйдет полностью перенести.
Stable Diffusion checkpoint NovelAI.ckpt [925997e9] txt2img img2img Extras PNG Info Checkpoint Merger Train Settings masterpiece, best quality, tatsumaki_\(one-punch_man\), \(\(\(tatsumaki\)\)\), lgirl, sweat, \(\(\(\(\(masterpiece\)\)\)\)\), extremely detailed, \(\(soft lighting\)\), lowres,
Ок спасибо, буду тогда допиливать Stable Diffusion, будет два рабочих варианта.
Вот держи, там гайдец и разбор запилили со сравнениями, какие настройки лучше всего использовать и как, что бы имитировать результаты как выдаёт оригинал NovelAI
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017
Из основного, это в настройках на параметр "eta noise deed delta" выставить 31337 и ползунок "Stop At last layers of CLIP model" на 2
 Save a copy of image before applying color correction to img2img results With img2img, do exactly the amount of steps the slider specifies (normally you'd do less with less denoising). Enable quantization in K samplers for sharper and cleaner results. This may change existing seeds. Requires
Нигде не могу найти инфу за что отвечает параметр "Stop At last layers of CLIP model", везде только советы его выставить в 1-2. Про Eta noise тоже неясно, но там хотя бы всплывающая подсказка есть, что это типа дополнительный сид, как бы. Но зачем к одму сиду ещё один сбоку? Не ясно кароч. Критически мало инфы
Про eta noise seed delta из ченжлога обновлений сборки AUTOMATIC1111 - "Eta noise seed delta": "If this values is non-zero, it will be added to seed and used to initialize RNG for noises when using samplers with Eta. You can use this to produce even more variation of images, or you can use this to match images of other software if you know what you are doing."
Если кратко, то позволяет эмулировать результаты выдаваемые другим ПО. Ну и delta seed который нам поможет эмулировать результаты NAI является 31337.
Про CLIP skip вот - https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#ignore-last-layers-of-clip-model
Спасибо!
Кста, хэй! Удалось полностью перенести весь твой арт из NovelAI в Stable Diffusion)))

masterpiece, best quality, tatsumaki_\(one-punch_man\), \(\(\(tatsumaki\)\)\), 1girl, sweat, \(\(\(\(\(masterpiece\)\)\)\)\), extremely detailed, \(\(soft lighting\)\),
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name
Steps: 40, Sampler: Euler a, CFG scale: 15, Seed: 3091775605, Size: 704x1024, Model hash: 925997e9, Model: NovelAI, Clip skip: 2, ENSD: 31337
Что делает \ ?
Если промпт включает в себя скобки, но автор не задумывал их как усилитель, а просто как часть промпта, то можно заключить скобки в \(...\) и скобки перестанут иметь эффект над промптом и будут просто как часть текста.
Полезно при переводе промптов с оригинального NovelAI в Stable Diffusion. В оригинальном NovelAI скобки () не имеют смысла, вместо них для усиления акцента работают фигурные {}. Поэтому если перенести промпт с скобками из NAI в SD, то перестанут работать {} и станут активны () которые автор не задумывал для усиления акцента.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#attentionemphasis
Главный подвох, это скобки которых тонна и включённые в NovelAI (Low Quality + Bad Anatomy) при уже указаных негативных промптах. Для усиления акцента NovelAI использует фигурные скобки а не простые круглые. Простые круглые оно будет вопринимать так же, как /(word/) в stable diffusion.
Чел, можешь скинуть полностью что ты вводил? Хочу чтоб он подобные красивые пикчи выдавал.
Он чуть дальше скидывал полный .png файл, который содержит всю нужную информацию о генерации в метаданных. Можешь ковырнуть эти данные через SD webui в разделе png info просто залив файл. Либо через обычный онлайн сервис по чекингу метаданных с файлов как например https://www.metadata2go.com/
Metadata Info Of Your File The following table contains all the exit data and metadata info we could extract from your file using our free online metadata and exif viewer. File Name HenpoceTM-Stable-diffusion-flnuHHonocT-NovelAI-4719449. png File Size 818 kB File Type PNG File Type Extension
ага, спасибо. Слушай, а не подскажешь еще? Он мне начал частенько выдавать полностью черную пикчу, знаешь как это лечится?
У меня такое бывает когда выделенная память видеокарты забивается под потолок.
А) По максимуму снять нагрузку с видеопамяти, закрыв лишние процессы которые её жрут.
Б) Уменьшить разрешение создаваемого изображения.
На моей RTX 3080, я стараюсь не генерить больше чем 1024x1024, так или иначе можно потом поднять апскелерами разрешение если захочется.
у меня РТХ3060, хорошо учту, спасибо)
На компе с 1060 без проблем заработало, ради интереса попробовал на ноуте, не вышло
Подскажите, Stable-Diffusion вообще возможно запустить на ноуте со встройкой от интел? Или хорошая дискретная карта от nvidia обязательна?
Ну сомневаюсь, что удастся локально установить на ноут, только если через google colab или прочие облака как runpod и vast
В версии от AUTOMATIC1111 на гитхабе есть гайд для амд. Он вроде даже на процессоре работать должен. Но это будет очень долго.
Подтверждаю, реально долго, даже на 1650с быстрее чем на цпу. Хотя и цпу у меня там i5-10400F всегото
Я пытался, но чёт как то в хентай не получилось
(masterpiece))Cute Boy, gray eyes, red handkerchief tie, one big gray fox tail, fox ears, short hair, fox ears, white shirt, no panties, penis,
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username,
Возможно ты установил модель из папки с sfw.
Либо если какие то запросы просто начинают неучитываться сеткой, попробуй добавить им акцент, заключив их круглые скобки - (word)
Качал "animefull-final-pruned" вроде как не swf, соски то точно умеет отрисовывать, но в пенисы даже через 4 скобки выходят как пиздец... и иногда выходят сиамы. Сейчас запустил ещё одну генерацию
И ещё момент, после завершения генерации, оно засирает видеопамять, приходится перезапускать, это нормально?
Хм, у меня с этим проблем нет.
Использование выделенной памяти графического процессора 10,0 ГБ
Нууууу, да с 10кой гигов, это да
И так, с новой генерарцией, скажу, нейронка просто не знает, что такое трап, фембой, newhalf, и другие вариации членодевок, ибо упорно отказывается рисовать не то что сосиску, даже шары не отрисовывает
Отписал в лс, приложив нужные настройки, а то не хочу тут устраивать DICKий фестиваль с COCKтельной вечеринкой.
Хохо) Благодарю за ранние.
А если я хочу участвовать в фестивале?(
Отправил
И мне пожалуйста)
Отправил
И мне тоже, пожалуйста :з
А то что-то (не)приличное получается только с yiffy, но там фурри.
Удивительно, какой ажиотаж вызвал сгенерированный ИИ перрсонаж, на основе описания моего ОС XD
Мне уже самому неловко...
Уважаемые, если вам необходима гуманитарка с данными проптами, пишите сразу в лс.

Могу вот краткий гайдлайн по промптам накидать, что бы можно было собирать самому.

Я делю создание проптов на несколько частей:
1.Персонаж - кто или что, как выглядит, во что одет, что делает.
2.Окружение - ночь, улица, фонарь, аптека и т.д
3.Стилизация - Киберпанк, тёмное фентези и прочее
4.Эффекты - Туман, блики, освещение, детализация, и ещё тонна вариантов
5.Не обязательно - в самом конце можно написать - by (имя какого нибудь художника, студии) и т.д... И она попробует нарисовать в этом стиле если хочется.
Если ваш парсонаж уже впринцепе существует, например какой нибудь Геральт, то ищем максимально детальную пикчу с ним и выводим на второй экран, телефон и подмечаем детали, как шрамы, побрякушки, материалы снаряжения, чем больше, тем лучше.
Если персонажа создаём спонтанно, то тут уже, как у кого фантазия играет.
Не забываем пользоваться негативными проптами, невероятно полезно.
Полируем по необходимости отдельные промпты скобками ()[], если хотим, акцентировать над чем то внимание в композиции, или если какая то деталь не получает нужного внимания или наоборот глушим акцент со слишком мешающейся, но нужной композиции детали.
Ну и конечно нужно некоторое количество попыток и терпения, что бы сгенерировать то, что захочется сохранить себе на диск.
Спасибо за это описание.
Отправьте пожалуйста тоже:З
здравствуйте, а можно мне тоже гайд по сосисочной вечеринке, пожалуйста :3
Отправил в лс
Можете также отправить? Заранее спасибо.
И я тоже не прочь посмотреть!
Спасибо, стало намного понятнее как эту вражину склонять к нужным результатам....
Добрый человек, можете так же в лс отправить настройки?
У тебя закрыта личка, как откроешь напиши либо тут, либо сразу мне в лс и я отправлю.
1о1сМшс95 Рейтинг: 0.0 0.0 за неделю ★★★★★★★★★★ Прогресс до следующей звезды: ♦ Добавить в друзья ® Добавить в заблокированные Ц Жалоба • Подарить боярский аккаунт
Мне тоже отправьте. И можно узнать про стилизацию киберпанка.
Открой личку
сделал
Скачивать только то, что выбрано на картинке, а то я скачал весь пакет на 52гб. Что я могу удалить без потер?
Потребуется файл модели из папки animefull-final-pruned, содержимое папки modules и файл animevae.pt, остальное можно удалить либо перенести в другое место. Дальше по инструкции переименуем соответствующие файлы и переносим их в Stable Diffusion.
Для понимания промтов для чайников очень реккомендую серчать здеся: https://lexica.art/
Если бы еще и негативные писали бы.....
Лексика арт довольно полезный ресурс, когда совсем 0 идей захожу подглядеть какие то концепции.
Негативные промпты довольно ситуативны. Допустим делаем арт какой нибудь машины, но подставляем негативные промпты которые подошли бы при генерации персонажа, например с исправлением пальцев, деформаций и т.д... В этом не так много смысла не так ли?
Но вот если я сгенерирую машину например по запросу "man sitting in red ferrari car and hold desert eagle" и у нас вместо мужика в красной феррари с диглом в руке, будет пустыня в которой мужик в машине держит в руке красного пернатого орла, то тогда мы можем применить соответствующие негативные промпты, например, что то вроде animal, bird и desert, что бы убрать подобное недоразумение. Надеюсь пример был понятен и не слишком абсурден, придумал на ходу, на часах 8 утра, ща ток пойду спать и мозг чутка плывёт xd
Долго разбирался, но результат того стоит. Я в восторге! Будто бы частичка волшебства пришла в наш мир. Никогда не умел рисовать, а тут такой подарок - рисунок по запросу. В общем-то наука и есть - магия, в каком-то смысле. Еще поработать и можно будет делать реальную годноту.
Подскажешь тэги и настройки для похожего результата?
Из позитивных там описание внешности аля длинные волосы, большая грудь, итд. Сэмплер euler a 40 шагов. (Не могу скинуть полосочкой строчкой потому что это вчера было и я их поменял сто раз.
Negative prompt: lowres, (((bad anatomy))), bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers))
И снова я тут с мелкой проблемой. Решил отойти от txt2img и поторкать img2img. Попробовал "interrogate CLIP". Как я понял, это должно было примерно определить промты картинки. Но оно выдало вот такую ошибку сгенерировав лишь фрагмент промтов. Есть ли способы это победить?
Оперативы на пк 12гигов, видеопамяти 4 гига, аргумент запуска прописан --medvram.
RuntimeError: CUDA out of memory. Tried to allocate 678.00 MiB (GPU 0; 4.00 GiB total capacity; 3.06 GiB already allocat ed; 0 bytes free; 3.22 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split _size_mb to avoid fragmentation. See documentation for
Исправить сообщение не могу (точнее добавить), по этому напишу дополнительный вопрос вот так:
В гайде мы устанавливаем animefull-final-pruned. Но там есть еще и animefull-final, который весит на 3 гига больше вроде как. Первая это SFW, вторая NSFW? Или в чем их разница? (Я просто с дуру выкачал все 50+ гигов и теперь пытаюсь хоть как-то оправдать затраченное время)
pruned - сжатая, обрезаная от хлама версия, ничем особо не отличается. NSFW версия позволяет генерировать результаты, более "пикантного" характера, как пример можешь пролистать пару сообщений выше и увидеть пример. В свою очередь SFW версия более урезана, и проблемно воспроизводит 1в1 результаты в NAI. Вот тут есть дискусия, где народ разбирает это всё - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017
Show 20 previous replies DesmOnt 7 days ago It's all fine for nsfw model, but for SWF it probably miss something © AUTO SFW pruned 50Un •' NovelAI Title Al generated image Description masterpiece, best quality, extremely detailed CG unity 8k wallpaper,kinomoto sakura, cardcaptor sakura,
Касаемо твоей ошибки, попробуй добавить ещё в аргументы --precision full --no-half
Уважаемый, у меня возник глупый вопрос. Почему хуйцы иногда превращаются в фиолетовые баклажаны?
Подбирай промпты, и используй дополнительно негативные. Можешь в них прямо прописать про баклажаны и прочие аномалии, которые возникают в результатах.
Еще раз прошу прощения, но мне типа так и написать - (нет баклажану)?
Или я выясню это только экспериментально?
в Negative prompt пиши именно то, что не хочешь, что бы сеть генерировала. Если оно генерирует тебе кактус который ты не задумывал, то так и пиши там cactus или прочее что вылезает.
Понял, спасибо.
Увы, не помогло. Вот так выглядит ошибка в более развернутом виде.
Traceback (most recent call last): File "E:\SD20\stable-diffusion-webui\modules\interrogate.py", line 152, in interrogate artist = self.rank(image_features, [”by ” + artist.name for artist in shared.artist_db.artists])[9] File "E:\SD20\stable-diffusion-webui\modules\interrogate.py", line 103,
По магнитной ссылке 52гб.... Я могу выбрать что-то определенное или для работы программы все скачивать?
Получилось установить, но почему он генерирует на одной картинке два объекта?
Добавляй более уточняющие запросы. Например solo, focus, и т.д... Рекомендую зайти на danbooru, по которой модель тренилась, и посмотреть там какие теги используются для тех или иных картинок
Да уже успел разобраться, пока что как-то так выходит....
Всё работает, но почему-то в настройках не могу выбирать hypernetworks, пути проверял, папку переименовывал по разному, не помогло
Stable Diffusion checkpoint novelai.ckpt [925997e9] Apply color correction to img2img results to match original colors. Save a copy of image before applying color correction to img2img results With img2img, do exactly the amount of steps the slider specifies (normally you'd do less with less
У тебя кажется устаревшая версия чутка. Попробуй обновиться через git pull.
Можно сделать это через батник запуска, добавив строчку git pull над call webui.bat
о ä^ в öö ¿'ÜB ЭС! Л ¡a * * □ Ы webm-user bat □ PconhgFsoo ü Breadme t 1 echo off 2 3 set PYTHON= 4 set GIT= 5 set VENV_DIR= 6 set COMMANDLINE_ARGS=--deepdanbooru 7 ________ 8 #git pull 9 call webui.bat 10
Погодите, это SCP-1004?
И снова я здесь и снова с вопросом.
А насколько вообще эта нейронка с этой моделью может в NSFW контент? Просто сольная около эротика? Или есть какие-то колдунские промпты для отрисовки полноценного NSFW контента? Ибо мои попытки привели к каким-то экстра ужасным результатам.
Попытался сменить модель на Hentai Diffusial - лучше не сильно стало. Сам хентайный контент начал рисоваться лучше, но качество самих генераций споткнулось :D
Дружище, а где ты взял Hentai Diffusion?
Вот отсюда перешел на недоперегитхаб в лице хагингфейса и оттуда скачал модель.
https://rentry.org/sdmodels

если получится сгенерить хоть что-то, буду рад если поделишься инфой.
Я поделюсь информацией, но для начала расскажи как это поставить
Был на парах и не мог ответить. В общем, я не знаю правильная ли это установка или нет, но ничего другого я не нашел и не придумал.
https://huggingface.co/Deltaadams/Hentai-Diffusion/discussions/16
Тут короткая инструкция о том как в SD поставить Hentai Diffusion. Если знаний нет английского даже минимальных, то можешь воспользоваться переводчиком deepl - вроде справляется на уровне.

Если кратко: Скачать ckpt файла хентай дифьюжена, кинуть в папку ..\models\Stable-diffusion
В самом веб интерфейсе переключить чекпоинт на HD.
Сегодня-завтра погенерю, если что-то хорошее выйдет, то скажу.
Интересный факт HD генерит супер хуевое качество, но при этом не улучшает общий смысл запроса.
У меня во время тестов HD получилось сгенерить пару вещей более или менее адекватного качества (но очень далекого от той модели, что в гайде). Но в большинстве случаев получалось что-то будто бы в paint нарисованное :DDD А заставить модель из гайда рисовать что-то дальше обычной эротики не получилось не при каких условиях (кроме пары исключений). Такие же как у HD результаты получались и с моделью r34.
Но сейчас борюсь с другими проблемами с нейронкой, так что просто забил :D
На HD всё-таки генерится что-то сложнее эротики? Каким образом?
Подскажите, почему у меня не работает?
Полночный прилив (Эриксси X V Модель NovelAI под Stable-D X О Проблема при загрузке crpai X 0 X + <- -> С © 127.0.0.1:7860 ☆ ы а Попытка соединения не удалась в C:\Windows\systemB2\cmd.exe venv "D:\ai\stablG-diffusion-wGbui\vGnv\Scripts\Python.Gxe" Python 3.10.6
Попробуй обновиться через git pull, выше на пару сообщений показывал как.
Всё еще борюсь с ошибкой при попытке в img2img сделать interrogate CLIP.
Никто случаем решения не заимел? (4 гига видеопамяти, 12 оперативы, --medvram в аргументах)
Error interrogating Traceback (most recent call last): File "E:\SD20\stable-diffusion-webui\modules\interrogate.py", line 152, in interrogate artist = self.rank(image_features, [”by ” + artist.name for artist in shared.artist_db.artists])[9] File
Когда услышал про Nvidia, решил забить. Даже жалко стало, что так легко распрощался со своей gtx 1050 ti когда-то. Вообщем, рендер на amd. Действовал по инструкции отсюда https://rentry.org/ayymd-stable-diffustion-v1_4-guide. Однако, сейчас, я в ступоре. Не совсем понимаю, как мне теперь NovelAi прикрутить или другую библиотеку с уже обученным ИИ. Ещё беда с prompt. Как улучшить или изменить качество/стиль изображения и по какому принципу генерация слов в prompt работает. Ибо такое (art a girl in red dress with short hair a summer with black hair) уже вываливает в ошибку. Буду тестить дальше.
С космонавтом изображение по умолчанию.
Приветствую, подскажи как ты запустил эту гадость ?
Все делал по гайдам, все работает но на выходе вместо чего либо черный, серый, квадрат и все...
С любыми настройками...
Куда копать ?
RX590

NovelAi Работает на проце((
Попробуй поставить по этому гайду заново. Удали всё полностью и питон тоже.
(Waifu Diffusion)
Запустил быстро, не считая дырявого токена, который меня взбесил еще на Stable ветке.

Про черные, серые квадраты на выходе не встречал. Мейби что-то упустил. Данный выше гайд более анимешный (Waifu Diffusion). Если нужен именно Stable, то вот
У меня rx5700xt, может у rx590 какие-то траблы есть хз, на 580 вроде работает норм
Наконец-то это работает.....
Проблема оказывается была в количестве шагов.

Для тех у кого будет подобное, советую начинать с 5 и увеличивать по нарастающей.
Извиняюсь, если спрашивали, но в инете не нашёл как решить проблему. Всё поставил как в этом посте, но изображения среднего размера порядка 1024 на 1024 генерить не хочет, ссылается на:
Runtime Error: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 4.00 GiB total capacity; 3.02 GiB already allocated; 0 bytes free; 3.04 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Видеокарта - gtx 1050ti
Где изменить max split size?
У тебя видеопамяти для такого разрешения не хватает. Сделай разрешение поменьше, а позже заскейль картинку.
После обновы репозитория у меня пропал из настроек отдел с Stable Diffusion и выбором модели.... Сижу, недоумеваю....
Выбор модели был перенесён в верхний левый угол на любой странице, раздел настроек с Stable Diffusion подпунктом у меня на месте
-» C ù O 127.0.0.1:7860 Stable Diffusion checkpoint NovelAI.ckpt [925997e9] txt2img img2img Extras PNG Info Checkpoint Merger Prompt (press Ctrl+Enter or Alt+Enter to generate)
Нету у меня в левом верхнем углу ничего такого. Есть в меню настроек справа вверху. А вот модули гипернетворк (аниме, аниме1, фурри и прочее) вообще найти не могу где выбирать.... Было же! Но пропало.... А жаль.
Так ща разберёмся. Перейди в "stable-diffusion-webui\models" и скажи есть ли у тебя там папка hypernetworks? Ключевой момент это название этой папки. Должно быть "hypernetworks", не "hypernetwork", должно быть именно с "s" в окончании.
И уже внутри должны лежать файлы гиперсетей в формате .pt
Сам гиперсети я юзаю не часто, если и использую, то только те, что тренирую сам, на свою рожу, на определённого автора или стиль. Те, что идут по умолчанию с NovelAI как по мне довольно скучные.
Так же попробуй обновить сборку SD через команду git pull, либо заного перекачать сборку, возможно, что то попердолило, один раз у меня такое было.
Таааа-кс папка присутствует. И именно "хипернетворкС"... файлы в наличии... гит пул прописан. Не работаить. Гиперсетей нет в настройках. На слова "перекачать сборку" мой мозк почему-то словил клин и завис. Интенсивно излучаю тупость и непонимание. Ты имеешь в виду перекачать СД с гита, да? Дык он же вроде чекится при каждом запуске... Или я чего не понял? Я тупенький во всех этих терминах... Темен и дремуч. Но искренне благодарен за возню с моими вопросами!
Ничё, всё нормально. Без затупов - жизнь залупа.
Да, под перекачать заного имею в виду полностью снести имеющуюся stable-diffusion-webui (можно забэкапить файлы моделей там, embeddings, стили кастомные и скриптики если есть). И заного через команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git поставить всё по новой. Один раз у меня самого поламалось что то и git pull не помогал ни в какую. По этому на всякий на втором диске держу бэкап и раз в недельку перезаписываю.
спасибо, так и попробую. Не то, чтобы мне нужны были эти гиперсети.... Мне и так нравится результат. Хорошая штука, в работе поможет.
А вот я чёт за последние 5 часиков, чёт слишком лихо наигрался с гиперсетями. Гиперсеть натреняная на мою рожу с помощью SD-v1.4, спокойно встала на NovelAI и прям чёткие результаты выдаёт. Кажись нагенерил себе аватарок на разный стиль на жизни две вперёд.
Вот зачем ты это написал? Моего скудоумия едва хватило чтобы осилить установку и юзанье базовой сети, а тут еще инфо что там что-то тренировать можно. Овердоз. Но я ж худуёжник, сам рисую. Нейронку приспосабливаю для генерации беков, частей, цветовых решений ну и для поиска вариаций сюжета или композиций. Ранее искал рефы на артстанции и пинтересте, но сейчас отдаю нейронке. Потом все равно все перепиливаю после нее. Даже после апскейлов нейроарт мало пригоден для качественного арта. Так что в моем случае это рандомный генератор рефов. Особо зацикливатся на выдрачивание результата не вижу смысла. Да и все больше прихожу что в моем случае имедж ту имедж имеет больше смысла. Скормил эскиз, напромпил и вуаля! Все намного предсказуемо и контролируемо.
Вот тебе фаст скетч на базе твоей аватарки для опробования имедж ту имедж. В виде благодарности за возню с моими реквестами.
Чтож ты делаешь злодей.
Пили гайд)
Постараюсь тогда на следующей неделе
Пост для поиска(NovelAI+stable)
А в чем разница, между "animefull-latest" и "anime-full-prevgood"? По идее последний называется что-то типа "превзошел все ожидания", разве не логичнее будет ставить его, вместо первого варианта?
Поставил "anime-full-prevgood" версию, и ВРОДЕ КАК, он даже лучше, или мне кажется, хз. Думаю знатоки кодинга меня подправят лучше он или хуже...
Не очень понимаю как получился перевод prevgood - "превзошёл все ожидания". Скорее там сокращение с "previous good" - "предыдущее хорошее". В то же время animefull-latest - вроде уже максимально натренированная версия модели на то время когда был взлом.
По поводу качества тут сказать и спорить не смогу, ибо не тестил. Было бы хорошо проверить на одинаковых сидах и настройках, как они обе отрабатывают сценарии с отрисовкой пальцев, лиц, и прочего.
Есть информация куда Model hash можно ввести, или нужна именно пикча основа для img2img?
Хэш модели тебе врятли нужен вообще. Он нужен просто, что бы убедиться, что та или иная картинка сгенерирована на конкретной модели, при условии, что ты уже знаешь хэш модели, на который проверяешь.
А для img2img, как основа используется изображение, ну собственно поэтому и называется Image to Image, преобразование одного изображения в другое.
не очень понятно в novelai которая здесь размещена какие скобки то используются?
Приложеная в посте модель загружается в Stable Diffusion в котором используются обычные круглые и квадратные скобки () [].
Фигурные скобки {} только в оффициальном NAI https://novelai.net/image
Можешь подсказать момент? Пытался сегодня запустить и настроить нейронку по инструкции с того поста:
https://joyreactor.cc/post/5352923
При первом запуске качает файлы, которые размещаются в "C:\Users\Егор\.cache\huggingface\transformers\"
И на последнем файле который на 1,5 Гб выдаёт какую-то ошибку, типа не хватает памяти, хотя скачалось полностью и на диске ещё 7 гигов свободно. И при повторном запуске пишет как на скрине.
В чём может быть ошибка и возможно ли чтобы скачивание шло не на диск C?
C:\WINDOWS\system32\cmd.exe The file may be malicious, so the program is not going to read it. You can skip this check with --disable-safe-unpickle commandline argument. Traceback (most recent call last): File "Z:\Stable diffusion\novelaileak\stable-diffusion-webui\launch.py”, line 2Б2, in
Более полное изображение.
C:\WINDOWS\system32\cmd.exe Working with z of shape (1, 4, 32, 32) = 4096 dimensions, making attention of type 'vanilla' with 512 in channels Downloading: 100%| 100% I 100% I 100% I 100% I 100% I Downloading: Downloading: Downloading: Downloading: Downloading: 939k/939k [00:29<00:00,
Попробовал ещё раз удалить эти кеш-файлы, перезагрузил комп, теперь пишет другую ошибку...
C:\WINDOWS\system32\cmd.exe venv "Z:\Stable diffusion\novGlailGak\stablG-diffusion-wGbui\venv\Scripts\Python.gxg” Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: ac085628540d0Gc6a988fad93f5b8f2154209571 Installing requirements for Web UI
Получилось разобраться, не хватало оперативки.
подскажите когда чекаю чужие картинки через png info у всех подряд "strength": 0.69, "noise": 0.667 а где эти значения устанавливаются?
Не пойму в чем дело
FI C:\Windows\System32\cmd.exe Already up to date. venv "D:\Programs\stable-diffusion-webui\venv\Scripts\Python.exe” Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: 98947dl73e3fl667eba29c904f681047dea9de90 Installing requirements for Web UI
Хм, оно кажется ругается на то, что какой то файл повреждён.
я даже пункт 1 пройти не могу
1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui
¯\_(ツ)_/¯
пишет:
https://pastebin.com/raw/BKVtGMwY


File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 255, in
prepare_enviroment()
File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 179, in prepare_enviroment
run_pip(f"install {gfpgan_package}", "gfpgan")
File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 63, in run_pip
return run(f'"{python}" -m pip {args} --prefer-binary{index_url_line}', desc=f"Installing {desc}", errdesc=f"Couldn't install {desc}")
File "E:\D\T\novelaileak\stable-diffusion-webui-master\launch.py", line 34, in run
raise RuntimeError(message)
RuntimeError: Couldn't install gfpgan.
Ну вот собственно и ошибка:
ERROR: Cannot find command 'git' - do you have 'git' installed and in your PATH?
У тебя видимо не установлен GIT
Хотя пишет WARNING: You are using pip version 20.2.3; however, version 22.3.1 is available.
Что означает, что ты его вроде бы установил, но что то пошло не так. Попробуй обновить его, как он просит.
Либо попробуй переустановить, чётко следуя инструкции автора - https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installation-on-windows
попробовал по инструкции с https://rentry.org/voldy установить. там вроде тоже все элементарно просто:
1. установить https://github.com/git-for-windows/git/releases/download/v2.37.3.windows.1/Git-2.37.3-64-bit.exe
2. в нужной папке по ПКМ - "Git Bash here" - "git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui"
а далее тупо по директории /models/Stable-diffusion закинуть .ckpt файл. запустить webui-user.bat
все

ошибка, https://pastebin.com/raw/d2pq77Pp
Waifu Diffusion 1.4 основана на Stable Diffusion 2.1
Скачай wd-1-4-anime_e1.yaml и помести рядом с .ckpt моделью, называться должны одинаково.
https://huggingface.co/hakurei/waifu-diffusion-v1-4/blob/main/wd-1-4-anime_e1.yaml
все заработало. а где изменить параметр:
To create a public link, set `share=True` in `launch()`.
? на "True"?
просто добавить аргумент --share в webui-user.bat
set COMMANDLINE_ARGS=--share
На всякий случай предупрежу, что это делать не обязательно, это аргумент для того, что бы создать публичную ссылку, на которую смогут зайти допустим ваши друзья, или если вы хотите работать удалённо от своей машины с которой запускаете.
То, что в консоли в конце запуска пишет это, не более чем напоминалка о том, что так можно сделать.
все работает. вопрос -- можно ли как сделать чтобы ссылка была хотя бы одна и та же после перезапуска батника?
или порт где поменять?
Агрумент --port xxxx
Рекомендую прочитать вики, если есть вопрос, то скорее всего ответ есть там - https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Command-Line-Arguments-and-Settings
я этого вообще не понимаю. генерирую себе тысячи картинок, а потом БАЦ и пишет "vanv E:\P\Stable-Diffusion\stable-diffusion-webui\python.exe" и следующей строкой нажми любую клавишу чтобы продолжить. нажимая закрывает cmd и на этом все. помогла перезагрузка компьютера,почему такое вообще ни с того ни с сего выскочило?

далее, при запуске пишет теперь такую ошибку https://pastebin.com/raw/CZLscXDb
и перезагрузка больше не помогает
Увы тут моих познаний не хватит.
Лучше спросить у мудрецов напрямую - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/new
вроде предыдущая ошибка пропала.
проблема оказалось в sata подключении диска. у меня чередующийся, динамический и грузило только один физический ссд, а второй простаивал в итоге к части данным не мог софт обратиться, ну как я думаю¯\_(ツ)_/¯ хотя по приколу до того как обнаружил это успел и venv переустановить. а вместе с ним и еще что-то напереустанавливалось.. наверное от того у меня теперь новая ошибка - https://pastebin.com/raw/cHzReAUT как ее решить? или тупо полная переустановка поможет?))
upd помогло удаление/переименование каталога вывода..
а такой вопрос.. можно ли как-то подключить еще процессор помимо cuda? чтоб быстрее было
Хм, не знаю можно ли их запустить вместе. Тем не менее, не думаю что будет хотя бы какой ни будь существенный прирост, разве что если процессор не топовый тридриппер
ну у мну i9-13900
ты еще жив? у тебя получается установить расширения? у меня пишет ошибки, https://pastebin.com/raw/EZ7ZBd6J
Вижу ты используешь аргумент --share и --listen, попробуй добавь в аргументы ещё --enable-insecure-extension-access и попробуй установить расширения ещё раз
тут такое дело.. винду переустановил, но при запуске батника с старого каталога теперь пишет такую ошибку, https://pastebin.com/raw/CqqrFtXy
я повторно установил все с инструкции, https://cloudflare-ipfs.com/ipfs/QmUh1gLxhmGNdyCTzGPEBmEYu3yHrw65HZG2VpoEhrftsm?filename=.html и тупо перенес модели которые были и тогда все работает.
с старым каталогом не разбирался что да как. раз не стал помогать _
почему когда я на,

Extensions > Install from URL > URL for extension's git repository: https://github.com/Mikubill/sd-webui-controlnet

выставляю эту ссылку. у меня в логе пишет:
https://pastebin.com/raw/cL50Vvs0 OSError: [WinError 5]

... ничего не получается с одного раза установить
меня просто заинтересовал этот пост и сообщение чела, https://old.reactor.cc/post/5526416
но у меня не запускается от имени администратора. мгновенно выключается.
запуская через пкм- запустить от имени администратора
Увы я не знаю, чем ещё помочь. Попробуй создать тему на странице расширения, может подскажут чем то.
Но у меня лично с ControlNet проблем не было, я даже попробовал его переустановить с нуля, словил такую же ошибку, что была у тебя, но работоспособности расширения это никак не сказалось. Просто после этого сообщения, я применил его и перезапустил SD, и всё спокойно работает.
У меня Cuda не устанавливается. Карта 3060. Не подскажите что делать?
Так же не могу разобраться как установить Torch
По идеи это всё автоматически начнёт подкачиваться при первом запуске батника.
Установи по инструкции Python 3.10.6 (Во время установки поставь чек на Add Python to PATH)
Установи GIT
И потом запусти команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
После перейди в папку куда у тебя это установилось, закинь нужные тебе модели в папку с моделями.
И запусти батник webui-user.bat дальше он сам подкачает и доставит всё необходимое.
https://github.com/AUTOMATIC1111/stable-diffusion-webui#installation-and-running
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs
По твоим шагам все сделал, он требует что бы я обновил pip на последнюю версию. Я ее обнавляю, он просит обновить pip на последнюю версию. Когда устанавливаю версию выше 3.7 он не видит питон и показывает путь к версии 3.7
venv ”C:\NovelAi\stable-diffusion-webui-master\venv\Scripts\Python.exe” No Python at 'C:\Users\Mihai\AppData\Local\Programs\Python\Python37-32\python.exe‘ Для продолжения нажмите любую клавишу . . . т
Во время установки питона ты ставил галочку напротив "Add Python to PATH"?
Возможно из за этого он и не видит путь до питона.
Все ставил. В гайде кстати не упоминается прикалюха с pip и pytorch которые нужны для этого
Хм, странно. Так на всякий, что бы убедиться, что ты всё правильно установил, опишу последовательно надёжный процесс установки SD. Проверь, может, что то не так.
1) Качаем Python версии 3.10.6 - https://www.python.org/downloads/windows/ , во время его установки начале ставим чек напротив "Add Python to PATH".
2) Устанавливаем GIT - https://git-scm.com/download/win не трогая никакие настройки по худу установки, разве что можно выбрать какой "блокнот" хочется оставить.
3) Устанавливаем файлы из репозитория AUTOMATIC1111. Я обычно перехожу в C:\Users\[User]\ или можно выбрать другое удобное место, и от туда вызываю командную строку и запускаю команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git , должна будет скачаться папка stable-diffusion-webui
4) В папку \stable-diffusion-webui\models\Stable-diffusion\ закидываем модели которые хотим.
5) Запускаем webui-user.bat из корня папки и оно до качает остальное и в конце предложит ввести в браузер ссылку, что бы перейти уже непосредственно в webui SD для дальнейшей работы.
Если, что то не заработает по этому гайду, то я уже врятли смогу помочь
Я все поставил, только теперь как увеличить использование оперативной памяти? А то генерит черные картинки
Так, назови лучше спецификации своего ПК.
Если хреново генерит по умолчанию, то зайди в webui-user.bat и в строке с set COMMANDLINE_ARGS= добавь --medvram --precision full --no-half. Должно получиться
set COMMANDLINE_ARGS=--medvram --precision full --no-half
И чёрные картинки могут получиться если выставить разрешение для генерируемой картинки слишком высоким. Рекомендую если ты не на хай-энд пк каком ни будь, то генерить в разрешениях близких к 512x512, поднять разрешение понравившейся картинки потом можно апскейлером в том же SD в разделе Extras.
Вопрос на 203 миллиона рублей, можно ли натренить прогу на свою вайфу, с которой не так много артов, чтобы нейронка сама понимала, что нужно нарисовать? И еще, как нормально на 1 картинке сделать двух разных персонажей, чтобы их теги сильно не перемешивались?(Модель NovelAI или SD2)
Ответ на 203 миллиона рублей - можно - https://joyreactor.cc/post/5385644
Ну а по поводу двух разных персонажей, то простого txt2img не хватит, потребуется дорисовывать второго персонажа в img2img уже рядом со вторым через inpainting
Добрый день
Уж не знаю сколько раз я пытался поставить все это дело, но все никак не выходит
Выдает следующую ошибку. Надеюсь на помощь и что время не пропало зря
о X ЕЯ Выбрать C:\WINDOWS\system32\cmd.exe venv "C:\ai\stable-diffusion-wGbui\venv\Scripts\Python.exe” Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: 44c46f0ed395967cd3830dd481a2db759fda5b3b | Installing requirements for Web UI Launching
Хм, давай проверим. Перейди в C:\Users\Denisa/.cache\huggingface\transformers\ и удали там всё, и попробуй запустить ещё раз.
И вправду помогло, спасибо большое
Приветствую Вас, дорогие художники)
У меня вот как бы есть проблемка, не выходит поставить стабильную диффузию из магнит ссылки, всё по пунктам автора ставил, так же удалял папку .кэш, но не хочет, со стандартной ток работает, при попытке переключить на стороннюю - еррорс (скрин ниже)
А на стандарте - ну пока не плохо(результат прикреплю в комм), даже нрав результаты) Моя Благодарность автору =*
“ C:\WINDOWS\system32\cmd.exe Activate last layer is set to True Optimizer name is AdamW No saved optimizer exists in checkpoint Loading VAE weights from: C:\NNPIC\stable-diffusion-webui-master\models\Stable-diffusion\novelAI.vae.pt Applying cross attention optimization (Doggettx). VAE
На скриншоте вижу, что хэш твоей модели отличается от NovelAI (925997e9), и ругается на то, что он может быть не безопасным. Возможно у тебя какая то модифицированная модель, но она просит прописать аргумент отключающий безопасность, а с нормальными моделями такого не бывает.
Так, же вижу, что сетка видимо ставилась в ручную скачиванием папки с гита и разархивацией. В таком случае корневую папку сетки лучше назвать просто "
stable-diffusion-webui" без -master.
Часто возникают проблемы, что сетка начинает бугуртить, если лежит не в том месте или не так.
Вариант установки сетки надёжный как швейцарские часы я расписывал выше на несколько сообщений.
Ну и нужно всё таки найти модель, которая не хочет отрубать защиту, а то генерить разное, конечно хорошо, но безопасность никто не отменял.
Да, ставилась в ручном режиме, а на счет мод модели - качал файл с магнит ссылки что прикреплена в пункте 2.
Сейчас переименую убрав "мастера" с названия и отпишусь если поможет, если нет - переустановлю в авто.
Пасиб за быстрый ответ
Увы, но перестановка всех компонентов не дала положительного результата, разве что хэш появился
“ C:\WINDOWS\system32\cmd.exe venv ”C:\NNPIC\stable-diffusion-webui\venv\Scripts\Python.exe" Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: 44c46f0ed395967cd3830dd481a2db759-f Installing xformers Installing requirements for Web UI Launching
Обновлено; Проблема заключалась в моём недосыпе, что привело к моей невнимательности и забывчивости проверить корректность имени скачанных файлов. Банальная проблема, файл что я пытался запустить был: animesfw-final-pruned, вместо: animefull-final-pruned. После замены на файл из корректной папки всё стабильно запустилось. Отдельное спасибо за гайдик, печенья автору ;*
Можете помочь написать промпты к данной пикче? Сам я пытался, но даже банального nsfw не получается. Хотелось бы позаимствовать стиль рисовки и тп.
novelai.vae Ignore selected VAE for stable diffusion checkpoints that have their own .vae.pt next to them Hypernetwork anime(1145414c) 0 Hypernetwork strength Inpainting conditioning mask strength Noise multiplier for img2img 1 i i i Apply color correction to img2img results to
Здравствуй. Могу предложить ультимативное решение.
Отредактируем батник webui-user.bat добавив в строку с аргументами set COMMANDLINE_ARGS= аргумент --deepdanbooru
Запускаем сетку, в настройках рекомендую включить чексбокс (use spaces for tags in deepbooru), переходим в раздел img2img, перетаскиваем туда понравившуюся картинку и жмём Interrogate DeepBooru, при первом запуске прийдётсся подождать, ибо она подкачает нужные файлы.
Вот небольшой гайд на английском, если не хватает картинок для пояснения https://gigazine.net/gsc_news/en/20221012-automatic1111-stable-diffusion-webui-deep-danbooru/
Для твоего изображения предложило следующие промпты - 1boy, 1girl, after paizuri, bangs, bar censor, black hair, blurry, blush, bow, breast squeeze, breasts, censored, cum, cum on body, cum on breasts, cum on clothes, cum on hair, cum on penis, ejaculation, facial, hetero, long hair, long sleeves, looking at viewer, low twintails, male pubic hair, mosaic censoring, paizuri, paizuri under clothes, penis, pov, projectile cum, pubic hair, purple eyes, school uniform, see-through, shirt, smile, solo focus, twintails, wet
Ух, не знал
Спасибо большое
Все сделал как написано выдает такую ошибку......
BS C:\Windows\system32\cmd.exe □ X venv "C:\Users\Denis\stable-diffusion-webui\venv\Scripts\Python.exe" Python 3.11.1 (tags/v3.11.1:a7a450f, Dec 6 2022, 19:58:39) [MSC v.1934 64 bit (AMD64)] Commit hash: 5927d3fa95e9ae43252d598f7791ca26cfcad5e3 Installing torch and torchvision Traceback (most
Вижу, что Python версии 3.11.1, SD не работает с ним.
Удали эту версию питона, так же удали папку с stable difusion, установи Python версии 3.10.6 и после опять ставим SD и всё должно работать.
Вот на всякий моя последовательность надёжной установки - https://joyreactor.cc/post/5352923#comment26802657
Благодарю! Все получилось, единственное pytorch пришлось отдельно докачивать.
Здравствуйте, можете помочь всё настроить. Интерфейс поменялся и нифига не понятно (в левом верхнем углу SD чекпоинт указал) но всё равно какое-то дерьмище генерируется. Скачивал всё по гайду
Stable Diffusion Checkpoints to cache in RAM SDVAE novelai.vae Ignore selected VAE for stable diffusion checkpoints that have their own .vae.pt next to them Hypernetwork anime(1145414c) □ Hypernetwork strength Inpainting conditioning mask strength Noise multiplier for img2img Apply
Ну что бы понять в чём проблема, было бы хорошо ещё знать с какими промптами генерится изображение, на каком семплере, в сколько шагов, каком разрешении и прочее. Так же дефолтные hypernetworks, что идут в том торренте я бы не рекомендовал к использованию, но картинку хуже они делать всё равно не должны.
Касаемо настроек, когда работаем с NovelAI моделью, то лучше выставить "eta noise seed delta": 31337 и ползунок "Stop At last layers of CLIP model" на 2
 Save a copy of image before applying color correction to img2img results With img2img, do exactly the amount of steps the slider specifies (normally you'd do less with less denoising). Enable quantization in K samplers for sharper and cleaner results. This may change existing seeds. Requires
У меня почему то нету графы с Stop At last layers of CLIP model
Сейчас называется просто Clip skip, скриншот старый.
Спасибо, и ещё вопрос, тут же нету автообновлений чего-либо?
По умолчанию нет. Если хочется, то редактируем баткик из которого запускаем найронку, добавив строчку git pull, после чего при запуске батника, он будет проверять, нету ли свежих обновлений, и если есть, то скачает и установит их.
о ä^ в öö ¿'ÜB ЭС! Л ¡a * * □ Ы webm-user bat □ PconhgFsoo ü Breadme t 1 echo off 2 3 set PYTHON= 4 set GIT= 5 set VENV_DIR= 6 set COMMANDLINE_ARGS=--deepdanbooru 7 ________ 8 #git pull 9 call webui.bat 10
То есть в принципе имеет смысл делать одну версию без обновлений и другую с ними? что бы не проебать ничего
Если дисковое пространство пк позволяет, то вполне можно. Сам бэкаплю периодически.
у меня трабл какой-то с img2img, при выборе шагов ставлю одно значение, но генерируется по другому, с txt2img норм всё
я вроде и понял что это связано с Denoising strength, но почему не понял)
Когда работаем с img2img, то denoising strenght влияет на то, на сколько новое изображение будет похоже на оригинал.
0 - идентичное, без изменений
1 - Полностью оригинальное, ничего общего.
Ну и промежуточные значения между 0 и 1, уже подбираем под свои хотелки и нужды.
А есть где-то список всех тегов?
Не могу понять в чём хихишка, и в итоге не работает. help
C:\Windows\system32\cmd.exe □ X venv ”E:\novelai\venv\Scripts\Python.exe" Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] Commit hash: <none> Installing requirements for Web UI Launching Web UI with arguments: No module ’xformers'. Proceeding without
Вроде эта проблема появилась недавно, но у меня она не возникает.
Необходимо откатить fastapi, как я понял.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/7714#issuecomment-1426058038
спасибо, помогло вот это https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/7714#issuecomment-1426075390
а так, жаль что норм ру сообщества по sd и прочим нейросеткам нет
А. и ещё вопросик, где нужно прописать share=true? ибо launch() не находится
не помогло
В плане не помогло? Ошибку какую то выдало или ничего не произошло?
Вообще без изменений, --locate тож не помог. Попробую поковырятся с переадресацией портов, но возможно проблема в динамическом ip
Здравствуйте
При нажатии клавиши interrogate deepdabaroo в img2img возникает данная ошибка. Не знаете в чем может быть проблема?
To create a public link, set 'share=True' in 'launchQ'. Startup time: 20.4s (import gradio: 3.5s, import 1dm: 1.2s, other imports: 2.4s, setup codeformer: 0.1s, load scripts: 1.2s, load SD checkpoint: 11.3 s, create ui: 0.5s, gradio launch: 0.1s). Traceback (most recent call last): File
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
0 dreambooth-gui
□
X
Pick Image Config Trainer Train