Результаты поиска по запросу «

Alloc

»

Запрос:
Создатель поста:
Теги (через запятую):



kankan33333 Yesod Philip (LoR) Eileen (LoR) Freischutz All-Around Helper Singing Machine Malkuth Hokma Fixer ...Library of Ruina LC Sefira Lobotomy Corporation Игры LC Abnormaly Oscar (LoR) Alloc (LoR) Wang (LoR) Yuna (LoR) Bono (LoR) Jin (LoR) Mi (LoR) Salvador (LoR) Pamela (LoR) Pameli (LoR) Dalloc (LoR) Bada (LoR) Martina (LoR) Nemo (LoR) Pluto (LoR) 

kankan33333,Jin (LoR),Mi (LoR),Wang (LoR),Yesod,LC Sefira,Lobotomy Corporation,Игры,Philip (LoR),Eileen (LoR),Freischutz,LC Abnormaly,All-Around Helper,Singing Machine,Malkuth,Salvador (LoR),Yuna (LoR),Oscar (LoR),Pameli (LoR),Pamela (LoR),Library of Ruina,Martina (LoR),Bada (LoR),Nemo (LoR),Dalloc

kankan33333,Jin (LoR),Mi (LoR),Wang (LoR),Yesod,LC Sefira,Lobotomy Corporation,Игры,Philip (LoR),Eileen (LoR),Freischutz,LC Abnormaly,All-Around Helper,Singing Machine,Malkuth,Salvador (LoR),Yuna (LoR),Oscar (LoR),Pameli (LoR),Pamela (LoR),Library of Ruina,Martina (LoR),Bada (LoR),Nemo (LoR),Dalloc

kankan33333,Jin (LoR),Mi (LoR),Wang (LoR),Yesod,LC Sefira,Lobotomy Corporation,Игры,Philip (LoR),Eileen (LoR),Freischutz,LC Abnormaly,All-Around Helper,Singing Machine,Malkuth,Salvador (LoR),Yuna (LoR),Oscar (LoR),Pameli (LoR),Pamela (LoR),Library of Ruina,Martina (LoR),Bada (LoR),Nemo (LoR),Dalloc

Развернуть

Kaladesh Magic the Gathering Игры Wizards of the Coast Vincent Proce hi-res 

Kambal Consul of Allocation

г'« / - fl		
- к ^,Kaladesh,Magic the Gathering,Игры,Wizards of the Coast,Vincent Proce,hi-res


Развернуть

Warhammer 40000 фэндомы Wh Other Adepta Sororitas Ecclesiarchy Imperium Новый Год Lutherniel artist Orders Hospitaller 

"Happy New Year everyone!
I've overhauled my Patreon with hope of being able to allocate more time to actually work on BtK comic.
Here's hoping for good stuff coming this year!"

Warhammer 40000,wh40k, warhammer 40k, ваха, сорокотысячник,фэндомы,Wh Other,Adepta Sororitas,sisters of battle, сестры битвы,Ecclesiarchy,Imperium,Империум,Новый Год,Lutherniel,BolterToKokoro,artist,Orders Hospitaller

Развернуть

MykeGreywolf furry artist furrotica furry f furry swimsuit furry goat Bunnysuit furry fox furry lizard furry otter ...furry ungulate furry art scaly furry canine furry фэндомы artist furry Weasel furry badger furry reptile furry sheep 

Развернуть

гифки поезд детский сад дети 

Развернуть

гифки Matt Furie artist Pepe the Frog Мемы программист geek 

Развернуть

Игры сделал сам 2d гифки yasg #YASG 

Я сделаль(родиль?) маленькую игрушечку

Три года назад случилось странное: я сделался индюком (инди-разработчиком игр). Теперь хочу показать вам свою игрушечку.


Игра в жанре песочница (Minecraft, Terraria). В игре ты за очень скромного темного лорда, живущего в полуразрушенном замке. У тебя появляются слуги - маленькие черные прыгучие шарики. Сам ты ничего не делаешь, но можешь приказывать им (это непрямое управление).


Суть геймплея простая: копай, строй, лупи врагов.


Гуляй по карте



Копай



Строй



Но плохие ребята могут прийти по твою душу



Поиграть можно здесь, прямо в браузере + доступен русский язык.


Теперь у меня важный вопрос. Что вы думаете, стоит ли продолжать? Или индюшатина уже никому не интересна, потому что ее слишком много?

Развернуть

Warhammer 40000 фэндомы новая редакция изменения много букв гв - такое гв 7th edition 

Некрон-лорд теперь вместе с баржей воскрешается.

Line of Sight is now traced from one model's body to another model's- no more drawing from the eyes/head. Sort of.

“Start of the turn” is explicitly before the Movement phase occurs; “end of turn” is explicitly after the Assault phase.

Coherency, as several others have noted, is now 6″ vertically at all times (not just in ruins.)

If you generate all your powers from one discipline you get the Primaris automatically, but if you gain a power later from another discipline, you'll lose that Primaris. Chaos Marines/Daemons always know the primaris from their god's discipline.

Force is not a discipline and doesn't count for psychic focus, etc. It is, however, a Blessing and can be negated, etc, as normal.

Warp Charge counts all units on the table, including those in transports. The psychic phase ends immediately if the active player runs out of warp charge.

You can only ever manifest psychic powers on your own turn. Kinda breaks a bunch of the Blood Angels/Grey Knights powers?

Psyker units can only attempt to manifest a particular power once. Text is a little ambiguous what this means, though; if there are multiple psyker models within a unit (that can each manifest separately, as opposed to a Brotherhood) maybe they can each do their own thing? If unit = unit in the normal sense, though, that implies that powers are “shared” amongst a unit, so you could choose to have a unit of Farseer + Warlocks manifest one of the Farseer's powers through a Warlock. I'm thinking that's not how it works.

Deny the Witch is on 6s unless you have a bonus. Shutting down powers is really, really hard. Casting them is harder too, though.

Can't cast anything but Witchfires out of a transport.

Perils only happens on natural double (or more) sixes. Currently there's no way to get modifiers, but could eventually be relevant.

Perils is more dangerous than before, at least by a bit. Still causes a wound most of the time (but on 5/6 you can make a Ld test to dodge it.) 4+ on the table ONLY causes a wound, so not all that dangerous. 1/2 are potentially pretty bad, with 2 actually being the worst- no roll to avoid it, and for low-Mastery psykers it can render them useless for the remainder of the game.

Psychic Pilot explicitly gives a bonus to Deny rolls.

Psychic Hood is 12″ range now, otherwise does the same thing.

Blessings don't stack unless specifically stated.

Conjurations bring the unit in via Deep Strike, so no movement/assault. Mishapping lets you place them anywhere you want on the subsequent turn, though. The conjured unit generates powers/abilities immediately as appropriate, but can't cast conjurations of its own that turn. They're scoring. Conjured Daemons can always take an Icon/Insturment/Champion for free if you have the appropriate model available.

Powers last from one psychic phase to another, unless otherwise noted, so Blessings will never help you on your first movement phase. Interesting.

Maledictions don't have the same “never culmulative” text that Blessings do, but are otherwise worded similarly (which implies they probably don't stack.) Still can't go below 1 in anything.

You can cast as many Witchfires as you want and still shoot, and can target anything you want.

Beams don't reduce in strength anymore for multiple models? Pretty sure that was a thing previously.

Focused Witchfires get to choose their target if you roll more successes than you needed to cast the power. This is huge, as it means that the previously-unreliable targeting aspect of them is now actually quite accurate. They otherwise hit the nearest model, which is still useful.

Novas hit FMCs/flyers.

Shooting is resolved one weapon at a time now, but you can still only fire one gun unless otherwise noted. Interestingly, different fire modes are counted as different weapons for this purpose. The limitation on firing one gun is no longer specific to the shooting phase.

Snap Shots are always BS1, unless specifically stated otherwise or modified by a rule that states otherwise.

If models are equidistant from the shooter, the owner chooses which to remove.

You can't allocate wounds to models out of LOS. [черт] you, blast weapons, you have to follow the rules.

Since weapons are resolved one at a time, it's possible to put your shorter-ranged guns out of range. Pick your order carefully.

Models that Go to ground can't fire overwatch. That's a pretty big deal.

Cover is always 5+ unless specified otherwise.

Ordnance weapons can never fire Snap Shots. Nonvehicle models that shoot an Ordnance weapon can't charge or fire other guns.

FMCs can theoretically drop bombs now. Huh.

Primary weapons with Armorbane roll 3d6 and pick the two highest. Nice little fix there.

You're allowed to charge things you can't hurt, explicitly so.

Charging through terrain is -2″. This can cause you to fail a 1″ charge.

Pile in during assaults is slightly different. Functionally pretty similar, though.

Monstrous Creatures can never Go to Ground.

FMCs that Deep Strike are always considered to be Swooping.

Grounded tests are only on unsaved wounds, and are at the end of the phase. You can't charge if you went into Glide mode on your own turn, but you can if forced by a Grounding test.

Vehicles are allowed to make Snap Shots with ordnance weapons.

When Immobilized, flyers crash on a 1/2 and otherwise count it as Stunned.

Exploding vehicles no longer leave craters. Wrecked vehicles are not dangerous terrain (though they're still difficult.)

Vehicles are allowed cover saves against weapons that inflict damage results, but don't roll on the damage table- specifically including Graviton weapons.

Stationary vehicles are still treated as WS1, though Immobilized ones are not.

If a vehicle suffers a damage result that doesn't kill it, embarked units have to make a Ld test at the end of the phase or be only able to fire snap shots.

Damage from vehicle explosions on the inside is allocated randomly. [черт]ing random allocation.

If a transport is destroyed by a shooting attack, ANY unit that shot the transport is allowed to charge the disembarked squad.

Moving Flat Out while zooming gives you 12″-24″ of distance.

You can't disembark from a chariot, period. Coming back to life if you were mounted on a chariot brings back your chariot with 1HP. When a Chariot is shot at, the owner gets to choose whether the wounds hit the chariot itself or the embarked model (except for blasts/templates, which always hit the vehicle.) Skimmer chariots don't need to take Dangerous tests for charging, and chariots only take a glancing hit from dangerous tests. Chariots (or more specifically their riders) fight like infantry models and the chariot can sweep, pile in, etc, as normal. When fighting against a chariot, you have to resolve all of your attacks against either the rider or the vehicle- you can't split them. You use the WS of the rider to hit it, and grenades can only be used on the vehicle. Hits against the vehicle are always resolved on front armor in CC.

Walkers no longer get a free pivot in the shooting phase. They do have the Hammer of Wrath rule, though.

Ramming does a base damage equal to half the armor facing of the vehicle, +1 for being a tank, +2 fr being heavy/superheavy- speed no longer matters (though you must go as fast as possible.)

Dozer Blades add +1 to your effective armor value when ramming.

Wounds from a challenge spill over into the unit, and wounds from outside the challenge can spill “into” the challenge (but only after all other models have been killed.)

Area terrain as a thing is gone, but many of its functions still exist. For example, ruins provide a 4+ cover save regardless of obscurement.

Craters are 6+ cover, regardless of obscurement, and give +2 when going to ground.

A model that fires a Gun emplacement can't fire any other weapons.

Buildings have HP now. 3/4/5 for small/medium/large. Jump and jet pack infantry can get into buildings. Buildings are explicitly treated like vehicles except where noted otherwise. Units on the battlements of a building that Collapses don't have to get off; those on a Detonating building get a free 6″ move to place themselves legally.

Gun Emplacements placed on buildings count only as Emplaced Weapons and can't be destroyed by shooting at them directly.

Unbound armies are stupid. really, really stupid. They're allowed to take Formations (and gain their benefits normally) if they want.

Whatever detachment contains your Warlord is your primary detachment, but otherwise it can be any of them. In an Unbound army, all models from the same faction as your Warlord benefit from their trait.

You can take any number of detachments in an army, including Allied detachments. “Combined Arms Detachment” is the general name for the old FoC chart, which includes one fortification and one Lord of War. A CAD can reroll its warlord trait and benefits from Objective Secured; allied detachments get Objective Secured, in both cases for Troop models only. Note this applies to dedicated transports for troops.

Warlords can be non-character models, but if they are, they do not get a warlord trait.

The warlord tables are mostly the same, but slightly cleaned up. Strategic is really, really good now.

Unbound armies still need to follow the rules for differing ally relationships. Battle brothers can embark on each others' transports now. Desperate Allies don't cause planes to crash anymore, but are scoring. Come the Apocalypse are like Desperate, but can't be deployed within 12″ to start.

Fortifications are set up with the rest of the army during deployment.

Winner of the roll-off picks whether to deploy first or second, and then both players do so. Whoever deployed first then chooses whether to take the first or second turn. This… is a pretty big change.

Conceding is now actually in the rules, and results in a crushing victory for the continuing player.

Only scoring units can claim Linebreaker. If both players kill a unit at the same time, they both get First blood.

The roll-off to place objectives is done before choosing table sides or deployment types (except in Emperor's Will) and is separate from the roll-off to pick sides, etc. Objectives can be on top of, but not inside of, buildings.

Swooping/zooming units don't score. Nonscoring units can't contest objectives.

Sabotaged objectives now cause d6 hits to units in 3″, rather than the large blast marker. Grav Wave Generator now subtracts two from charge rolls, and is cumulative with terrain.

Night Fighting is ignored if neither player wants to use it. It simply gives the Stealth rule to all units.

There is no limit to the number of units you can place in reserve, though if you have no models on the table you will still lose at the end of a game turn. Units from reserve can manifest psychic powers as they please.

You can't roll the same Tactical Objective more than once during a game. Maelstrom of War missions are optional, and only they use the Tactical Objectives. You generate tactical Objectives at the beginning of your turn, depending on the mission.

Scouring and Big Guns still give VP for killing the requisite unit types, but no longer have anything else special about that type.

The Relic is now scored like any other objective and can only be passed once per turn. Vehicles can never pick up the Relic.

The Maelstrom missions are… interesting. Above and beyond the other stuff here, they're gonna get a post all their own.

ATSKNF no longer gives the free 3″ move for regrouping.

Blind can only cause one test per phase.

Barrage weapons can only fire at targets inside their minimum range by firing directly.

Destroyer weapons always cause no effect on a result of '1′. 2-5 cause d3 damage (HP or wounds) and allow cover/invulnerable save as usual. 6 is the same as before and no saves of any kind can be taken, although special rules other than FNP can still be taken as normal. Destroyer weapons count as S10 for purposes of Instant Death (sorry, harpy/DP, no more dodging that bullet.)

Graviton weapons do nothing to buildings.

Hammer of Wrath is resolved against the armor facing you hit.

ICs can never join a unit that contains a monstrous creature of vehicle. They are, however, allowed to join units that consist of a single model.

Infiltrators and Scouts can never charge on their first turn, even if you went second.

Poisoned weapons only grant a reroll on wounds if your Strength is HIGHER than the toughness of the model you are wounding.

Precision Shots are only on sixes.

Rampage doesn't work when multicharging.

Skyfire no longer allows full-BS shots at ground targets if you have the Interceptor rule.

Smash Attack is now only a single attack, not half your normal number.

Sniper weapons are no longer Rending against vehicles and merely count as S4.

Strikedown doesn't lower the initiative values of affected models anymore.

Supersonic doesn't prevent you from entering Hover mode.

You can use Grenades against Gun Emplacements.

Defensive grenades can be throw as S1 Blind Blast weapons. They don't give Stealth at close range.

Like the missions, the psychic powers deserve an article all their own. (Also, we need to find out who can actually use what tables before they mean much- remember, in 6E a lot of models from a faction didn't have access to all of that faction's psychic disciplines.)
Warhammer 40000,wh40k, warhammer 40k, ваха, сорокотысячник,фэндомы,новая редакция,изменения,много букв,гв  - такое гв,7th edition
Развернуть

bios Windows 10 Windows Операционная система сисадмин помогите пидоры 

Как разблокировать продвинутые настройки BIOS

Вопрос знатокам - как мне разблокировать продивнутые настройки БИОС (BIOS Advanced settings)? Мой комп подкачивает память на граф. процессор, но подкачивает хуёво (хотя может подкачивать минимум 2.3 гг). Я хочу залочить значение подкачки на 2 гб минимум (ОЗУ - 16 гб).


Сразу перечислю методы, которые не сработали : Ctrl +F1 или Ctrl + F10 перед заходом в BIOS; нажатие быстро клавиши "A" (англ. раскладка) при чёрном экране сразу перед переходом в BIOS; во время перезагрузки нажимать Esc, после зажать A (англ.) и нажать F10;


Свойства системы:


Компьютер - HP ENVY x360


Режим BIOS - UEFI


Версия BIOS - Insyde F.09 (06.08.2020)


Windows - 10 Pro


Прошу помощи, ибо окончательно заебался.


P.s. Если нужны какие-то отдельные метки, скажите.
Развернуть

нейросети нейромазня Stable diffusion NovelAI DreamBooth длиннопост 

Тренируем модели через DreamBooth на конкретные образы.

Здравствуйте мои любители нейронного колдунства и прочих искуственно интелектуальных утех. Сегодня мы научимся тренировать уже готовые модели на образы которые мы хотим. Локально на нашем ПК без всяких Google Colab и Runpod.

Если я где то накосячил, поправьте в коментариях.

ДИСКЛЕЙМЕР! БУДЕТ ОЧЕНЬ МНОГО ТЕКСТА. Этот способ тренировки через DreamBooth подразумевает, что у вас в гробу установлена карточка (Nvidia скорее всего только поддерживается) с минимум 8-10 ГБ видеопамяти. Тренировка сетки уже куда более ресурсожрущий процесс, чем просто генерация картиночек. Ранее DreamBooth требовал минимум 24ГБ памяти. Так что пока я нашёл нужные материалы, проверил их и понял, как с этим работать, прошла не одна неделя... Стояла бы у меня 3090, то этот гайд вышел бы ещё в середине октября. но если всё же хочется побаловаться, то можно воспользоваться облачными google colab и runpod. Но я так же затрону гиперсети (Hypernetworks), результаты с ними куда менее презентабельные чем через dreambooth, но можно запустить на карточках попроще. Если вы всё же железо-бетонно готовы следовать дальше, прошу.

И так, продолжим. DreamBooth модель можно натренировать на свою рожу, свою собаку, любимую табуретку, или какого нибудь персонажа.

В данном посте я буду работать на модели NAI (NovelAI я буду сокращать в дальнейшем) ибо буду тренить на нашу Реактор-тян. Если хотите сделать своё лицо или, что то из нашего бренного мира то подойдёт обычная модель Stable Diffusion 1.4

В конце будет небольшой Q&A и заметки, дабы всю (почти) воду и рассуждения отградить от основной информации.

Я разобью гайд на несколько частей. Тренировка DreamBooth и тренировка Embeddings с Hypernetworks.

DreamBooth:

Знаю, что уже появился спобоб тренить DB (DreamBooth я буду сокращать в дальнейшем) через webui stable diffusion от AUTOMATIC1111 в виде загружаемого плагина, но чёрт, вы хоть видели сколько там настроек? Я устану вам объяснять каждую и вы умрёте от духоты, поэтому я выбрал более дружелюбное, отдельно загружаемое приложение - DreamBooth-gui - https://github.com/smy20011/dreambooth-gui скачиваем и устанавливаем его по инструкции приложеной на Гитхабе, не буду тут расписывать ибо и так много текста.

Запускаем приложение и видим первое, что нас просят сделать, а именно загрузить набор изображений на который мы хотим натренировать модель. Делаем их в разрешении 512x512, где надо фотожопим лишнее.

0 dreambooth-gui
□
X
Pick Image Config Trainer Train,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Как только залили изображения, я сделал 8шт, переходим на следующую вкладку Confin Trainer, здесь мы зададим нужные параметры и настройки. Рассуждения о зависимости некоторых параметров от других, пока где-то на уровне теории заговоров, но основные зависимости я объясню дальше.

И так, для начала выбираем модель. По умолчанию нам предложит CompVis SD v1.4, который оно подкачает с hugging face. Но сегодня я работаю с NAI поэтому указываю путь до папки с моделью. Сейчас я на версии программы v0.1.8. и она требует, что бы модель была конвертирована из .ckpt в diffusers. Вот ссылка на мою конвернутую модель NAI - https://drive.google.com/file/d/1BnZyUb9C5wjz7Lcp1Dn8JidZLQ4taQEy/view?usp=share_link

Далее указываем Instance prompt, это должно быть уникальное слово которого не должна знать модель, то есть никаких boy, girl, и имён персонажей которых может знать модель. В дальшейшем это название мы будем указывать среди промптов, что бы модель на это тригеррилась и генерила уже с учётом натренированности этого концепта.

Class prompt указываем ёмко, кратно, что мы тренируем. У нас один женский персонаж и раз уж модель NAI тренилась на датасете danbooru, то я и укажу женский тег от туда, а именно 1girl.

Training Steps я выставлю 1000, а Learning Rate 5e-6, но это крайне запутанные настройки, о них я побольше размусолю ниже в разделе с водой и по ходу текста.

Аргументы не трогаю.

0 dreambooth-gui
□
X
Pick Image Config Trainer Train Run dreambooth on NVIDIA GeForce RTX 3080, 8.65gb free
Model
C:\Users\egorv\dreambooth-gui\models\NAI
Choose Local Model
Name of the base model, (eg, CompVis/stable-diffusion-v1-4)
Instance prompt joyreactorchan
Name of the instance,

Отлично, переходим к разделу тренировки, здесь нас попросит вставить наш Hugging Face Token. По идеи это нужно только если мы качаем модель SDv1.4 или прочую с Hugging Face, а у нас она локально на пк уже стоит, но всё равно просит, поэтому регаемся там и идём в настройках раздел с токенами https://huggingface.co/settings/tokens и создаём токен на WRITE и вставляем его в наше поле. Прописываем папку куда будут выгружаться все файлы после и проверяем, что бы стояла галочка, что бы модель генерилась потом в .ckpt файл в нашей папке вывода.

0 dreambooth-gui
□
X
Pick Image Config Trainer Train Hugging Face Token
Output Dir
C:\Users\egorv\dreambooth-gui\outputs\joyreactor
Select
B Generate model checkpoint (.ckpt file) in the output directory
Training Command
docker run -t —gpus=all

Иии жмём старт! И так теперь запасаемся терпением, можете заварить чай, помыться, выйти на улицу, потрогать траву, сходить в магазин и т.д, ибо процесс первого запуска НЕВЕРОЯТНО ДОЛГИЙ. Серьёзно, я сам в первый раз думал, что у меня, что то зависло. Минут 30 только оно подгружало нужные файлы, и убедитесь, что у вас на диске есть ещё место, ибо пару десятков ГБ на нём, этот процесс забьёт. Если увидите, что ошибок не вылезно, в папке \AppData\Roaming\smy20011.dreambooth были сгенерены картинки референсы по классовому промпту и вы не словили ошибку о нехватке видеопамяти (будет у многих вангую) то поздравляю, у вас пойдёт тренировка, и вы увидите, как у вас будут лететь надписи Steps ****% |▋▋▋▇| ***/1000 [**:** < 00:00, *.**s/it, loss=0.***,lr=5e-6]

На тренировку модели в 1000 шагов моей RTX 3080 потребовалось почти пол часа. Чтож, когда увидим сообщение о том, что всё готово, заходим в папку вывода, и переименовываем как хотим и переносим .ckpt файл в папку с моделями нашего stable diffusion.

Training Command
Finished!
"jii\datasets\joyreac
:tor:/instance •
S
s s s
Steps: 100%' Steps: 100%|| Steps: 100%|| Steps: 100%|| Steps: 100%||
Training finished, check
C:\Users\egorv\dreambooth-gui\outputs\joyreactor for model output.
OK
/it, loss=0.257, lr=5e-6] /it, loss=0.257,

Запустите SD, загрузите модель. Проверьте результаты, всё ли выглядит так, как должно, у меня получилось... приемлимо...

joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 3985740085, Size: 960x960, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

Модель DreamBooth

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Чистая NAI

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Ну вроде неплохо. Но можно лучше.

У меня выходили и более презентабельные модели, чего стоит модель с моей рожей, что генерит меня с шансом 50%, а в остальных случаях Иисуса либо Джареда Лето либо двухголовую ебаку...

Вот пример с DB, а вот чистая NAI. Ну думаю, я бы мог вопроизвести похожий результат и без DB, но потребовалось бы куда больше промптов и попыток. Тем не менее, DB приближает качество и иполнение результатов, к тем, на какие мы тренировали, поэтому если тренируете на лицо, то оно даст намного чёткие и предсказуемые результаты, чем просто по запросу "лохматый бородатый мужик"

Если хотим закрепить результат и возможно улучшить, то рекомендую потренить и Textual Inversion - https://huggingface.co/docs/diffusers/training/text_inversion Это крошечная часть нейросети обученая на наборе картинок. требует поменьше ресурсов для тренировки, чем DreamBooth. С её помощью удобно воспроизодить стили и какие то объекты. Я потреню на том же датасете картинок, что и DB.

Тренировка Embeddings (Textual Inversion)

Идём в раздел SD webui который называется Train, и в первом подразделе Create embedding начинаем заполнять пункты.

Name - просто имя файла и в дальшейшем мы будем писать это название среди промптов, что бы задействовать нужный embedding. Поэтому я использую название, то же, что и у инстанс промпта в DB, что бы тригеррить их обоих разом.

В Initilization text вписываем описание персонажа, я описал его более подробно, ибо на реактор-тян оно почему то ловит затуп и генерит совсем шлак потом. А так обычно то же, что и class prompt в DB. Число векторов на токен я выставил 8, хотя чем больше это число, то тем больше примеров картинок лучше подготовить, но остановлюсь на этом.

Stable Diffusion checkpoint JoyReactor.ckpt [e02601f3]
txt2img img2img Extras PNG Info Checkpoint Merger Train Create aesthetic embedding Settings Extensions See wiki for detailed explanation.
Create embedding Create hypernetwork Preprocess images Train,нейросети,нейромазня,Stable

Теперь идём в Preprocess images, вводим путь до папки с изображениями и туда, куда их выгрузит. Ставим галочку на Use deepbooru for caption, не уверен, будет ли у вас эта функция, если нету или не работает, поставьте в аргументах запуска SD аргумент "--deepdanbooru", и тогда точно всё будет ок. Эта функция создаст текстовое описание для каждого изображения в формате тегов с danbooru, так сетка лучше обучится. Если трените не на NAI моделе, а что то реалистичное, то советую использовать, Use BLIP for caption, создаст промпты как если бы их писали для работы с обычной моделью SD 1.4... Так же уделите время и вручную проверьте КАЖДЫЙ созданый текстовый документ, и сверьте его с картинкой, постарайтесь удалить ненужные промпты или добавить, то что считаете нужно, не всегда оно создаёт описание корректно. Да это муторно, но стоит без этого может натренить сетку не на то, что мы желаем.

See wiki for detailed explanation.
Create embedding Create hypernetwork Preprocess images Train
C:\Users\egorv\stable-diffusion-webui\training\joyreactor
Preprocess,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

OOOOO-O-Byyfgs.p 00000-0- Byyfgs.t
00001-0-Screens	00001-0-Screens	00002-0-Screens
hot_1.png	hot_1.txt	hot_2.png
00002-0-Screens hot_2.txt
00003-0-Screens hot_3.png
00003-0-Screens hot_3.txt
00004-0-Screens	00004-0-Screens 00005-0-sdfdf.pn	00005-0-sdfdf.txt	00006-0-sdfsh3v 00006-0-sdfsh3v

И последний подпункт Train. Тут внимательно, можно ошибиться с пунктами и кнопками. Я помечу на скрине те пункты, которые мы трогаем, остальные игнорьте.

В embeddings выбираем наш созданый, в dataset directory указываем путь, куда мы выгружали изображения уже с описаниями, в prompt template file указываем путь до файла шаблона по которым оно будет трениться, я создал свой файлик, в котором внутри написано только [filewords] , прямо с квадратными скобками, это будет задействовать описания изображений которые мы создали раньше.

Save an image to log и save a cope of embedding, это параметры отвечающие за тестовое создание изображения на данном этапе тренировки и сохранинии текущего результата на момент шагов. Я генерирую изображение каждые 500 шагов и сохраняю прогресс каждые 1000, да бы проверить не произошла ли перетренировка модели, да бывыет и такое, её можно перетренировать, об этом после гайда...

И надеюсь вы не подумали, что я пропустил пункт с Embedding Learning Rate и Max Steps, то нет. Вот тут та же шляпа, что и раньше, и надо подбирать соотношения. В этот раз будем создавать поэтапно.

Для начала мы проведём тренировку на 200 шагов и Learning Rate 0.02, после увеличим число шагов до 1000 и уменьшим LR до 0.01, потом 2000 шагов и LR 0,005, 3000 и 0.002, 4000 - 0.0005 и в конце выставим 20000 шагов и скорость обучения на 0.00005. Чё страшно, запутались? Кароче, шляпа в том, что бы сетка не переобучилась, так мы её постепенно полируем, подробнее об этом после гайда в разделе с разными мыслями.

Stable Diffusion checkpoint JoyReactor.ckpt [e02601f3]
txt2img img2img Extras PNG Info Checkpoint Merger Train Create aesthetic embedding Settings Extensions See wiki for detailed explanation.
r	\
Create embedding Create hypernetwork Preprocess images Train
Train an embedding or Hypernetwork;

Вот выставили 200 шагов и 0.02 скорость, она прогонит по этим параметрам и закончит, не закрываем ничего, меняем параметры на следующие по списку, 1000 шагов и скорость 0.01 и опять жмём Train Embedding и опять идёт тренировка уже дальше с новыми данными. И т.д до конца. 20000 шагов золотая середина как по мне. У меня на это уходит около полутора часа, побольше, чем на тренировку DreamBooth, результат не будет сверх разиться, но будет чуть более в нужном нам направлении.

Loss: 0.0780509 Step: 15526
Last prompt: lgirl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, smoking, :d Last saved embedding:

Training finished at 200 steps.
Embedding saved to C:\Users\egorv\stable-diffusion-webui\embeddings\joyreactorchan.pt,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

[Epoch 24: 800/800]loss : 0.096Б130: 100%
16000/16000 [1:18:42<00:00,	3.39it/s],нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Вот примеры, того что по итогу вышло.

masterpiece, best quality, joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, solo, standing, upper body
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry, portrait
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 370310831, Size: 768x768, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

DreamBooth + Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

DreamBooth без Embeding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

И без DreamBooth и без Embedding на чистом NAI

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Ну Embedding иногда подтягивает, некоторые результаты, иногда может быть лишним. Довольно ситуативная и спорная вещь, но вот на DreamBooth сразу узнаётся Реактор-тян, нежели на обычной NAI с теми же хорошо подобранными промптами.

И да, знаю, что вероятно будут просить уже готовую модель, так что держите ссылки на модель на Реактор-тян и готовый Embedding:

https://drive.google.com/file/d/1s2z1grZvNdVxkw5uHJQIWKecgeV39tWp/view?usp=sharing

https://drive.google.com/file/d/1pft2NvHGi5xaJ61LctRc2Lf4aixHke0Z/view?usp=sharing

Лучше пусть кто то забэкапит, а то мало ли я буду облако чистить.

Hypernetworks

Если не получилось натренить DreamBooth, то попробуйте гиперсети. Тоже прикольные результаты можно получить, если постараться.

Тренить гиперсеть на реактор-тян я не буду, поэтому опишу как делал ранее с другими вещами. Если желаете ознакомиться с материалом, по которому я и сам тренировался, прошу - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670

Процесс тренировки схож с тренировкой embeddings.

Так же в заходим в раздел Train, и уже в подпункт Create Hypernetwork. Имя гиперсети пишем какое хотим, без разницы, модули 768 320 640 1280 оставляем как есть.

Теперь тут свои завертоны пойдут, просят ввести структуру слоёв гиперсети:

Для широких гиперсетей: 1, 3 ,1 или 1, 4 ,1

Для глубоких гиперсетей: 1, 1.5, 1.5, 1 или 1, 1.5, 1.5, 1.5, 1 или 1, 2, 2, 1

Широкие: подходят для запоминания новых вещей, таких как конкретное животное, человек или объект.

Глубокие: подходят для обобщения вещей, таких как стили.

Поэтому исходите из этого, для реактор-тян я бы выбрал 1, 3, 1

Следующий пункт, select activation function of hypernetwork:

Для аниме (NAI, Waifu и т. д.): Selu, Gelu, mish

Для фотографий: Relu, swish, mish,leakyrelu, rrelu

Теперь Select Layer weights initialization. Для аниме ставим xaviernormal. Если фото и т.д то по умолчанию normal.

Остальные галочки ниже необязательны.

txt2img img2img Extras PNG Info Checkpoint Merger See wiki for detailed explanation.
Train
Create aesthetic embedding Settings Extensions
Create embedding Create hypernetwork Preprocess images Train Name
Modules
✓ 768	✓ 320	✓ 640	✓ 1280
Enter hypernetwork layer structure
1,2,1
Select

Потом так же подготавливаем изображения как и с embeddings, это я не буду повторять и переходим сразу в Train.

Выбираем так же как и при тренировке embedding путь до шаблона, папку с датасетом из наших картинок с текстом, сохранение результатов и картинок.

Теперь выбираем нужную гиперсеть в выпадающем списке Hypernetworks. Изменять будем раздел Hypernetwork Learning rate, а не Embedding Learning rate, как раньше и жать будем на Train Hypernetwork, а не Train Embedding.

Create embedding Create hypernetwork Preprocess images Train
Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki]
Batch size 1
Dataset directory
Path to directory with input images Log directory textualjnversion Prompt template file

Вот примеры хороших соотношений последовательностей Steps к LR:

Для обычных людей - 0.00005:100, 0.000005:1500, 0.0000005:10000, 0.00000005:20000

А вот для извращенцев - 0.00005:100, 0.000005:1500, 0.0000005:2000, 0.00005:2100, 0.0000005:3000, 0.00005:3100, 0.0000005:4000, 0.00005:4100, 0.0000005:5000, 0.00005:5100, 0.0000005:6000, 0.00005:6100, 0.0000005:7000, 0.00005:7100, 0.0000005:8000, 0.00005:8100, 0.0000005:9000, 0.00005:9100, 0.0000005:10000, 0.000005:10100, 0.00000005:11000, 0.000005:11100, 0.00000005:12000, 0.000005:12100, 0.00000005:13000, 0.000005:13100, 0.00000005:14000, 0.000005:14100, 0.00000005:15000, 0.000005:15100, 0.00000005:16000, 0.000005:16100, 0.00000005:17000, 0.000005:17100, 0.00000005:18000, 0.000005:18100, 0.00000005:19000, 0.000005:19100, 0.00000005:20000. Этот вариант выглядит монструозно, но я его тестировал лично, и довольно хорошо работает при условии, что вы подобрали хорошие примеры изображений и текстовые описания к ним.

И так же поэтапно треним как и embedding... ВСЁ!

ВОДА и Q&A!!!

Ахренеть, как буд-то по новой пишу дипломную, но только с надеждой в том, что кому то это поможет и он воспользуется этим материалом, либо же просто покекает с того, что я потратил на это несколько недель, начиная от поиска нормального способа запуска DreamBooth и заканчивая десятком часов на попытки разобраться в особенностях и нюансах, ну и этот текст я пишу уже где то часов 6 нонстоп, набралось уже 2 c половиной тысячи слов! серьёзно, надо хоть воды налить себе, ха отличная шутка.

1)Q: Почему так сложно?

A: А кому легко?

2)Q: Можно ли было уместить это в 5 абзацев на 500 слов в общем?

A: Не знаю, пишу как умею, кто умер от духоты и захлебнулся в воде, простите)

3)Q: У меня видеокарта ******, у меня заработает?

A: Не знаю. Скорее всего на AMD, вообще никак. Если у вас есть в карте тонна видеопамяти, то должно. Либо попробуйте запустить, через Google Colab, Runpod и прочие облака с арендой видеокарт и работы с их мощностями. Я НЕ БУДУ ПИСАТЬ ГАЙД ПО КОЛАБУ, НЕЕЕЕТ!

4)Q: Не надоело ли писать вопросы и ответы?

A: Да, чёт устал, задавайте в комментариях, отвечу как смогу.

Теперь ВОДА и прочие размусоливония которых, я старался избегать в основной части гайда.

Подойдите к этапу подбора изображений для тренировки максимально отвественно и серьёзно, ибо от того какие изображения вы скормите, во многом будет зависить результат. Так же качество > колличество, будет хорошо если вы задействуете 10 годных примеров, нежели 30 посредственных. Я стараюсь выдерживать единый стиль изображений, если одна картинка будет от карандаша, другая 3D CGI, а третья в стиле Пикассо, то выйдет так себе и выйдет мешанина из этого всего. Если тренирую персонажа, то стараюсь делать акцент на лице, тело можно будет и промптами задать, но вот получить нужное лицо сложно, ну за этим и нужен DB.

Во многом из за конвертации .ckpt в diffusers я неделю ломал голову, ибо обычным скриптом предназначеным для этого у меня не выходило, но как видите удалось, а именно при помощи гуглколаба от TheLastBen. Необходимо было залить модель в колаб, прогнать через его скрипт, и выгрузить результат себе на гугл диск. В скорой версии Dreambooth gui v.0.1.9. появится возможность использовать .ckpt и программа сама будет его конвертировать. 

Вот теперь мы пришли к одной из самых важных вещей, во круг которых строятся различные догадки и теории заговоров... А именно зависимость количества шагов тренировки (Training Steps) и скорости обучения (Learning Rate или LR).

Число шагов обучения ~= кол.во изображений * 100, у меня 8 изображений, поэтому оптимально было бы 800, но я округлил до 1000, потому что хочу. По скорости обучения ещё сложнее, но держим в голове несколько вещей, больше steps = меньше LR, и наоборот. Так же главное не перетренировать модель. Представьте этот процесс как работа по дереву. У вас есть бревно и вы хотите обтесать из него фигуру. Поставите слишком высокий LD и срежете слишком много кусков и модель будет перетренирована и бракована. А поставите если поставите слишком низкий LR, то представьте, как мелким скальпелем обтёсываете огромное бревно дуба до размера фигурки.

Пока тестил эту байду, знакомый кидал идеи на чё попробовать тренить, приложу ещё примеры DB и embedding под персонажа Макимы из Человека Бензопилы (Аниме), но её я уже делал на немного допилиной модели - Anything-V3.0, про неё уже сделали пост - https://joyreactor.cc/post/5385144

masterpiece, best quality, makimacmdb, makima \(chainsaw man\), 1girl, medium hair, pink hair, sidelocks, bangs, braid, braided ponytail, eyebrows visible through hair, orange eyes, ringed eyes, breasts, medium breasts, shirt, collared shirt, shirt tucked in, black pants, suit, business suit, formal jacket, long sleeves, necktie, black necktie, light smile, expressionless, looking at viewer, solo, gradient background, cinematic, filmic, telephoto, depth of field, lens distortion, lens flare, white balance, strobe light, volumetric lighting, dramatic lighting, little haze, ray tracing reflections, detailed, intricate, elegant, realistic
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers)), dark skin, hair ornament , troubled eyebrows, big breast, yumemi riamu
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 1316407258, Size: 896x896, Model hash: e02601f3, Model: makimaANY, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

DreamBooth + Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

DreamBooth и без Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Без DreamBooth и без Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Как и писал выше, иногда Embedding лишний, некоторые результаты, лучше без него, некоторые с ним. Сутуативная хреновона, но лучше будет, чем нет.

КОНЕЦ.

Развернуть
Также ищут:Alloc lobotomy corporation
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Alloc (+81 картинка)