Результаты поиска по запросу «

deepfake 18

»

Запрос:
Создатель поста:
Теги (через запятую):



политота Индия Искусственный Интеллект Deepfake двойные стандарты длиннопост 

В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира

Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.

ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас

«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах. 

Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями. 

Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду». 

Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов. 

Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.

«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ». 

По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад». 

Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов 

В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей. 

По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».

политота,Приколы про политику и политиков,Индия,страны,Искусственный Интеллект,Deepfake,двойные стандарты,длиннопост

По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого». 

Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей. 

Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах. 

Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует. 

По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью». 

По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг». 

«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут. 

Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается

Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять». 

Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников. 

По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц. 

Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед». 

Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса. 

Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию. 

Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США. 

В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.

https://meduza.io/feature/2024/04/28/v-indii-dipfeyki-i-drugie-ii-tehnologii-ispolzuyut-v-predvybornoy-agitatsii

Развернуть

Джим Керри Актеры и Актрисы Знаменитости Аль Пачино Эйс Вентура Фильмы нейросети видео DeepFakes 

Еще один шедевр DeepFake: нейросети заменили Джима Керри на Аль Пачино в фильме «Эйс Вентура»

На YouTube-канале Futuring Machine опубликовано видео, где с помощью технологии DeepFake лицо популярного комика Джима Керри заменили на не менее известного драматического актера Аль Пачино.

При просмотре ролик вызывает неоднозначные эмоции, ведь очень странно видеть лицо Аль Пачино на фоне безумных выходок и кривляний Джима Керри. Но судя по лайкам, работа нейросети людям понравилась, а значит можно смешивать подобное и дальше. 
Развернуть

witcher фэндомы нейронные сети Yennefer Witcher Персонажи Triss Merigold DeepFakes deep fakes 

Пользователи Reddit (фэндом), занимающиеся «пересадкой лиц», добрались до героинь Ведьмака


FakeApp, приложение, позволяющего с помощью нейросетей перенести лицо одного человека на видео с другим, не собирается сбавлять обороты. На Reddit продолжают наработки сообщества r/deepfakes, где пользователи r/witcher продолжают экспериментировать с технологией.

Само собой, большая часть контента, публикуемого в DeepFakes относится к «порно со знаменитостями», однако недавно Reddit юзеры взялись и за игры.


Как отмечает PC Gamer, совсем не удивительно, что пользователи начали свои эксперименты с героинь «Ведьмака 3». Их лица в игре выполнены с реалистичным пропорциями и хорошо детализированы, поэтому их просто перенести на видео, не потеряв реалистичности.

Таким образом в сети появилось порно с Йеннифер — точнее, с темноволосой актрисой, которой «пересадили» лицо чародейки.


witcher,фэндомы,нейросеть,нейронные сети,Yennefer,Witcher Персонажи,Triss Merigold,DeepFakes,deep fakes

witcher,фэндомы,нейросеть,нейронные сети,Yennefer,Witcher Персонажи,Triss Merigold,DeepFakes,deep fakes

В случае с Трисс, Reddit юзеры, пошли ещё дальше — использовали ролик, где сама актриса изображает Меригольд.



ссылки для ознакомления ( ͡° ͜ʖ ͡°) (+18)

1

2

Развернуть

DeepFakes нейронные сети gif reddit замена лиц daisy ridley nuttynutter6969 deep fakes 

Testing with Daisy Ridley / First test video автор nuttynutter6969

Я играл с новым GUI от deepfakeapp, и это результаты моего первого полного тестового видео.


Это единственные части, которые выглядели нормально:


DeepFakes,нейросеть,нейронные сети,gif,reddit,замена лиц,daisy ridley,nuttynutter6969,deep fakes


https://gfycat.com/IdleLankyIcterinewarbler


https://gfycat.com/SoftFelineAmericancurl


https://gfycat.com/FlashyAggressiveGermanwirehairedpointer


https://gfycat.com/KindheartedSpeedyAxolotl


Если вам нужны остальные части видео, чтобы увидеть все его проблемы, оно находится здесь -> https://sendvid.com/cxulmetg. Будьте осторожны, большинство из фрагментов из них несмотрибельно.

Извлеченные уроки:

1- Нужно добавлять фотографии с высоким разрешением для учебных данных, я думаю, это поможет в устранении сильных размытий в видео.

2- В этом видео было, к сожалению, картина с лицом за моделью в нескольких сценах, это не очень хорошо сочеталось с распознаванием лица, и ИИ запутался, так как он узнавал лицо в картине на стене.

3. Нужно избегать сцен, где угол обзора модели плох по сравнению с учебными данными, например, когда она на коленях между 1:23 и 04:04 в видео

Помимо этого, когда данные были правильными, и все собиралось хорошо, как в первых трех ссылках, эта новая технология просто потрясающая.

Я сделаю еще несколько тестовых видео и попытаюсь улучшить свой рабочий процесс. Если у кого-нибудь есть советы о том, как бороться с проблемой № 2, дайте мне знать.

Благодарю deepfakes и deepfakeapp за их удивительный вклад!


"mengohmengohmeng

Отличная работа!

Интересуюсь, каковы спецификации вашего компьютера? И как долго вы тренировались? Также, сколько фотографий / видеороликов вы собрали из Daisy? С нетерпением ждем, что вы будете работать дальше.

nuttynutter6969

Мой компьютер i5 7600k Kaby Lake с видеокартой GTX 1080 и 16 ГБ памяти. Я получил около 7500 фотографий ( скаченных кадров ) Daisy из разных интервью YouTube. Я почти уверен, что это перебор, но это было легко и довольно просто, так почему бы и нет. Я уверен, что мне нужно обрезать и скачать качественные снимки из других источников, чтобы улучшить результаты. Что касается девочки из порно, я просто вырезал кадры из реального порно клипа, их было около 3000.

Нейросеть обучалась около 18 часов."


Развернуть

Отличный комментарий!

Вот бы разрабы успели к 2049 году добиться реалистичной синхронизации.
vedymyr21 vedymyr2111.01.201801:01ссылка
+33.2

DeepFakes нейронные сети замена лиц честно спижжено timoil94 длиннопост Хлоя Морец FakeApp deep fakes 

Инструкция: Как запустить нейросеть меняющий лица актрис на видео.

"Если у вас windows 10 64x, 16gb ОЗУ, 1050ti, i7 7700. То запустится 100% без проблем.


*Для начала скачиваем и устанавливаем CUDA 8.0

https://developer.nvidia.com/cuda-80-ga2-download-archive

Установка стандартная, после перезагружаем. Патчить ничего не надо.


*Скачиваем саму программу:

https://drive.google.com/file/d/1_D6JIZsv4JdIqydhfpXCP63HzlvnqCt6/view


*Скачиваем ffmpeg

https://ffmpeg.zeranoe.com/builds/


*ВАЖНО! ПОВТОРЯЕМ В ТОЧЬ ТОЧЬ!!!

Распаковываем FakeApp.zip в корень диск С. А так-же в корне диска С создаем папку fakes, внутри создаем папки data, data_A, data_B.

ffmpeg, распаковываем в папку FakeApp.

Получаем такую картину:

Этот компьютер > Локальный диск (С:)
FakeApp
fakes
Intel
MSOCache PerfLogs
V О Поиск: Локальный диск (С:) р
Program
Files
Program ProgramDa Windows Пользоват Files (x86)	ta	ели,DeepFakes,нейросеть,нейронные сети,замена лиц,честно спижжено,timoil94,длиннопост,Хлоя Морец,FakeApp,deep fakes

>	Этот компьютер > Локальный диск (С:)		> FakeApp		v Cj
у	А	Л Имени	Дата изменения	Тип	Размера
У		alignment	08.01.201810:48	Папка с файлами	
У	■	ffmpeg	09.01.2018 13:41	Папка с файлами	
		jre	06.01.20184:41	Папка с файлами	
		model	08.01.2018 12:26	Папка с файлами	
		fakeapp.bat

Этот компьютер > Локальный диск (С:) > fakes
л Имени data
Idata А
Дата изменения
11.01.2018 20:51 11.01.201820:51 11.01.201820:52
Тип
Папка с файлами Папка с файлами Папка с файлами
Размера,DeepFakes,нейросеть,нейронные сети,замена лиц,честно спижжено,timoil94,длиннопост,Хлоя


*Этап подготовки видео.

Скачиваем любое видео например с Хлое Морец и теперь нужно на любом видеоредакторе нарезать участки видео с её лицом и склеить в один видеофайл.

Так будет выглядеть файл после конвертации
усшоисша
мудио
изоораженим
сохраненные
Хлоя Г рейс Морец в ш	оу Джимми Киммела (перевод от Bitchy) - YouTube.MP4 - Редактирование			
(Щ Стабилизация	Я Зв'	'К	Коррекция 1 М W	Субтитры,DeepFakes,нейросеть,нейронные сети,замена лиц,честно


Сохраняем нарезанное видео в качестве 720p в папку C:\fakes\data_A называем её 1.mp4


Запускаем командную строку,пишем:


C:\FakeApp\ffmpeg\bin\ffmpeg.exe -i C:\fakes\data_A\1.mp4 -vf fps=25 "C:\fakes\data_A\out%d.png"


В папке C:\fakes\data_A видим как появляются картинки, ждем завершения процесса.

Этот компьютер > Локальный диск (С:) > fakes > data_A
;
CTI
(с
mm	
1.mp4	oufl.png
m	Ш
out16.png	out17.png
m	m
out32.png	out33.png
Ш	Ж
out48.png	out49.png
m	m
out64.png	out65.png
Ж	№1
out80.png	out81.png
Ш	m
out96.png	out97.png
out2.png
out3.png
out4.png
out5.png
outô.png



После завершения удаляем в папке C:\fakes\data_A видео 1.mp4

Запускаем fakeapp.bat в папке C:\FakeApp

Выбираем Align, поле Data указываем C:\fakes\data_A

Жмем Start. ЖДЕМ ПОЛНОГО ЗАВЕРШЕНИЯ!


В папке C:\fakes\data_A появится папка aligned где все упорядочены её лица.

aligned	outl.png	out2.png	out3.png	out4.png	out5.png	out6.png	out7.png	out8.png	outQ.png	outlO.png	ou'
out16.png
out17.png
out18.png
out19.png
out20.png
out22.png
out23.png
out24.png
out25.png
out26.png
out32.png	out33.png
out48.png	out49.png
out64.png	out65.png
out80.png	out81.png



*ЭТАП НОМЕР ДВА

Находим видео для друга и повторяем весь процесс, только вместо data_A указываем data_B.

Главное видео для друга должно быть одно лицо, если лиц в кадре несколько, программа будет менять их все.

После того как в папке data_A и data_B появилась папка aligned с упорядоченными лицами переходим к тренировке. Этот процесс жопаболь, ибо уходит очень много времени для тренировки нейросети.

Переходим на вкладку Train

В поле Data A указываем путь  C:\fakes\data_A\aligned

В поле Data B указываем путь C:\fakes\data_B\aligned

' i FakeApp
□
X
Align	Train Merge
Paths	
Encoder	C:/fakes/encoder.h5
Decoder A:	C:/fa kes/decoder_A.h 5
Decoder B:	C:/fakes/decoder_B.h5
Data A:	C:\fakes\data_A\aligned
Data B:	C:\fakes\data_Ej\aligned
Options	
Batch Size:	64
Save Period:	100
Start,DeepFakes,нейросеть,нейронные


Жмем Start и ждем. Ждем. Ждеееееем. Наблюдаем как постепенно нейросеть учится и качество фото улучшается.

Если надоело ждать или качество вас устраивает, нажимаем клавишу Q, программа сохранит "весы" связей и можно будет в дальнейшем продолжить расчеты, ничего не теряется.

Нейросеть будет учиться примерно сутки на 1050ti.


Результат работы за 4 часа обучения:

ir *i
llj'4* àU f!,DeepFakes,нейросеть,нейронные сети,замена лиц,честно спижжено,timoil94,длиннопост,Хлоя Морец,FakeApp,deep fakes


Лицо выглядит пока что вот так:

T1’- ' ' .		W • / 1 V
■ V		ИУ« ■ » , -.|
K ^lüTa jVW i I		
y t *	лЧНВ,DeepFakes,нейросеть,нейронные сети,замена лиц,честно спижжено,timoil94,длиннопост,Хлоя Морец,FakeApp,deep fakes


Что радует, лицо идеально стыкуется с этой актрисой. Главное терпение!


Сшиваем готовое видео

Склеивать готовое видео не долго, по времени уходит максимум 1 час. 

Отключаем обучение нажав на клавишу Q, переходим во вкладку Merge.

В пункте Data указываем C:\fakes\data_B\aligned

В пункте Direction указываем BtoA ( что на что меняем)

Нажимаем Start. В папке C:\fakes\data_B появится папка merged с изображениями где лица заменены. Теперь нужно картинки превратить в видеозапись. Есть два способа


*Способ 1й

Пример команды:


ffmpeg -i папка/название_секвенции_%05d.jpg -r [FPS, например 25] -c:v libx264 -q:v 2 output.mp4


Склеит секвенцию из папки "папка" с кадрами названия "название_секвенции_00001.jpg", т.е с пятью цифрами. Если хочется добавить звуковую дорожку, то следует дописать вот так:


ffmpeg -i папка/название_секвенции_%05d.jpg -i название_дорожки.wav -r [FPS, например 25] -c:v libx264 -q:v 2 output.mp4


Расширение картинок может быть любым, а не только jpg, тоже самое со звуком.


Вытащить дорожу из видео можно с помощью того же ffmpeg'a


ffmpeg -i название_видео.mp4 -b:a 320k выходная_дорожка.mp3


Получим mp3шку с 320к битрейтом


*Способ 2й.

Запускаем Adobe After Effects.

Файл - Импорт - Файл...

Переходим в папку C:\fakes\data_B\merged

Выделяем все фотки из папки merged. Ставим галку "Эпизод PNG"

Жмем Импорт.

В раскадровке появится видео. Накладываем звук, экспортируем, все готово.

ой*. I </</> 1у	I	ии1 I V I I .р1 1у	иии^1	иии^1	^и1 I К/ I .' .р1 1у	иии^1^1^П^
оиН021.рпд	оиН023.рпд	оиН025.рпд	оиН027.рпд	оиН029.рпд	оиН031.рпд	оиНОЗЗ.рпд
оиН035.рпд	оиН037.рпд	оиН039.рпд	оиН041.рпд	оиНОДЗ.рпд	оиН045.рпд	оиН047.рпд
Формат:	
РЫб	
(1 диапазон	
эпизодов 1-1696)


Если в merge вылазит ошибка. Проверьте, не удалили файл alignments.json? Вот так должна выглядеть папка C:\fakes\data_B :

aligned	alignments.json	outl.png	out2.png	out3.png	out4.png
outô.png	out7.png	out8.png	out9.png	outlO.png	outll.png
out13.pnq	out14.pnq	out15.pnq	out16.pnq	out17.pnq	out18.pnq,DeepFakes,нейросеть,нейронные сети,замена лиц,честно спижжено,timoil94,длиннопост,Хлоя Морец,FakeApp,deep fakes




Примечание:

Форма черепа и лица должна быть максимально похожей. Без очков.

Можно сшивать мужские лица, главное следить за растительностью на лице, иначе сильно выделяется. "





Развернуть

So-Min Kim Эротика песочница эротики грудь сиськи красивая девушка красивая грудь под катом еще домашняя эротика эротическое белье 

Кажется что фото одинаковые, но они разные...

So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

i \ 'NtV ■	1				F i # 8^*
					^ ft^w "f i,So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

So-Min Kim,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,грудь,сиськи,сиськи,сисечки, сисяндры, сиське, сиски, tits,красивая девушка,красивая грудь,красивые сиськи,под катом еще,домашняя эротика,эротическое белье

Развернуть

Эротика песочница эротики голая девушка красивая азиатка друг интересуется кто это? coub ero coub Азиатка 

Народ,кто это?Как ее найти?Друг интересуется!Очень!


Развернуть

Genshin Impact Ero Genshin Impact фэндомы Genshin Impact Cosplay Yae (Genshin Impact) ero cosplay косплей mp4 гифки Ringo Mitsuki 

Развернуть

работа вакансия 

Мы предлагаем:
•Удаленную работу - которая позволит работать из любой точки планеты
• Мы не изверги и понимаем что личная жизнь должна быть, поэтому у нас стабильный график 5/2 с 9:00 до 20:00__________________________________________________________________________
•Система мотивации:

Развернуть

Отличный комментарий!

vovoza vovoza 28.11.202214:40 ссылка
-106.3
11 часовой рабочий день стандартный график?
типа раз удалёнка, хуле на работу ехать не надо и обратно не надо, поэтому будь доступен 11 часов для решения задач.
dpas dpas 28.11.202214:41 ссылка
+47.8
а что, если я отвечу тебе, что время указано чётко: с 9 до 20ч.
Лесной Лесной 28.11.202215:03 ссылка
+64.1

Илон Маск Дмитрий Рогозин Роскосмос SpaceX Crew Dragon 

Рогозин бросил вызов Илону Маску

   Гендиректор "Роскосмоса" Дмитрий Рогозин призвал не преувеличивать роль успешного завершения первого тестового пилотируемого полета космического корабля SpaceX Crew Dragon.


   "То, что появился Crew Dragon, и то, что он прошел испытания, если отбросить всю пропагандистскую американскую шелуху, что они лидеры в мире… С чего они вообще лидеры в мире? Десять лет их на горизонте не было, а теперь летают, как мы летали. Пусть они теперь полетают так же быстро, как мы летаем. Я не думаю, что Crew Dragon способен за три часа до МКС долететь", - сказал Рогозин.


 По его словам, Crew Dragon от SpaceX и будущий Starliner от Boeing являются более просторными и комфортными, но всего лишь аналогами российского "Союза МС".


"Это шаг вперед, но надо ли нам создавать такой корабль? Нет, конечно. Нам такой корабль не нужен", - сказал глава "Роскосмоса".


Ранее российский грузовой корабль "Прогресс МС-15" установил рекорд времени полета к МКС. Время в пути заняло 3 часа 18 минут 31 секунду. После этого Рогозин поручил осенью провести по сверхбыстрой схеме полет пилотируемого корабля "Союз МС".

Созданный компанией SpaceX космический корабль Crew Dragon стартовал в первый испытательный пилотируемый полет в конце мая. Он доставил на МКС астронавтов НАСА Дага Херли и Боба Бенкена. Они провели на орбите два месяца и вернулись на Землю 2 августа.


пруфы - https://ria.ru/20200807/1575471497.html

Илон Маск,Дмитрий Рогозин,Роскосмос,SpaceX,Space Exploration Technologies Corporation, Американский Батут Корпорейшен,Crew Dragon
Развернуть

Отличный комментарий!

И нахрена нужна эта скорость? Нужна стабильность и безопасность, а не писькомерство, кто быстрее
Всехрву Всехрву07.08.202012:24ссылка
+44.9
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме deepfake 18 (+1000 картинок)