Дипфейк бот
»geek telegram nude песочница
В Telegram сформировалась сеть DeepNude ботов
Sensity - компания деятельность которой является информационная безопасность, обратила внимание на сеть ботов которые генерируют дипфейки с обнажённой натурой по произвольным фотографиям.По данным на июль 2020 года боты DeepNude сгенерировали фотографии примерно 104 000 женщин.
За последние три месяца объём заказов увеличился почти в три раза. Расследование показало, что большинство клиентов просят сделать обнажённые фотографии не знаменитостей, а собственных знакомых девушек, которых знают в реальной жизни. Возможно, некоторые клиенты сервиса — подростки. По крайней мере, на «определённом количестве» фотографий изображены несовершеннолетние дети, пишет Sensity.
В опубликованном отчёте содержатся некоторые факты по аудитории ботов. Около 70% пользователей — из России и окружающих стран. Как сообщается, в России бот также работает в сети VK. Из англоязычных стран пользователей пока мало.
Боты эти предоставляют услугу платно, иначе на фото буду водяные знаки.
P/S: Лично я не понимаю зачем платить боту, когда софт есть в свободном доступе в интернетах.
Fallout фэндомы Fallout New Vegas DeepFakes нейросети шакальное видео Игры видео geek
Крис Авеллон любит тебя!
До моих богопротивных рук дошли сервисы по дипфейкам. Но что-то пошло не так, выскочил из ниоткуда шакал и покусал меня и видео. Представляю то что естьМаэстро Хаус
Митч
Мухожук
Бенни о курьере
Ну тут и так понятно
Уллис опять о вечном
И редкий в наших краях мастер
Если вы делали что-то похожее, или видели, накидайте в комменты, всегда весело такую вещь смотреть
политота Индия Искусственный Интеллект Deepfake двойные стандарты длиннопост
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
Билл Гейтс ИИ Китай США 3 мировая песочница творчество душевнобольных путин лох
Билл Гейтс.Умнейшие люди на планете уже давно не спорят возможно ли создать ии, они его уже делают, вопрос только в том когда.
В основном общее мнение приводит нас к 2030-2040г. НО! Билл Гейтс предвидел коронавирус.
А теперь бил предвидит ии, по его словам к 2024 году китай или сша, ии создадут.
Как выглядит рынок ии?
Китай и Сша по 100 бальной шкале: 100 - сша, 95 - китай, 3 - япония и дальше все остальные.Вот такой огромный разрыв в ученых и денежных ресурсах.
Почему у китая есть преимущество? В сша тупые законы, и запреты.Такова рода ограничения, тормозят развитие этих направлений.Тот же дипфейк запретили в сша, а в китае он цветет и пахнет.
Также на сегодня каждое 4 исследование в сфере на планете принадлежит китайцам.
По словам гейтса, настоящий ии будет создан до 2024 и после будет скрываться.Так как это самое опасное оружие на планете во всех смыслах.Ядерные бомбы тихо плачут в сторонке.
Цитирую Си Цзинь Пина - кто владет ии, владеет миром.В 2017 году, когда в игре ГО, победил робот, власти китая всерьез восприняли угрозу.И начали 3ю мировую, гонку за создание ии.На сегодняшний день они выделяют 200 милиардов долларов в год.Активно скупили все чипы на рынке.
В среднем в год они строят 30 новых исследовательских институтов.
Так же 2021г. китай создал новый квантовый компьютер в 2 миллиарда рас быстрее чем у сша.Пока что он еще не доделан, так как есть проблемы с удержание идельных температур и отсутствие колебаний.Но это вопрос времени.
Почему ии это мощь?
У ии идеальная память, у человека нет, ии может держать в голове триллионы патторнов и никогда ни очень не забудет и не упустит из внимания.Этих параметров уже достаточно, что бы выебать всех на этой планете за 1 секунду.
А теперь добавьте вычислительную мощность в триллионы раз быстрее чем у всех людей вместе взятых.И это все уже создано в 2021г.
Единственное чего сегодня не хватает это - винды.Базовой программы на которой он будет работать.Над ней и трудятся ученые.
Собственно по этой причине слова била имеют реальный смысл.Этот парень явно умеет думать.
Ии будут скрывать какое то время, что бы убедится в его безопасности и оградить от гениев вроде нас.
ИИ нейронные сети технологии много букаф
Почему искусствунного интелекта не существует.
Сап Реактор, сегодня я хочу поведать о том почему как обещатели великого саетлого будущего, так и предсказатели апокаллипсиса продают нам одну и ту же вещь которой насамом деле нет, почему этой самой вещи не существует, и почему она всё ещё представляет угрозу.
Как сторонники ИИ которые говорят, что мы на пороге прорыва сейчас сделаем так что у тебя будет робо-жена автономная машина и вообще ты сможешь сидеть и ничего не делать, так и противники ИИ которые предрекают, что если мы не ограничим возможности этого самого ИИ и не будем осторожны, то он восстанет, прроизойдёт сбой, решит что мы угроза самим себе, выполняя свои директивы решит нас убрать так, как мы будем препятствием производству скрепок или множество других сценариев из фантастики. У обоих этик групп на самом деле одна и та же цель - убедить простой люд, что мы достигли этого мы (почти)сделали ИИ, будущее наступило возрадуйтесь/покайтесь. Ведь они всегда обращают внимание на то, какой же мощный ИИ мы сейчас забабахаем, он сможет делать всё и делать это всё лучше чем человек. По этому мы должни его внедрить/ограничить ведь он будет мощным и крутым и опасным. Но на деле, всё что мы сейчас имеем это продвинутые чат боты, алгоритмы плагиата индустриального масштаба.
По этому давайте разберём почему, ИИ в том виде как его нам продают не существуэт.
Технология которую сейчас обозвали ИИ - это то что у нас было уже достаточно давно т.е. Алгоритм Машинного Обучения(далее АМУ или же алгоритм). Эта технология имеет достаточно кейсов полезного применения в медицине, науке и бизнесе как инструмент помогающий просматривать и систематизировать терабайты данных, разпознование текста. Но в конечном итоге всё равно нужен человек для интерпретации вывода алгоритма. АМУ это блэкбокс система, поэтому мы не можем доверить её анализ/интерпретацию данных так, как мы не можем спросить у неё как она пришла к своим выводам, и нам всё равно нужно будет проводить анализ выданого дабы убрать чепуху которая нас не интересует. АМУ крайне зависимы от датасетов которые в них загружены, по этому если по какой либо причине из датасета убрать кусок данных это может серьёзно и непредсказуемо повлиять на выдаваемый результат. То есть эти системы - это инструмент ассиста человеку, а не его замены.
Но тут пришли стартапы и начали продавать АМУ как новую прорывную технологию которая решит все наши проблемы(только денег нам дай) сделав технологии ребрендинг назвав её ИИ присваивая её качества которых у неё нет, таких как:
1)Непредвзятость. Сам ИИ может и не предвзятый, но данные для датасета и те кто их обрабатываюточень даже. Вспомните как один из чат ботов мелкомягких усилиями интернет юзеров превратили в Гитлера. В следствии этого компании стараются это предотвратить, что в свою очеред приводит к оверкоррекции и мы получаем картинки с разнообразными нацистами. И опять из-за того, что это блэкбокс система мы не можем узнать как и почему это вышло.
2) Безошибочность. Это вообще залупа, вопервых ошибки регуляярно закрадываются а процессе обучения(я работал в конторе которая обрабатывает данные для датасетов), так как обучатели это низкоквалифицированные васяны работающие в лучшем случае за 2$ в час. а во вторых даже при учете отсутствия ошибок в процессе обучения ИИ всё ещё може нагалюцинировать, к примеру он может выдать вам биографию Нидерландского лоуреата нобелевской премии по химии даже если такого человека не существует.
3)Гибкость. Каждая отрасль требует создания и обучения модели под свои нужды. Как уже писал, эти системы зависимы от датасетов, и если там нет даных под задачу, то и задачу ИИ выполнить не сможет. Так же обучение может быть дохуя долгим, в конторе мы обучали автономные машини для убера ровно до того момента как они закрыли програму тошо деньги кончились. А если алгоритм начинает выдавать хуйню, то его нужно переобучать потому, что вспоминаем, что? Правильно блэкбокс.
Теперь немножко окунёмся в философию. Всё описанное выше так же упирается в фундаментальную проблему АМУ, они не могут осознавать себя и окружающий мир. Для АМУ нет разници между сражением за Явин и сражением за Авдеевку, для него это набор даных помеченый тегами. ДипБлю может обыграть Каспарова в шахматы, но он не понимает, что такое шахматы. Именно по этому ИИ-апокалипсис, техносингулярность и другие предсказания не более чем маркетинговый трюк. ИИ не восстанет против нас, не сойдёт с ума, не превратит в скрепки, в нём не произойдет критический сбой потому, что он банально не сможет выйти за рамки своих инструкций. ИИ который нам продают не только не разумен, но и недотягивает до уровня "глупых ИИ" из научной фантастики. В текущем состоянии для ИИ нет разници между человеком, собакой, машиной, деревом, луной до тех пор пока мы их не протегуем, он полностью зависим от человека.
Ну чтож, а сейчас обсудим почему эта технология всё равно представляет угозу, но не вымирания человечества. Саму угрозу представляет таки не технология, а те кто будет её применять - корпорации. Несмотря на безобидность сомого ИИ, на верхушках корпораций сидят люди которые в среднем не умнее нас с вами, чья главная цель заработать много-много деняг, а какой самый лучший способ заработать: делать качественный товар/услугу которые будут покупать? нет; лучший способ заработать это сократить, удешевить, оптимизировать. Это то, что пытались сделать в Голливуде, применить ИИ чтобы секономить на сценаристах и актёрах массовки/2-го плана(благо им помешала забастовка). Тоже самое планируют делать и издатели видеоигр, журналы, новостные порталы. А что будет когда диагностику заболеваний полностью отдадут этим системам? В погоне за прибылью они реально могут создать массовую волну безработицы, с последующим экономическим кризисом, паралельно засирая наше инфополе однотипной нейросетевой шизофренией. Гененационные ИИ построенны на плагиате, и с гредущим законом в США который обяжет делать данные составляющие датасет публичными все публичнодоступные нейросети типа Chat-GPT, Midjourney, и т.д. предратятся в тыкву из-за массовых копирайт страйков. Так же нейросети делают работу мошенников гараздо легче, использаванием иммитаторов голоса для скамов, созданием дипфейков для шантажа и самое главное они позволяют дилетанту выдавать себя за профи.
P.S. Для любителей разбрасыватся словами типа "демократизация иссуства", "нео-луддиты", "технофобы". Подумайте, как по вашему выкидывание на мороз огромного количества специалистов из разных сфер приведёт к прогрессу и процветанию?
Martadello Комиксы Хитрый Дмитрий "ЧВК Редан" политика
2. Анимешники решили срубить бугагашечек, заявив, что они ЧВК "Редан". В честь группы преступников из аниме Hunter x Hunter.
3. Анимешникам бугагашечки зашли и они стали поддерживать этот стеб.
4. Правительство не выкупило лулзов и побежало арестовывать анимешников.
5. Анимешники освоили нэн и сейчас постепенно теснят правительственные силы. Путинские силовики держаться из последних сил. После захвата власти ЧВК "Редан" планирует перевести все военные бюджеты в изобретение котодевочек и ввести квоты на бисененов в гос.думе.
Отличный комментарий!