да я собственно представлял себе например аттракцион в парке развлечений
сначала шоблу друзьяшек сканируют на входе и делают полноценные модели их лиц
а потом в виар комнате их лица цепляются на персонажей например и какой боевичок начинается где ты и твои друзья главгерои
Параллельно с развитием всяких околонейронных технологий развиваются и технологии для их выявления. Например, Adobe, если не ошибаюсь, делал инструменты, что определять, обработано ли фото. И в дипфейках какие-нибудь артефакты да останутся. Глазу будет не видно, а новые инструменты их заметят.
у Adobe получилось оч странно, где нейросеть используется не явно и это не выпячивают - работает норм, а вот те самые нефрофильтры новые, которые в бетте щас, но их распиарили - работают всрато и в плане худ ценности и технически
А может и не останутся. Но фото, видео, голос и сейчяс не особо то в суде принимают, а будут только с сертифицированных, опломбированных квантовой криптографией устройств
Если будут автоматизированные инструменты для определения нейросети, тем хуже для них. Ставишь в пару нейросеть и детектор нейросетей, и дрочишь до тех пор, пока детектор не согласится, что это подлинное.
Китайцы взломали сервер Пентагона, вот как это было:
1. Каждый китаец попробовал один пароль.
2. Каждый второй пароль был "Мао Цзедун"
3. На 74357181-й попытке- сервер согласился, что у него пароль "Мао Цзедун"
Люди даже не мгут отредактировать обычное фото чтобы не было следов не то что видео, тоже самое с аудио
Возможно можно только если убить качество но оно перестанет работать как доказательство если у тебя видео в 144p в 2030 году
Отличный комментарий!