Жалко он только при телефонном разговоре работает, а так в другой стране приходится пользоваться тупым Google Translate и постоянно тыкать кнопку и передавать телефон собеседнику
Да просто выполнять функцию живого переводчика(понимать когда надо слушать и когда произносить перевод, уметь фильтровать лишние звуки из окружения). Понятно что это Самсунгу не по зубам. Но мы же говорим об универсальном переводчике, так вот его пока нет в природе, а хотелось бы.
Так и такой девайс есть уже — он в оба уха вставляется, как беспроводные наушники, потом ты можешь сказать на каком голосе сфокусироваться, какие звуки отсеять (скрипы, шумы, крики детей и т.д.), и потом включается режим живого перевода... а второй девайс на стол ставишь или просто в руках держишь и можешь говорить, а он за тобой на другом языке повторяет...
Эта штука так же в этом году вышла. Вообще то технологий где используют нейросети очень много патентуют сейчас, прям в нереально массовых порядках. А я уже не говорю про то, сколько сейчас патентуют рецептов в медицине, то, что смоделировала нейросеть, а не человек, потом все это пойдет ан тестирование.
Почему-то мне интуитивно кажется что качество перевода у него не очень. Мне нужен перевод на азиатские языки, это сложнее чем между индоивропейскими, по сути единственный переводчик который юзабелен для текста - это gpt4, он хотя бы понимает контекст и редко пишет кринж, остальное неюзабельно. Так что жду когда появится такое для смартфона
Авто переводом комментов с японского на том-же ютубе прекрасно справляется и гугл транслейт без каких-то приколов, на пример можно глянуть тот ролик от юбиков для японцев. и почитать их комменты.
Научится бы ещё с людьми на своём языке разговаривать нормально, не заикаться и мысль выражать чётко. А то как рот не открою: эээ, пэк-мэк, извините извините.
Будешь планировать, никогда себя не заставишь, нужна стремительность, только мысль пришла, ох ты, да я же выражаюсь как имбецил, и бегом писать эссе на тему как чтение делает тебя краснооечивым
Хуйня ваш совет. Чтение и сочинения нихуя тебя красноречивым не сделают. Та же хуйня, что и с иностранными языками - хуй ты что скажешь без практики, как бы хорошо ты не писал. Чтение вслух может помочь, но не очень. Нужно дохуя пиздеть. Можено перед зеркалом хуйню какую-нибудь декларировать и стараться говорить четко громко и ясно. Можно еще ради улучшения результатов и повышения сложност в рот взять пару орехов лесных в скорлупе.
Боюсь, что актеры озвучки станут ненужны, если дешевле будет использовать нейросеть, тем более, что в таком виде остается звучание голоса реального актера. Игр это коснется еще скорее, как мне кажется.
Дешевле, но хуже. Местами не будет попадать в интонации, местами будет недоигрывать. С другой стороны, лучше такой машинный перевод, чем вообще никакого.
Пока, да. Со временем % ошибок будет все меньше и меньше. Плюс если каждая реплика будет проверяться человеком, можно будет просто в один клик отослать ее на переозвучку и получить 5 новых результатов за секунды. Выбрать лучший и продолжить.
Да нихера не хуже, я в играх только 2 раза видел чтобы нормально по голосам подходил перевод (DAO и ведьмак) ... и то, в обоих случаях технически был полный обсер. У нас вообще с озвучкой не парятся, а тут даже оригинальный голос и интонация сохраняется. Если уже на данный момент такое качество, хотя технология еще только в зачатке, то в дальнейшем актеры переозвучки действительно будут не нужны.
Ну, как в зачатке. Ещё года три-четыре назад слышал, что сделали нейросетку, что позволяет имитировать голос человека - обучаем на каком-то количестве материала, а потом сеть зачитывает любой текст, причём с выражением. Это была новость о исследовательском проекте в области нейросетей. Спустя сравнительно короткое время начали появляться переозвучки чьих-то выступлений, где озвучивался не тот текст, что в оригинале в выступлении был произнесен. Ещё чуть позже появились дипфейки, где к озвучиваемому тексту ещё и соотвествующее движение губ присобачили.
3-4 года - это и есть в зачатке. Всякие спецэффекты в видео могли уже потихоньку добавляться в 60-70х годах. Вы чет дохуя хотите, чтобы сразу за пару лет все было отшлифовано.
3-4 года от концепта "сможем ли мы подделать речь" до реализации "давайте голосом англоязычного актёра озвучим японский перевод". Ну и стоимость процесса эти 3-4 года назад и сейчас это земля и небо.
Убого, одни и те же фрагменты надо было озвучивать, что бы видна была разница, а так - просто кто-то с нейросеткой баловался не придумав как ее использовать.
Отличный комментарий!