it-юмор :: pun intended :: it humor :: nvidia :: optimisation :: :: nvidia :: без перевода :: оптимизация :: ПК :: geek :: geek (Прикольные гаджеты. Научный, инженерный и айтишный юмор)

ПК оптимизация без перевода nvidia it-юмор geek 

ПК,оптимизация,без перевода,nvidia,it-юмор,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор,,optimisation,nvidia,it humor,geek,pun intended


Подробнее

ПК,оптимизация,без перевода,nvidia,it-юмор,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор,,optimisation,nvidia,it humor,geek,pun intended
Еще на тему
Развернуть

Отличный комментарий!

Gimalay Gimalay11.01.202503:49ссылка
-8.6
Joe Doe Joe Doe11.01.202505:02ссылка
+37.6

Неужели вообще реалистично чтобы нагрузка на видюху от рисования кадров была меньше чем при... рисовании видюхой кадров, но "по старинке"?

Я, конечно, подозреваю что это презентуется как волшебное техническое тумбо-юмбо, создающее волшебной красоты картины буквально из пустоты, но что-то у меня сомнения.

Это буквально совершенно разная нагрузка которую выполняют разные ядра.

Т.е. они запихнули в видюху специальные ядра которые рисуют промежуточные кадры вместо стандартных ядер которые могли бы быть на их месте и рисовать стандартные кадры?

Одни ядра рисуют. Другие предугадывают.

Мне вот всё интересно как это работает.
Если с кодированием видео оно ещё как-то относительно понятно, ведь у видео всегда будут начальные и конечные опорные кадры, между которыми можно делать интерполяции изменяющихся элементов (из "А" в "Б"), то вот в случае с игрой надо интерполировать в режиме реального времени. Следовательно, для интерполяции нужна задержка на время, необходимое на построение первого и второго опорных кадров + интерполяцию кадров между ними. Очевидно, что очень сильно должно страдать время отклика.
Либо идти по пути экстраполяции (предвидения), т.е. на основании двух предыдущих кадров создавать вектора направлений и шаг перемещения, заведомо не зная угадает экстраполяция или нет то, что произойдёт в действительности, что неизменно будет приводить к артефактам каждый раз, когда направление и шаг изменений будут предугаданы неверно.
Как и в случае с кодированием видео, можно объединить оба метода, где первый промежуточный кадр получается экстраполяцией, а второй интерполяцией между экстраполированным и конечным опорным. Окей, на этом этапе мы уже можем из 20фпс получить 59 фпс, из 30 - 89, из 60 - 179.
Окей, а нахуяшечьки, спрашивается, нужно из 28 фпс делать 244? Чтобы оправдать 244Герцовые мониторы? Так мониторы 244Гц берут обычно всякие любители онлайн-шутанов, которым крайне важна скорость реакции, а откуда там в 28 нативных фпсах какая скорость реакции? По сути ведь интерполяция никак не поможет реагировать быстрее на изменения, потому что изменения будут происходить с теми же самыми 28 фпсами, и это ещё и в лучшем случае...

> Очевидно, что очень сильно должно страдать время отклика.

Время отклика и страдает, управление, по крайней мере, превращается в кисель.

> что неизменно будет приводить к артефактам каждый раз, когда направление и шаг изменений будут предугаданы неверно.

Артефакты и присутствуют, всякие мелкие объекты в динамике могут мерехтеть (исчезать и появлять) и т.д.

Лично я Сталкер 2 с фреймгеном проходил (по очевидным причинам) и не в восторге от этой технологии в целом, ибо чтобы она нормально работала, тебе нужно нормальное фпс без нее, а с нормальным фпс она тебе нахуй не нужна.

Правда, тут нужно смотреть, когда обновят фреймген (обещают обновить алгоритмы для первого поколения) и добавят рефлекс 2.0 (который должен импут лаг фиксить посредством смещения кадров), но я в чудеса не верю особо.

А ещё минус текущего фреймгена - пожирание памяти, он жрет просто немыслимое ее количество, а учитывая, что Нвидиа не хотят давать простым людям больше 12 Гб - это очень сильно сказывается на производительности.

На нативных 28 фпс при включении Frame Generation "кисель" в управлении будет сильный и не факт, что обновленный рефлекс сможет это побороть. FG уместен, если у вас до его включения был комфортный (дабы не разводить срач - у каждого это своё значение) fps.

Лично для меня ещё минус FG, то что при нем scRGB HDR отваливается (в том же киберпанке).

28 FPS это без DLSS вообще, в нативных 4к. С включенным DLSS изначальное разрешение рендера 1080р, при котором будет 120-160 кадров в секунду, так что дорисовывать придется один-два кадра всего

Ага, два раза. 28 в 4к и 120 в 1080. Дай бох 60 нашкребётся.
Да и, в любом случае, когда твоя новейшая мощнейшая видяха выдаёт 28 фпс в своём целевом разрешении и настройках - это просто бред и прогрев гоев
я понимаю что в реале это работает не так, но 4к больше чем FullHD в 4 раза (по общему кол-ву пикселей 2 073 600 против 8 294 400) то и мощностей на рендер картинки будет затрачиваться примерно такое же кол-во. Поэтому если у тебя в native 4k было 28, то в FHD вполне может получиться 100+
Такова уж правда жизни, я вот пожалел что взял 4к монитор, потому что в нативных 4к играть невозможно, только в игры 10-летней давности на средних настройках.
А по поводу 28 ФПС в 4к и 120 в 1080р это реальный эмпирический опыт, у меня в Ведьмаке 3, в 4к, на максимальных настройках - 20 кадров в секунду, в 1080р - 100
4k - не для игор, это да. Их не тянет ничего нормально, только вот старое. 1440 - это идеал

Serious Sam 1 (Fusion) чудесно идет. Красота.

Только вот когда дорисовывать один-два, да хрен с ним - пару десятков кадров (при условии поднятия со 100 до 120) это еще норм. А когда тебе эти 10-20 рисуют с 20 имеющихся? =)
iggd iggd 11.01.202511:14 ответить ссылка 0.7
Тут пропорция роль играет, если ты к одному настоящему кадру дорисовываешь один интерполированный, у тебя в идеальном случае ФПС вырастает в 2 раза, с 30 до 60 например, и это ещё вменяемо, но меня пугает, что NVIDIA в презентации обещают из одного кадра рисовать 8, и с 30 кадров тебе 240 рисовать, и что там за артефакты и мыло будут одному Куртке Хуанговичу известно

Они не обещают рисовать восемь с одного, новый FG рисует три кадра на один отрендеренный.

Это значит 75% кадров "вымышленных" - все еще плохо... отвратительно

Действительно, ошибся, они обещают 8-кратный прирост ФПС за счёт этих 3 кадров и рендеринга в неполном разрешении

Вот те картинка из прошлого треда

> нахуяшечьки

зачем нужно сглаживание? тупые разрабы пихают anti-aliasing в каждую игру, а ведь оно просто добавляет мыла /s

1) если приписка "/s" означает "сарказм", то

Да! Я слишком поздно допёр, что 244 - это результат суммарной работы с апскейлером, который сам по себе уже существенно снижает нагрузку и, как следствие, позволяет вырасти фпсам без генератора ФПС.

2) если приписка "/s" не означает "сарказм", а означает что-то другое, то

достаточно просто погуглить что такое алиасинг и сразу станет понятно зачем нужен антиалисинг.

Скоро в каждой видяхе будет по нейронке для отрисовки картинки?..
ага, и игры будут не отрисовывать картинку, а командовать видюхе: Нарисуй, как рогатый босс бьёт игрока по голове топором

Базовая производительность видеокарт тоже растёт. Но у нвидиа основной бизнес сейчас - продажа видюх для вычислений, связанных с AI.

Вот и пытаются продавать геймерам то же самое.

1060 3GB фактически эквивалентна 970
2060 лежит между 1070 и 1070 Ti.
3060 немного не дотягивает до 2070,
4060 немного хуже 3060 Ti и при этом даже не рядом с 3070.

Т.е. 5060 может оказаться где-то в середине между 4060 и 4060 Ti, а следовательно 6060 и вовсе может оказаться той же самой 5060, только с переклеенной первой циферкой в названии.
При этом даже без учета инфляции, на релизе 4060 была дешевле. чем 3060 на $30
А 3060 дешевле чем 2060, но уже на 10$.

10-ое же поколение было да, без каких-либо отговорок очень крутым прорывом, так еще и дешевым.

А потом мы вспоминаем что 4060 на самом деле 4050

4070 это 4060

и у 5000 покаления будет тоже самое. Всё встаёт на свои места.

Производительность ядер в ПК ростёт только у АМД, снапдрагонов и Яблок.
Nvidia тупо увеличивает количество а не качество = жрёт энергии как не в себя и радиаторы размером с пол mini-tower корпуса.

Пришло время молиться чтоб у интела выстрелило? :)

Оно и выстрелило, только оба ствола было во рту и заряжено картечью.

Жизнено важные органы не задеты: их продолжают покупать по инерции.

+ все хвалят их аналог gtx1050

Re(tt) Re(tt) 11.01.202509:57 ответить ссылка 4.5
Арк? Так он вполне хорош. Сейчас для 1080рублей a580 - самый лучший вариант.
А как же тогда вышло, что 3060 в пике была 170 Вт, а 4060 - 115?

3060 с 170W - 3584 к ядра, 112 т ядра и 12 Gb.

4060 с 115W - 3072 к ядра, 97 т ядра и 8 Gb.

*плюсую тебе за вопрос.

Re(tt) Re(tt) 11.01.202507:34 ответить ссылка 7.0

Шутки оказались нихуя не шутками. Пиздец какой-то.

Это ведь карлик держит её? Падме.jpg

Как бы то ни было, 40-ые карточки ощутимо холоднее 30-ых.

Да и хрен с ним, с размером, больше напрягает что зелёные с видеопамятью жадничают, 16 Гб для 5080 (которую будут брать в основном для 4К) как насмешка - уже сейчас та же индиана джонс сожрёт весь этот объем.

Пора на интелы переходить? Которые ark
Арк для 1080, Радеон для 1440, Нвидия для прогретых гоев
У меня сейчас 4070 на 12. Следующая будет явно не Нвидиа
Как обладатель прямого конкурента от Радеон - RX7800XT, ответственно заявляю, что 4070 только в лучах лучше. Но дороже, слабее и памяти меньше.
Зачем ты её взял, чем руководствовался?

Лучики и цена. 69к ещё и размер. В корпус влезает только 2х вентиляторная

Я брал две 4060ti от китайцев (AX RTX) для себя и для друга. На 2к 144hz мониторе всё летает, что уж говорить про hd60hz. Холодные, тихие. Вообще никаких нареканий. К тому-же я брал их с али за 32к/шт(этой весной), сейчас цены уже далеко не те на всё.

Думал про 7800, но чёт 270TDP меня вгоняли в уныние. Поделись как владелец, она действительно очередная амд печка или не всё так плохо?

В аквариуме со стоковыми вертушками 2 на вдув и одной на выдув было ~70 и хотспот ~90 в Киберпуке на ультрах 1440рублей. 100фпс в среднем.
Сейчас я бахнул 2 120 вертушек под видяху и 140 на выдув и стало около 60/80. Но примерно так же было и с просто ещё одной 120 под видяху.
Честно говоря, лучше бы забил и не парился с вертушками, температуры и так нормас, как по мне

Жаль. Сижу на nvidia как раз потому что она включает вертушки на видяхе только когда там нагрузка в потолок улетает(да и то 60-65 темпу держит, и я даже не андервольтил её), а так комп бесшумный (кулеры я не включал + водянка на проце + тихий бп).
А тут печка(по моим стандартам) даже с доп вентиляторами. Эх.

1) Колоссально лучше в лучах. Чем дальше в лес, тем больше игр отказываются от растеризации в пользу лучей из-за функциональности, универсальности и простоты реализации.

2) DLSS все еще лучший апскейлер, а DLAA лучший сглаживатель. Да, имплементация зависит от корявости рук разработчика и в некоторых играх DLSS хуже, но в большинстве игр DLSS реализован сильно лучше.

3) Посмотрел цены, в ДНС самая дешёвая 4070 стоит чуть дешевле
RX7800XT, на авито цены плюс минус одинаковые для бу. Может 4070 и стоит чуть дороже, а по производительности чуть хуже, но в сумме каждый выбирает по своим нуждам.

Я не оправдываю пососную политику хуанга, но "нвидиа для прогретых гоев" - позиция которая не имеет ничего общего с реальностью.

1) Индиана Джонс, что ли?
2) Апскейлеры не нужны.
3) 100 бачей разницы при том, что тебе в хуанга поделку недоложат 4гб памяти. Я почти уверен, что 7800 сейчас выросла из-за того что она слишком лучше и это уже невозможно не замечать.

Если тебе не нужен - это не значит что никому не нужен. Ты подобрал себе карту, молодец, это не значит что другие люди идиоты.

Про DLAA снова повторю - лучший сглаживатель на рынке, никакой TAA рядом не стоял.

Так если они одинаково стоят, получается 7800xt не дешевле?

12 гб памяти это маловато за 500 баксов, но на текущий момент достаточно, люди не в память играют

Перед выходом 40хх так же все боялись заявленного тдп, а в итоге карты жрали меньше 30хх(3080 суприм у меня нередко долбилась в лимит 420 и в среднем 300+, когда на 4080 я чаще всего вижу 220-280 ватт), так ещё и все вендоры внезапно нормально со сделали. Красные конечно действительно интереснее по тдп и лучше андервольтятся в среднем, но как показала практика большинству юзеров плевать на +-ватты, главное чтоб фепесов было больше.
Сам все хочу на красных полностью пересесть, но пока поводов не появилось, особенно в плане дров.
если ты только играешь ,то да. но насколько я могу судить по коллегам в рабочем софте nVidia себя лучше показывают
Пушто для рендера используют cuda ядра, а с аналогами у красных чот не пошло, некоторые рендеры уже RTядра юзают с которыми у конкурентов ещё хуже
Так в играх тоже зелёные в целом доминируют, особенно в топовом сегменте, несмотря на все мемы и т.д.
Основная нагрузка сейчас ложится на многократно отражающиеся и пересекающие лучи, отрисовывающие свет. Чем больше лучей, тем больше нагрузка и тем более реалистичным получается рендер.

Дорисовка кадров - это уже предзагруженные в игру паттерны предобученной нейронки, как должны выглядеть уже полностью реалистично освещённые объекты. Таким образом на этом этапе нагрузка всегда ±постоянная, какая бы сложная для рендера сцена ни была.
Это просто не имеет смысла. Патх трасинг нужен для рилтайм симуляции, генерация должна только промежуточные кадры создавать. Какие паттерны объектов, если каждый расчёт путей уникален?

что то я в играх вау эффекта не вижу от этих вРотТеХуй лучей. куртка только от радости светится что хомяков развёл

DLSS состоит из двух частей:

- Шахматный рендеринг на максималках. Это вполне классический метод снижения нагрузки на видеокарту, но подсуетившаяся Нвидия сдобрила его нейросетью (т.к. стандартная интерполяция плохо справляется с восстановлением полной картинки из разряженных пикселей с векторами движения), расхайпила и сделала стандартом. Надо сказать, что без заинтересованности Нвидии в видяхах не появилось бы эффективной возможности запускать нейросети, и шахматный рендеринг далеко бы не продвинулся, так что тут им респект.

- Создание промежуточных кадров. Этот метод хуже предыдущего подхода, меньше инфы доступно нейросети. Но шахматным рендерингом можно разгрузить только видеокарту, а вот процессор, на которой Нвидия повлять не может, начинает захлебываться пытаясь поставить видяхе задачи по рендерингу двухсот кадров в секунду. Так что остаётся только один вариант - межкадровая интерполяция, где неизвестно ничего о кадре в конкретный момент времени, а только предыдущий кадр (под кадром я имею ввиду цвета и векторы движения) и следующий (который приходится задержать и не отправлять на экран, так как иначе пришлось бы делать экстраполяцияю - а это задача совсем бедовая). Задержку можно немного исправить, если сделать небольшую "экстраполяцию" - коррекцию положения кадра, полагаясь на данные лишь от движения мышки, и этим вроде бы занимается Reflex.

"по старинке" включает себя сотни шагов: расчет геометрии, наложение текстур, всякие карты нормалей, туча шейдеров, постэффекты.

для генерации достаточно скормить пару готовых фреймов нейросетке с, допустим, десятком слоев, каждый из которых - это, по сути, набор простейших операций

Знаете вот, некоторые в детстве из нас думали, что игра это технически слайд-шоу: т.е. разрабы попросту заранее отрисовали все возможные кадры, а игра попросту быстро-быстро их все перебирает в зависимости от того, что мы делаем.

Сначала нейронка, которая генерит дум, обучившись только на видео с ним, потом майнкрафт по такой же технологии, теперь вот это от зеленых. Походу мы реально идём в эту сторону.

Чёт это тогда напоминает код Яндере дева, когда он вместо нормального, прописал хуй знает сколько строк if. Отчего каждый школьник, пробегал сотни строк кода, каждую секунду и всё тормозило безбожно.

Хз, мне к ситуации больше вспоминается шутка, про то что если у вас железо стало мощнее, то фепесов у вас больше не станет, т.к. мы будем меньше запариваться над оптимизацией + кто-то уже ранее по теме писал в коментах, что за нейронку которая будет больше кадров давать можно будет требовать подписку.

Ну, Нвидиа не верит, что нейронки могут на 100% игру отрисовывать, по вполне логичным причинам, т.к. для каждой игры придется отдельную модель тренировать, а это дорого и непрактично.
О, я не один так думал, значит

Одна из проблем оптимизации состоит в том, что масовые современные движки, тот же Анрил или Юнити, это комбайны с готовыми решениями.
То бишь, очень много всего происходит под капотом.
Условно говоря, тебе нужно передвинуть персонажа в сцене. Ты вызываешь отображение анимации хотьбы, и смену координат. А уже как движок это делает, проходит мимо тебя.
Когда есть доступ к исходному коду, для соответствующего действия, можно отключить, на время, все другие вычисления. То бишь, так же условно говоря -- остановить все остальные анимации. Но по скольку движок это комбайн, он в первую очередь создан для удобства програмистов, то те вычисления которые он берёт на себя, вместо отдавать их на откуп человеку, стоят производительности

Основная проблема в том, что они просто пихают все возможные технологии, которые есть в движке, даже не разбираясь, для чего оно нужно. 95% современных игр могут работать практически без потерь в визуальном качестве безо всяких лучиков.

Алсо с лучиками можно добиться картинки, неотличимой от реальности вообще. Но они тоже не умеют в это. Модеры конечно могут это исправить. Например киберпук:

А всё почему? Потомушта они заменили нормальных разрабов на членодевок. Не то, чтоб я был против членодевок, но они сосут. Особенно когда надо сказать маркетологу Нет на накручивание говна на пайплайн рендеринга.

Так и не увидел как неписи пьют напитки...
> Не то, чтоб я был против членодевок, но они сосут.
Почему «но»?
Сосут с плохими результатами
Они сосут не то и не там

Сосут, а надо разрабатывать

они вдувают там где надо сосать

Nvidia: мы подумали, что расчет физически корректных лучей и реалистичное освещение - это круто. Вот вам новые видеокарты rtx20xx.

Игроки: фу, лучи - отстой, реалистичный свет не нужен, фейковые затенения норм. Нужны кадры и разрешение!
Исследования рынка: реализм не нужен, фейки допустимы, главное кадры и разрешение.

Nvidia: выпускает rtx50xx.

Игроки: эээ, блэт!

скорее "лучи - хорошо, но 15фпс - плохо"

в посте так лихо противопоставляется "настоящая" опитимизация и генерация кадров, как будто оптимизация - это какая-то магия, для которой нужно зарезать овцу и помолиться Кармаку. а не поиск технических трюков для создания иллюзии более качественной картинки наименьшими средствами. чем и является генерация кадров

pils pils11.01.202517:20ответитьссылка -0.5

1) рецепты оптимизации вполне себе известны и доступны. полигоны, геометрия, текстуры - вот это вот всё (и не только)

2) генерация кадров это не лучшая картинка, а именно что более худшая - с артефактами и попердоленым управвлением. фреймгенератор именно что ненастоящая оптимизация. это вообще не оптимизация

Оптимизация это всегда срезание углов, различные ухищрения и аппроксимации значений, и DLSS это просто финальная стадия аппроксимации возведённая в абсолют, где не какая-то часть процесса рендеринга аппроксимируется, а целые готовые кадры. Современные видеокарты уже подошли к лимиту производительности, а в 4к и 200 фпс, честно, без оптимизаций, способны отрисовать только графику на уровне готики 1, вот и приходится выдумывать.

Я обычно на своём 4К мониторе запускаю игры либо в 2К либо в FullHD. Ибо просадки FPS слишком большие. Единственное что я честно играл в 4K, это Disco Ellisium

Я тоже так делаю, но это все равно не то. Картинка мылится из-за интерполяции пикселей, а если включить целочисленное масштабирование, то текст в играх начинает выглядеть странно

оптимизация - выдача визуально сопостовимого результата при меньших затратах.

втаптывание результата в говно - это не оптимизация.

полигоны, геометрия и текстуры - это не оптимизация, это способ кодирования того, что нужно отрендерить. старые рецепты известны, да. но их может не хватить, напирмер, когда твоя самая платежеспособная аудитория переходит с 1080п на 4к, а 16 видюх вместо одной не хочет покупать

у тебя в два раза более плавная картинка. за счет появления артефактов. ну так это и есть, считай, определение оптимизации. сэкономили ресурсы, чтобы создать иллюзию плавности - то, что я выше и писал. работает сомнительно, ок. а где я писал, что хорошо работает?

типа в коде нельзя нарыть оптимизаций чи шо?

приведу простой пример - треугольников в одной модели быть 12к, а можеть 5к. Снизить число треугольников в 2 раза, не снижая визульного качества модели и есть оптимизация.

алсо, к коду это отношения не имеет, модели рисуют тридэшники

Да пох на кадры, главное чтобы игорей хороших сделали

Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
¿SI *тЖ*ИЯ^ Í-.. °г £ «С |f«S • •! » 4 : ß Â •'**-*.*.—1 uy r ?) к ■u-5771 • 0 ZU \ - «>\ tu l M* 3^0 ' V : » ä • J V ЖМ i^— КЭТ R 1 2 0 1.^1 w ^■ШШЯЁШх '- V V > Л. »*./< \ Mags 4v^ -^ÇvShtv^ «w*
подробнее»

nvidia geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор

¿SI *тЖ*ИЯ^ Í-.. °г £ «С |f«S • •! » 4 : ß Â •'**-*.*.—1 uy r ?) к ■u-5771 • 0 ZU \ - «>\ tu l M* 3^0 ' V : » ä • J V ЖМ i^— КЭТ R 1 2 0 1.^1 w ^■ШШЯЁШх '- V V > Л. »*./< \ Mags 4v^ -^ÇvShtv^ «w*
Zhuowei Zhang N/ @zhuowei Never spend 6 minutes doing something by hand when you can spend 6 hours failing to automate itWhy do frontend developers eat lunch alone? I donT know, why? W'Kt They don't know how to join tables