Подробнее
nvidia,В свете последних событий,RTX 5090,наебалово,Мемы,Мемосы, мемасы, мемосики, мемесы,картинка с текстом,английский язык,без перевода,nvidia,RTX 5090,swindle,memes,caption,
Это чуть разные проблемы. То о чем ты говоришь - плохая оптимизация - результат спешки, хочется побыстрее начать продавать. В этом случае можно всё исправить после релиза.
А бездарная механика, о чем говорит anorakee, всратое использование движка, говеный сюжет, скучный геймплей, идиотские механики, созданные бездарями - как правило уже не исправить, хоть весь обоптимизируйся. Это куда серьезней проблема.
Есть европейские студии и азиатские, туда то точно по листку не берут. А оптимизации на обще доступных движках как не было так и нет.
торг.
принять факт что свежей годноты почти нет и не будет. депрессия.
...
HoMM3. Жизнь прекрасна!
Это аж за целых два года
вартейлз неплох но не прожорлив. киндом-кум-2 вроде обещали не сильно жрущий сделать
Это проявляется только в мелких студиях и инди.
В ААА проблема в хуевой туче контрактников и метода разработки "хуярь по формуле, больше графона, и чтобы релизнулось вчера".
Да и эти студии могут позволить себе найти опытных разрабов даже среди меньшиств, никто не требует их нанимать сценаристами идейных стажеров. Но жадность важнее.
Беда в том что одни технологии опережают другие. Нарастить количество пикселей в мониторе и поднять частоту обновления проще, чем увеличить мощность видяхи. Грубо говоря 4K это 8млн. пикселей, FullHD -- 2млн., HD -- 1млн (а если брать второй популярный формат того времени 1280х1024, то и все 1.3млн.). С учетом того с 4К нередко хотят и 120Гц, то это все х8 увеличения сложности (оооочень грубо).
Далее начинается магия маркетинга: всегда можно добавить звёздочку и мелкий шрифт, главное чтобы в заголовке была красота и максимальный жир. Если условная компания А выпустит видяху выдающая честные 2К без всяких анскейлид и предполагаемых фреймов, а рядом будет видях от компании В, но презентующая себя как 4К* и 120FPS* -- кто получит больше продаж?
Больше получит тот, кто закупится рекламой, в том числе у техноблохеров, чтобы советовали покупать карточку. Потому что перед покупкой довольно дорогой свистелки обычно хотя бы один обзор да посмотрят, хотя бы уровня "10 лучших видях 2025 пранк смотреть до конца".
Ну то, что на Ютубе плохо выглядит -- то ведь в первую очередь из-за Ютуба и пожатия видео.
Я хз, я играю на 2К-мониторе, и если генерацию кадров мне включать противно (какая-то неправильная технология, как по мне), то DLSS-то круто работает уже давно. Даже на настройке "производительность" выдаёт частенько такую картинку, что поди ещё найди эти артефакты. А если ставить "качество", то и подавно.
Как по мне, DLSS -- очень даже крутая и полезная технология. Разве что она не должна ставиться во главу при разработке, а быть лишь побочной настройкой. Ну пока в целом и редко когда бывает, чтобы разрабы полностью на неё ориентировались, игры хорошо и без неё идут, если рейтрейсинг не подключать.
хз у меня DLSS добавляет какую-то зернистость, явно ухудшая качество, но у меня 3080 и dlss 3.0 не поддерживается, може дело в этом
У меня была 3080, было хорошо. Сейчас ноутбучная 3060, и в целом вроде тоже всё нормально.
Ты уверен, что зернистость добавляет именно DLSS? Я слыхал, что на FHD-мониторах такое есть, но я не пробовал включать DLSS в 1080p, только на 2К-мониторе.
По поводу зернистости -- я недавно в Киберпанк 2077 решил поиграть, и там у меня была зернистость, пока я не пошёл и не отключил... эффект плёнки, он же "зернистость" в настройках :D
Сейчас в режиме DLSS "производительность" у меня разве что какие-нибудь волосы или шерсть могут выглядеть чуток странновато, но я так подумал, что без сглаживания у меня оно и так выглядело бы криво, лесенками, но при этом вся картинка, а DLSS хотя бы заодно работает и как сглаживание, из-за чего всё, кроме физонных волос и шерсти выглядит приятно. И то если поставить "качество" или даже "производительность", то и этот эффект почти исчезает, но я готов с ним мириться, не страшно.
В общем, подытожив, могу сказать, что у меня негативного опыта использования DLSS нет. Такого, чтобы как-то картинку сильно ухудшало. Но я слышал, что DLSS может себя не очень хорошо показывать на разрешениях ниже 2К.
Я в курсе про эффект пленки и нет это не он, я проверял именно со включенным и выключенным dlss - есть разница почти во всех играх, ну кроме тех где он включен по умолчанию и как-то в итоге привыкаешь, тот же сталкер2 например. Монитор fullhd
на 4070 вполне видно мыло с DLSS на 2к мониторе. На любом качестве DLSS.
Специально покупал карту с видеопамятью побольше (ti super), чтобы DLSS не использовать и играть в какой-нибудь Киберпанк в 60фпс, но без мыла.
Так же сижу на 2к мониторе. И так же включаю длсс качество везде где есть возможность, т.к. в упор не вижу разницы.
А вот на фулхд мониторе видел и плевался, там картинка действительно превращалась в мыло даже на качестве.
Чел выше про зернистость, ты про мыло.
Если у тебя какие-то проблемы есть с технологией, это не значит, что у всех есть эти проблемы. У меня работает хорошо. Уменьшение разрешения я замечу.
Возможно, я просто не играл в игры, где DLSS был херово внедрён и плохо работал.
Зачем мне какой-то чел, если я могу сам игры запускать, включать и отключать технологии, и находить для себя оптимальные настройки качества картинки самостоятельно? Для этого я ПК и держу, а не чтобы за меня решали, как мне играть.
Я регулярно играю в игры как в современные, так и в старые, когда этих ваших DLSS'ов не было в помине. Вот этот вот блюр -- он же не из-за DLSS, блин, а из-за того, как игра сделана в целом. Часто, например, screen space reflections влияют на блюр картинки, иногда дело в хроматических абберациях, которыми обмазывают картинку. Есть множество разных причин, почему картинка может выглядеть мыльной. И до внедрения технологии апскейлинга мыльная графика существовала.
Что за хрень ты гонишь? Ты и сейчас волен вырубить всё, что хочешь.
DLSS нужен в первую очередь для компенсации затрат на рейтрейсинг. Потому что рейтрейсинг -- хоть и крайне крутая технология, но до сих пор очень жрущая, текущие видеокарты используют лишь малую долю от того, что она может, да и то с кучей ухищрений.
Если ты включаешь рейтрейсинг и жалуешься на низкие фпс -- то чёт ты зажрался. А без рейтрейсинга и других жрущих технологий игры идут как шли, ни хуже, ни лучше в среднем, и без DLSS. Где-то бывает плохая оптимизация, где-то отличная, как и было во все годы до этого.
Я видел игры с мыльной графикой, но там и без включённой DLSS она была мыльной, так что проблема не в этой технологии.
Алекс, я крутости технологии не чувствую!
Ну ничего страшного! Люди обращают внимание на разные вещи, меня вот торкает с рейтрейсинга, и бесят screen space reflections, ну а тебя что-то другое :)
Ну до DLSS игры уже были мыльные. Та же Crysis -- все игры этой серии крайне мыльные. Call Of Duty мыльными стали с какого-то времени. В целом, когда графика становится лучше, и появляются разного рода сложные графические эффекты, частенько это идёт рука об руку с мылом.
Как я уже выше написал, чаще мыло возникает из-за разной пост-обработки кадра, DLSS тут роли особой не играет. Мыло и мыльная картинка в играх появились задолго до DLSS, и вдруг спихивать косяки на эту технологию -- как-то неправильно.
Что до лучей, то для меня рейтрейсинг и динамическое освещение важны в любой игре. Меня уже бесят эти чёртовы Screen Space Reflections, это крайне костыльная технология, которая показывает херню. Но стоит её отключить -- картинка тут же теряет в красоте, становится очень статичной. Рейтрейсинг же ну супер-здорово облагораживает картинку, и меня это торкает.
Зеркала в игры "возвращать" и не нужно -- они и так там есть. Да, сейчас зеркало старыми технологиями сделать сложнее, так как сцена сильно сложнее, чем было когда-то, и не везде просадка быстродействия из-за дополнительного рендеринга оправдана. Но тем не менее, разного рода зеркальные поверхности в играх то и дело встречаются.
Ну а с рейтрейсингом -- тем более. В той же Control зеркалит всё, и это очень круто. Видеть отражение всей комнаты и персонажа в любой зеркалящей поверхности -- это очень круто.
DLSS же оправдывать не нужно, технология сама по себе классная.
С 2к монитором и 4080 картой DLSS когда включаешь то FPS конечно нехило прибавляет, но картинка становится явно хуже, видно ухудшение четкости самой картинки, особенно именно на мелких объектах и при движении, видна к примеру именно пиксельная зернистость особенно на тенях и что то типо пиксельного шлейфа при движении волос к примеру. Возможно для устранения такого неприятного эффекта нужен 4к монитор а не 2к.
Вообще, от игры зависит. Но да, про волосы согласен, однако тут в любом случае надо выбирать:
1) Нативное разрешение без сглаживания -- много фпс, мир в лесенках, волосы/трава/шерсть выглядят отвратительно
2) Нативное разрешение и FXAA -- фпс всё ещё много, лесенок почти нет, мир весь мыльный, волосы/трава/шерсть выглядят норм
3) Нативное разрешение и мощное сглаживание -- фпс сильно меньше, лесенок нет, мир с мыльцой, но почти незаметно, волосы/трава/шерсть выглядят отлично
5) DLSS -- в зависимости от выбранного качества: больше фпс, лесенок нет (!), мир разной степени мыльности (может быть и без мыла вовсе, зависит от экрана, игры, качества и других факторов), волосы/трава/шерсть могут сыпать пикселями.
Как по мне, получить больше фпс И антиаласинг высокого качества в одной настройке -- это круто! Даже с какими-то мелкими артефактами, которые меня не парят.
Кстати, пиксельная зернистость, на моём опыте, чаще появляется от screen space reflections, когда эта технология херово исполнена. Отключаешь её -- картинка становится чистой, но и отражениям говоришь "пока!". Рейтрейсинговые отражения тоже могут пиксели сыпать, но там это особенность рейтрейсинга в нынешнем исполнении.
Классическая оптимизация тоже от рук разработчика зависит. Так что не придирка.
Единственное, к чему можно реально придраться - к инпутлагу. Но в наш век консолей с ЖК-телевизорами и беспроводными геймпадами, ещё пару десятков милисекунд никто не заметит.
Так есть - в играх с относительно плавным движением камеры и без тонны партиклов на экране разницу хрен заметишь. А вот при резкой смене ракурсов камеры и куче эффектов на экране мыло/артефакты/мерцание видно отлично.
С одной стороны да, но другой просто нарисованные кадры, в игре ну такое.
> Во всех ТВ встроена и всем норм. Это просто старческое брюзжание
Вот как раз старикам и норм, а для нормальных людей эти интерполированные кадры на телевизоре выглядят максимально уёбищно
Сейчас бы ещё вспомнить мем про консольные кинематографические 30 фпс.
ДЛСС как раз-таки решает проблему артефактов изображения на медленном дисплее. Раньше для этого включали вертикальную синхронизацию, которая много инпутлага добавляла.
Основная претензия к фреймгену это неизбежное повышение задержки.
Смысл от 200 фпс при отзывчивости 40 фпс? Чтобы что?
Для меня это критичная проблема. Т.к. качество "фейковых" кадров они рано или поздно подтянут до того уровня когда артефактов либо не будет либо они будут не заметны, а вот от дополнительной задержки избавиться не получится никогда, т.к. она лежит в основе технологии.
Ты путаешь теплое с мягким.
Генерации кадров необходимо получить следующий кадр для генерации предыдущих до него. На практике это означает что задержка увеличивается на время отрисовки следующего кадра + генерация фейковых + вывод фейковых и реального на экран (считай еще 1 время рендеринга стандартного кадра).
Т.е. МИНИМУМ повышение задержки в 2 раза.
Они это все пытаются компенсировать уменьшая задержку отрисовки при помощи всяких рефлексов и аналогов от амд, но загвоздка в том что это понижение задержки можно использовать и без генерации, что не меняет изначальной проблемы - разницы 2 к 1.
В любом случае никакого дискомфорта я не испытываю. А на мониторе с 165гц так ещё и удовольствие получаю от плавности движения.
Даже если игра выдает 165гц, то какие-никакие артефакты будут. А вот еслии уже 400 фпс, то изображение идеальное.
При этом никакого инпутлага я не испытываю. В крутом семе фьюзион дрова показывают задержку в 5-10мс.
Как бы тебе донести то...
Когда игра изначально выдает 60+ фпс без всех улучшайзеров, она УЖЕ находится в комфортной зоне.
Но фреймген преподносят как рашение НИЗКОГО фпс.
Когда нвидия на презентации показывает киберпанк с 200 фпс при х4 генерации, это значит что он сам по себе идет с задержкой как у 50 кадров
А это уже не комфортно.
>Ты, видимо, никогда в киперкотлетизм не пытался. Попробуй поиграть в какой-нибудь сетевой шутер с локом на 60 фпс - разницу почувствуешь.
И снова ты путаешь теплое с мягким. Киберкотлеты играют с 360+ герцами не потому что это "плавно", а потому что это "быстро". Для киберкотлеты важна задержка в первую очередь.
Фреймген же - чисто визуальное улучшение в ущерб рельной отзывчивости.
нет, для генерации картинки длсс-ом не нужно иметь два кадра (предидущий и следующий). там принцип апскейлинга нейронкой а не "усредненного кадра".
т.е. мы можем (к примеру) честно отрисовать картинку, допустим 30 раз в 4к, или 60 раз её отрисовать в 720р + нейронкой каждый кадр апскейлить.
Для генерации одного промежуточного кадра необходимо два соседних реальных кадра. Технология NVIDIA Frame Generation использует данные о движении из двух предыдущих кадров и информацию об оптическом потоке для создания одного нового промежуточного кадра. Этот процесс позволяет эффективно удваивать частоту кадров без значительной нагрузки на систему.
коль ты о нем - то там так же не сказано, что используется интерполяция. Ну, есть один чел на реддите который доебался до этого словосочетания (которое означает примерно ничего), но тут скорее имеется в виду использование тензора для предсказания а не интерполяции. по крайней мере с остальных слов именно что можно сделать вывод о нейронке - трансформере, предугадывающей картинку.
Проблемы богатых людей.
Но по какой-то неведомой причине производители железа до сих пор продолжают напирать на этот мифический 4К-гейминг, который так всем "нужен".
Для понимания насколько он "нужен" можно посмотреть на стату стима - за последние 3 года доля 4к выросла с 2.6% аж до 4.2% (при этом за последние месяцы показывает околонулевой рост)
Ну я думаю что их, как и стримеров например все-таки не так много в процентном отношении. Основая часть - это как раз обычные игроки с многоденяк.
По этой же стате доля 4к мониторов идентична доле обладетелей карточек 4080Ti/4090(и аналогов от AMD), т.е. по сути это узкая прослойка игроков которые просто берут топовое железо невзирая на ценник.
для вр нужно (что тоже очень нишевая штука), обработки "равок" фильмов\фоток итп.
В лабиринте отражений что-то подобное было. Только там не нейронка дорисовывала красоту, а какая-то "программа-психоделик", после просмотра которой графика уровня старого alone in the dark воспринималась как крайзис в 2007.
такое ощущение что все этим мемы делают у кого есть монитор 4к 240гц который стоит не дешевле 5090 https://4k-monitor.ru/catalog/4k-240-gts/
Проблема в том, что флагманская видеокарта больше не гарантирует, что ААА-игра будет идти даже в 60 фпс без включения генерации кадров. То, что изначально предназначалось для бюджетных карт, теперь является новым стандартом индустрии.
пидоры, а подскажите вот центральный процессор может в 5ггц, а гпу даже до 3 не может дотянуть. почему?
ну и вообще игор нет. для того что есть хватит 2080. честных 4к всё равно нет, а для более низких ходовых разрешений новые видяхи ибыточны - нахуй кормить обнаглевшую куртку?
>пидоры, а подскажите вот центральный процессор может в 5ггц, а гпу даже до 3 не может дотянуть. почему?
Потому что история эволюции железа. В старых играх было два режима: софтвеерный и хардвеерный. Ты действительно мог запустить игру без видеокарты, повесив её обработку только на процессор, но тогда производительность желала лучшего. В этот момент игры и API стали пилить под аппаратную обработку железом. То есть игры спроектированы так, чтобы переваривать текстуры, модельки и эффекты именно таким определенным образом, который заложен в видеокарту.
>нахуй кормить обнаглевшую куртку?
Говорящим головам на ютубе нужно что-то обсасывать. Они не играют в игры, а хайпожёрят на трендах, чтобы заработать деньги. Но пассивные потребители этого не понимают и по инерции ведутся на хайп говорящих голов.
Отличный комментарий!