IPS с хорошим откликом.. жутко дорогие. Из более мнее доустпных 15-20к рублей VA. Правда TN для шутеров интереснее, но.. углы обзора муть.. особенно для тех кто за пару часов игры на кресле сползает почти под стол :D
Если IPS мониторы с форсированным режимом MPRT в 1 мс. Типа включаешь режим MPRT и монитор обрезает яркость и контрастность, но дает честный отклик в 1 мс.
У меня 1070Ti, моник 27" Acer Nitro VG270bmiix 75Гц. И в играх 19 года в которые я играл - на ультрах с включенной синхронизацией всегда 75 фпс, без просадок. А если отключить то иногда переваливает и за 100. Проверялось на Metro Exodus, Far Cry New Dawn и Devil May Cry 5.
Ты чо пес облачный гейминг нахуй видеокарты играй на планшете в экзодус!!1
С артефактами и инпутлагом 160 мс, видимо, с клиентом и сервером в соседних стойках, лол))
Вангую такую же "дикую" популярность у этой штуки, как у IoT.
А что, ахуенно. Если моник хоть и 1080р всего, но в остальном очень пиздатый то это очень даже норм связка. Правда в случае если ты добыл чисто 2080Ti (Подарили, накопил, насосала, украл...) но проц на уровне i7, то такого конфига на очень дохуя хатит в ультрах играть.
Меньше моник ===> видеокарта может выдать больше фпс
Видеокарта может выдать больше фпс =====> нужен процессор, способный выдать больше фпс
ЦП же пофиг на разрешение, полигоны то он одни и те же считает что в 720 что в 4к а вот видяхе надо больше пикселей красить.
Это как? Цпу отправляет кадр на гпу, тот его рендерит, отправляет обратно процу, тот его постпроцессит, отправляет обратно гпу, тот строит изображение.
Ничего не перепутал?)
Если мы говорим про рендеринг средствами GPU, то не CPU не "отправляет кадр на GPU". CPU передает GPU информацию для построения сцены - загружает необходимые текстуры, модели, шейдеры (включая изменение координат объектов), причем лишь последнее он делает каждый кадр, а остальное - только по необходимости, когда надо, например, добавить новый объект или изменить уровень детализации. GPU вычисляет кадр, кладет его в буфер и сообщает, что все готово. Тогда начинается постпроцессинг средствами CPU, в самом простейшем случае на картинку накладывается пользовательский интерфейс, но есть и полноценные шейдеры, которые сложно или даже невозможно сделать средствами GPU, например - искажения цветов (закосы под старое кино), двумерные искажения картинки, специальное размытие и т.д. В старых играх даже сияние всяких ламп/светильников делалось на CPU (не освещение, а именно светящийся ореол), поэтому оно регулярно просвечивало сквозь стены.
Подготовленная картинка отдается обратно GPU для отображения.
Спасибо.
Честно говоря, в наш век ударного развития GPGPU мне сложно представить, что существуют пикселшейдеры, которые невозможно (или невыгодно) делать силами GPU. Есть примеры из современных игр?
Речь ведь идет в контексте топика.
Все остальное - HUD, UI-overlay - это не "тонны постобработки".
Вообще, касательно UI. Неужели через шину гоняется каждый отрисованный кадр целиком? Это же огромные накладные расходы.
>Есть примеры из современных игр
Да, и еще, буду признателен за пример любой старой игры, которая использует пикселшейдеры, но за счет постобработки на цпу при увеличении разрешения последний становится ботлнеком.
Это расставит все точки над i в заявлении, что камню не пофиг на разрешение.
> Тогда начинается постпроцессинг средствами CPU, в самом простейшем случае на картинку накладывается пользовательский интерфейс
Который вообще не постпроцессинг и сейчас отрисовывается средствами GPU (в том же Юнити)
> искажения цветов (закосы под старое кино), двумерные искажения картинки, специальное размытие
Всё, что вы перечислили - делается на GPU. Никогда не слышал, чтобы кто-то делал это в реалтайме на CPU и вообще сомневаюсь, что это имеет практический смысл
Тебе приснилось что я сказал будто i7 мало, наоборот, они всегда ахуенные и долгоиграющие процы. А вот на счёт i5 теперь сомневаюсь, когда с него на i7 но на поколение правда выше перешёл, разницу прочуял сразу.
Сами браузеры уже давно не так много жрут, но есть странички, что начинают отжирать памяти.
Тот же фэейсбук режет слова реклама на 20 отдельных табличек.
Ну, какое-то время с сидел на старом мониторе. Ламповом, ибо я сделал выбор - все в железо. Монитор купил позже, но было забавно с охуевшим железом, играть 4:3.
Было бы еще смешнее, если бы не факт того, что во многих современных играх эти ебанные вилка и нож являются чуть ли не минимальными требованиями к запуску.
Даже более того, их банально не хватит на современные максималки - 4к и 90+ фпс. Пеку под грядущие ААА можно в ипотеку брать с такими ценами на железо.
4к и 90+ кадров? Такое под силу разве что sli из 2080ti да и то не во всех играх и не со всеми настройками графики, да и сам sli далеко не везде работает. Может в майнкрафте?
Вот и я про то. Мониторы 4к/120фпс завезли, но на них можно на полную запустить тот же майнкрафт, и то не со всеми текстурпаками, да что-нибудь уровня фоллаута.
Я тебе больше скажу, Сталкеры в меню выдают овер 1200+ кадров, аж дросселя свистеть начинают на видяхе. Разрабы говна навернули, когда забыли поставить лок на 60 фпс.
*вздох*
Уже наверное неделю бьюсь вантузом об форточку пытаясь подобрать монитор под подобный конфиг... Там завесты на черном фоне, там 5мс GtG, там плотность пикселя (хочется попробовать 32" моник 1440p), там точность изображения хромает, там неравномерность изображения (на каком-то Acer Predator нашел)...
Близко к тому что присмотрел - Acer 27 XB271hubmiprz (UM.HX1EE.005/UM.HX1EE.008). Вот у этого наткнулся что народ плевался на тему что изображение не равномерное по цветам.
Ну я пока в сторону этого и смотрю. Была светлая мысль пересесть на 32", но я так понял 32" и 1440р это фиговое сочитание. А из 4к 144герц только две модели, но цена у них уже чересчур перебор (как две 2080ti).
А теперь можно возвести всё в квадрат, если юзаешь BlurBuster... Не знал, но когда попробовал - я офигел!!! (Не сочтите за рекламу, мож кому нить пригодится)...
Да я её сразу установил, когда купил новый моник на 1мс и пользую иногда, тоже советую. Но это для задротов и надо знать еще, как её настраивать. Я её только для CS 1.6 и QuakeLive использую.
Незнаю почему она позиционируется для 3D, и производители моников тоже показывают 3Д игры при своих Blur Reduction технологиях, когда самое наглядное - это 2D игры - да та же Terraria, играл на 4мс монике - как сырой тряпкой по экрану(всему экрану), а после blur buster - просто отдых для глаз - можно фокусироваться и вести любой пиксель на экране, он будет чёток. Вобщем Zowie + BlurBuster - прорыв я бы сказал.
Если в майнкрафте увеличивать дальность прорисовки, то нагрузка возрастает нелинейно. А дальность прорисовки там по дефолту ну очень маленькая, если строишь что-нибудь монструозное на сотни блоков.
Судя по "не когда" ты там так и не усидел.
(доеб окончен)
При движении все в мыле и шлейфы и шлейфы... ппц.
Отключай вообще все, будет больше.
У меня стабильно 60 фпс на сраной r9 270x.
И только DOOM выдает 150 на вулкане.
assassin's creed odyssey
battlefield 1
far cry 5
Ну вот тут ты заврался. Игра настолько нестабильна в плане производительности, что у тебя должны быть регулярные просадки по фпс.
Вот пример с чуть большей частотой E5-1650v2@4.5Ghz +1080TI но 120 ГЦ монике.
разрешение монитора и его частоту
С артефактами и инпутлагом 160 мс, видимо, с клиентом и сервером в соседних стойках, лол))
Вангую такую же "дикую" популярность у этой штуки, как у IoT.
Видеокарта может выдать больше фпс =====> нужен процессор, способный выдать больше фпс
ЦП же пофиг на разрешение, полигоны то он одни и те же считает что в 720 что в 4к а вот видяхе надо больше пикселей красить.
Ничего не перепутал?)
Подготовленная картинка отдается обратно GPU для отображения.
Честно говоря, в наш век ударного развития GPGPU мне сложно представить, что существуют пикселшейдеры, которые невозможно (или невыгодно) делать силами GPU. Есть примеры из современных игр?
Речь ведь идет в контексте топика.
Все остальное - HUD, UI-overlay - это не "тонны постобработки".
Вообще, касательно UI. Неужели через шину гоняется каждый отрисованный кадр целиком? Это же огромные накладные расходы.
Да, и еще, буду признателен за пример любой старой игры, которая использует пикселшейдеры, но за счет постобработки на цпу при увеличении разрешения последний становится ботлнеком.
Это расставит все точки над i в заявлении, что камню не пофиг на разрешение.
Который вообще не постпроцессинг и сейчас отрисовывается средствами GPU (в том же Юнити)
> искажения цветов (закосы под старое кино), двумерные искажения картинки, специальное размытие
Всё, что вы перечислили - делается на GPU. Никогда не слышал, чтобы кто-то делал это в реалтайме на CPU и вообще сомневаюсь, что это имеет практический смысл
(работаем через терминалы)
Тот же фэейсбук режет слова реклама на 20 отдельных табличек.
Уже наверное неделю бьюсь вантузом об форточку пытаясь подобрать монитор под подобный конфиг... Там завесты на черном фоне, там 5мс GtG, там плотность пикселя (хочется попробовать 32" моник 1440p), там точность изображения хромает, там неравномерность изображения (на каком-то Acer Predator нашел)...
Только 2080 не Ti и моник 144гц.
Ща планирую взять Acer Nitro XV273KP.