НУЮ1А В 2016 вТХ 1060 так же быстр, как вТХ 980, только больше УРАМ и всего за $250 ЫУЮ1А В 2023 / Doge Lore :: Мемы (Мемосы, мемасы, мемосики, мемесы) :: видеокарты :: nvidia

nvidia видеокарты Doge Lore Мемы 

НУЮ1А В 2016
вТХ 1060 так же быстр, как вТХ 980, только больше УРАМ и всего за $250
ЫУЮ1А В 2023
ШХ 6060"П быстрее ЯТХ ЗОбОП на 5% и всего за $600,nvidia,видеокарты,Doge Lore,Мемы,Мемосы, мемасы, мемосики, мемесы


Подробнее
НУЮ1А В 2016 вТХ 1060 так же быстр, как вТХ 980, только больше УРАМ и всего за $250 ЫУЮ1А В 2023 ШХ 6060"П быстрее ЯТХ ЗОбОП на 5% и всего за $600
nvidia,видеокарты,Doge Lore,Мемы,Мемосы, мемасы, мемосики, мемесы
Еще на тему
Развернуть

Отличный комментарий!

Им сейчас пофиг, у них "AI AI AI" головного мозга. Ну а че, бизнес платит.
SamFisher SamFisher 22.11.202318:51 ссылка
+42.2
Меня убивают тренды на апскейлеры и генерацию кадров, ненавижу хоть какое-то мыло или иные искажения в графике.
Tlanexyotl Tlanexyotl 22.11.202318:57 ссылка
+22.5
Генерация кадров рак, да. "Смотрите, генерация + reflex почти не увеличивают задержку". Скромно умалчивая что рефлекс так то можно и без генерации включить, заметно улучшив импут лаг. Но это ладно. Самый пиздец - что сейчас dlss плавно перекатывается из "запустить крутой графон на слабом железе" в "мы дизаинили игру под 30 кадров с dlss 3.5 на производительности, обязательно 4090". И ладно, ноль вопросов когда это честный рейтрес с множественными переотражениями лучей (ака path tracing) как в кп, но нет же. Просто забьем на лоды, кулинг геометрии, оптимизацию, dlss же есть (как в cities skylines 2, например).
SamFisher SamFisher 22.11.202319:06 ссылка
+43.8
Им сейчас пофиг, у них "AI AI AI" головного мозга. Ну а че, бизнес платит.
SamFisher SamFisher 22.11.202318:51 ответить ссылка 42.2
Меня убивают тренды на апскейлеры и генерацию кадров, ненавижу хоть какое-то мыло или иные искажения в графике.
Генерация кадров рак, да. "Смотрите, генерация + reflex почти не увеличивают задержку". Скромно умалчивая что рефлекс так то можно и без генерации включить, заметно улучшив импут лаг. Но это ладно. Самый пиздец - что сейчас dlss плавно перекатывается из "запустить крутой графон на слабом железе" в "мы дизаинили игру под 30 кадров с dlss 3.5 на производительности, обязательно 4090". И ладно, ноль вопросов когда это честный рейтрес с множественными переотражениями лучей (ака path tracing) как в кп, но нет же. Просто забьем на лоды, кулинг геометрии, оптимизацию, dlss же есть (как в cities skylines 2, например).
Инпут* лаг. Заддержка ввода.
Странный указатель на тип Инпут у тебя, кастомная либа какая-то?

особенно если это индуха ебаная с булетхэллом, и ты изза того что оно впринципе под 60 кадров не расчитывалось дохнешь тк нихуя не понятно че куда летит и этот снаряд он ебашит в противоположную от тебя сторону или летит разбивать тебе ебло

А по факту на слабом железе он работает так уёбищно и мыльно, что тебе выгодней просто разрешение вместо этого снизить
zaooza zaooza 22.11.202320:29 ответить ссылка 6.2
Ну так а чо ожидать, если в геймдеве теперь модно брать дешевых спецов с двумя курсами по юнити за спиной, которые готовы работать за минималку, лишь бы "игори разробатывать".
Но они не догадывались, что бизнес лишь разробатывал им очко и уже ехидно посматривает на конечного пользователя.
Просто контекста вкину. В cities skylines 2 сделали дохрена полигональные модельки, у каких то есть лоды, у каких-то вообще нет или почти нет, и часто встречается ситуация когда при взгляде на город сверху, для того чтоб отрендерить финальных 2-3-5 пикселей - на рендер отправляются тысячи треугольников.
https://habr.com/ru/articles/772284/
То есть народ просто накидал ассетов и вообще по большей части даже не пытался это оптимизировать. При том что в первой части они пол движка под себя переписали, чтоб оно нормально работало. Но на разработке второй части на это решили забить. Или людей которые могли это сделать выперли и взяли стажеров, хз.
Подозреваю что с KSP 2 (ууу суки, я ее ждал) произошла такая же срань.
Ой блять не напоминай про KSP2... Тоже ждал, и в итоге в игре изменения - новый говношрифт и ноль оптимизации.

Все перевыпуски первых крутых индюшатин будут гавном на хайпе. Cities Skylines и KSP - это лишь начало. Щас еще подъедет Frospunk 2, где без рейтрейсинга нельзя будет пускать детей в шахты - темно слишком.
не только ии. они уже давно поняли что большие деньги в работе с бизнесом(цоды моды итд). они вроде еще в 20 годах(или даже раньше) до хайпа с ии говорили что "они выросли из игр". игровое подразделение у них щя это вроде треть их прибыли.

Интел, упирёд. Возможность влезть. Конкуренция - хорошо для нас

И dlss 3

Не хочешь покупать? Ну значит и в новые "некст-ген" не хочешь играть.
Было бы во что играть...
FanStuck FanStuck 22.11.202319:10 ответить ссылка 13.3
"Железо обнови! Я игры выпускаю чтоб продавать, а не оптимизировать!"
Arelikus Arelikus 22.11.202319:13 ответить ссылка 19.0
весь бюджет игры на рекламу просрал
При этом, последний патч сильно её оптимизировал. Чего не скажешь о некоторых других.
Jaoso Jaoso 23.11.202313:16 ответить ссылка -0.9
мы теперь под "сильно её оптимизировал" подразумеваем 40-50 фепесов в городах в 1080Р на 3060 на "средних"?
Вообще на 1080 в городе у него 60-70 фпс, а два месяца назад у него на том же было 40-50 фпс. Таки прирост налицо?

А когда разрабы забивают болт, и 4090 будет пыхтеть, чтобы выдать стабильные 40-50 фпс.
Jaoso Jaoso 23.11.202316:59 ответить ссылка -2.1
чёто глянул графоний вау эффекта не вызывает
Ну так а с кем конкурировать-то? Пипл хавает, альтернативы дешевле и выгоднее нет.
Если кто-то считает AMD альтернативой, то их 10% рынка это, конечно, величина чуть больше погрешности, но до здоровой конкуренции тут очень далеко.
Через 2-3 поколения _возможно_ карты от Intel будут конкурентны.
Лет через 10 возможно и китайские видеокарты будут оказывать какое-то влияние, если их асашай пустит на мировые рынки.
Но это всё гадание на кофейной гуще.
А пока имеем то, что имеем. Геймеры голосуют кошельком.
У АМД норм дела с видюхами сейчас? На райзены же люди стали довольно хорошо перекатываться, все топы продаж на маркетах в райзенах.
Вполне достойные карточки, по сырой производительности нередко (хоть и не всегда) обходят свои зелёные аналоги. Да, хуже могут в DLSS, а нахуй он нужен, собственно?
dlss очень нужен, чтобы в 2к играть, на 3060 например
Ну, технически да, но по крайней мере для себя я решил, что связку монитор-видеокарта я рассматриваю сразу целиком. Под 3060 купил себе FullHD моник 144гц, если в будущем захочу 2к монитор, то куплю что-то соответствующее, но будет то нескоро, я на 720р сидел до лета прошлого года, нового железа мне хватит на годы вперёд.
Да и не нравится мне DLSS, очень подмечается что он картинку портит, особенно в Таркове заметил, где за каждым пикселем глаз да глаз нужен, а оно мылится некисло
2к с длсс выглядит лучше, чем 1080р с ТАА. У меня 1080р 27" моник, везде где только можно юзаю длсс и 1440р через DSR от нвидии
Плотность пикселей тоже решает, не спорю, но 2к себя побалую когда возьму ипотеку, пока живу у черта на куличках не хочу обустраиваться слишком хорошо
Так у меня моник 1080. Просто можно бесплатно через панель нвидии 2к или 4к юзать.
Не люблю апскейл, очень сильно бьёт по производительности. Да, картинка чуть-чуть чётче, но в целом лично для меня того не стоит
Во многих играх это почти ничего не стоит. Тот же рдр2 в нативе 1080р с таа идет +- также как в 1440р с длсс на качестве. Только с таа картинка намного мыльнее и пиксельнее.
В той же бг3 в 1080р вообщеиграть невозможно с любым видом сглаживания, что длаа, что таа, смаа, там все выглядит отвратительно. Вот 2к длсс уже нормально, хотя трава и волосы все равно пикселят конечно.
В БГ3 меня заёбывали другие вещи, не связанные с графикой, так что на картинку особо не заглядывался. Только когда у Жабки трусы стырил
Я себе тоже взял FullHD моник 144гц и 3060, по ходу пользования пришел к выводу, что не могу "на глаз" отличить 80-140 гц, а вот FullHD и 2К очень даже (при том, что 2К не натуральные, а через DSR). Так что выставил 120гц и поставил ограничение на 100. В 2К DLSS выглядит заметно лучше, чем в FullHD, а по производительности получается примерно как в FullHD без DLSS. А вот лучами пока не проникся особо, хотя мало где видел (Metro последнее и еще где-то). Зато FreeSync работает неплохо (монитор не заявлен в списке поддержки nvidia).
Ylman13 Ylman13 22.11.202319:57 ответить ссылка -0.5
В играх и правда не каждый раз хорошо различаешь настолько высокую герцовку, но вот где оно замечается точно - это в самой системе. Чувак, такой кайф, когда в 144гц курсор гуляет плавно и быстро, с окнами то же. На работе моник 60гц обычный, и чёт аж больно
+1? недавно купил себе 165Гц моник, офигел просто от плавности работы. Рядом вторым моником стоит обычный на 60Гц, разница колоссальная.
Lyteo Lyteo 22.11.202320:10 ответить ссылка 1.4
Наглядная разница восприятия (а также технических возможностей бортовой аппаратуры). Я конечно два монитора рядом не ставил (лень было), но я бы больше 20% не дал в общем качестве восприятия изображения между 60 и 144 гц (особенно на одном мониторе), а вот увеличение разрешения и значений ppi дает (на мой взгляд) более ощутимую разницу (30-40%). Но 2К/144гц кажется мне разумным вариантом (выше 144 гц я бы не стал брать для себя, а выше 2К уже железо надо совсем другого уровня).
мб просто винда сама по себе тормозная? причем тут гц?
отклик решает. это ощущается и глазами и руками.
От частоты обновления экрана сильно зависит плавность движения ВСЕГО на этом самом экране, если железо позволяет отрисовать нужные кадры вовремя
Если у тебя фуллхд моник, и ты не собираешься брать больше то нахуй не нужен
на фулхд можно хоть 4к включить, через DSR
Но нахуя?
чтобы не играть с мылом и лесенками. 2к с длсс прекрасно решает эту проблему.
Сижу на 6700xt в 2к без всяких генераций кадров не знаю проблем. Встретил только одно исключение - Алан Вейк 2.
AMD в последние лет десять почти это - overpromise, underdeliver + последние лет 6 не очень конкурентное с учётом вышесказанного ценообразование. На фоне куда как более слабой маркетиноговой компании и отставании по ряду фич в конкуренцию они не смогли.
Я сам всю дорогу был из красного лагеря до выхода последнего поколения, когда они опять обещали одно, а на релизе вышли те карты, которые вышли. 7900XTX должна была конкурировать с 4090 (отставание прогнозировали на 10-15%), а в итоге вышел конкурент 4080 с ИМХО, завышенным для бренда прайсом. Ну и вот итог последних лет - 10% рынка.
А так - карты как карты. Если ценник норм - можно брать. DLSS 3 работает реально только на картах с большим объёмом памяти, т.к. на 8 гиговых буфер забивается и вместо рисованных кадров с бустом фпс получаешь фризы там, где их не было изначально. так что среди мидла да, карты АМД при нормальной цене - вполне себе вариант. Но вот если нужен топ то тут двух мнений быть не может 4090 позволяет и лучи посмотреть, и DLSS 3 FG реально использовать, да и просто дури там побольше чем у любых конкурентов. Но это за 2 килобакса.
>ИМХО, завышенным для бренда прайсом.
4080 сейчас дороже 7900XTX.
Потому что НВ это продающий бренд, даже с таким раскладом их берут очень бодро. Даже если 7900xtx на 2-3 сотки дешевле
А, стой. Я затупил и не так прочитал, думал ты про завышенную цену красных говоришь. Полностью согласен.
$2K это при условии, что у тебя уже есть достаточное охлаждение на корпусе и нормальный БП. С хайэндовыми процами от Intel уже и киловатник смотрится недостаточным, 1200 брать надо уже.
Mjon Mjon 22.11.202319:58 ответить ссылка 1.2
Хайэндовые процессоры можно задушить на 100-150 ватт и потерять 10-15% производительности (это критично кому-то вообще?). При этом производительность однопотока вообще не упадёт либо упадёт на 3-5%.
4090 при снижении потребления на 35% теряет не боле 10% производительности тоже.
Смысл выжимать эти % произвоительности такой ценой? Впрочем это уже личное дело каждого.
Кой хуй мне покупать i9 14900k и резать ему частоты? Чего ради тогда покупать топ? Не проще уже тогда взять i7?
Та же херня с графикой: если держать в уме даунвольт карты сразу после покупки, то какого лешего мне тогда переплачивать за топовое решение в сегменте, если можно на ступень ниже взять?
Mjon Mjon 22.11.202320:24 ответить ссылка 2.6
в играх между i5 и i9 13 или 14 поколения разница около 5% будет.
Нафига тебе i9 для игр - вопрос не ко мне :)
По поводу графики - 4090 это топовый топ. даже потеря 5 фпс не сделает 4090 хуже или сравнимой с 4080, а шума и тепла станет сильно меньше.
При этом можно и БП попроще взять.
Аргументы есть, вопрос лишь в личных приоритетах.
Разница между i7 и i9 наглядно:
GN CPU Benchmark | Rainbow Six Siege Very High (1080p) | GamersNexus
RTX4090 Strix, Arctic Liquid Freezer II 360, MX-4 Paste, 100% Fan Speed, DDR5-6000 Corsair 30-36-36-76 (DDR4: 3200 14-14-14)
GAMERSNEXUS
AMD R7 7800X3D 8C/16T (10/23) AMD R9 7950X3D 16C/32T (10/23) AMD R9 7950X 16C/32T (10/23)
Кстати тут так же наглядно на графике видно, что в этих последних поколениях L3 кеш куда важнее, чем герцы - вот весь топ забрали X3D версии AMD процов о огромным кешем
х3д идея хорошая но там кристалы бутербродом друг друга перегревают - нужна подложка с большей теплопроводностью чем кремний или слотовая компоновка с радиатором на каждой стороне кристалла а выводы пустить с ребра. ну и неравномерный нагрев получается
Поэтому на этих чипах и частоты ниже. Кстати, по слухам в Zen 5 эту проблему решили. Но чипы-то даже с меньшей частотой в играх зажигают.
рязань цпу пожалуй уже несколько лет избыточны для игр. чтото прямо очень прожорливое именно на цпу редко бывает. пошарю обзоры и тестирования. спасибо
Старфилд жрет CPU как не в себя. Киберпанк с трассировкой пути - тоже. Киберспорт - да, там запас огромный. В общем, смотря во что играть. Вон 3й акт Baldur's Gate 3 тоже уничтожает CPU :)
фикус старый 8 ядерный справился - балдурь больше на память и видяху с диском, старфилд слишком облажался чтоб в него играть. трассировка висит на видяхе. цпу нужен в играх где куча рассчётов не все из которых паралелятся. иксы эгософтовские, стелларис в большой галактике. что нить с кучей механик нужно чтоб на цпу висело
Всё то, о чем я говорил выше, подтверждено тестами, по этому если вы не согласны, то в интернете хватает пруфов сказанного.
Помимо тестов у меня сборка из r9 5900x и rtx 4080, SSD pci-e 4x4 4tb и 64 Гб ОЗУ. Я и сам неплохо понимаю то, о чем говорю.
для игр сборка дурацкая - у тебя или работа с графикой звуком видео или нейронка или вовсе какая то инженерная хрень. тесты в интернете не дают нормального сравнения. я даже не слышал о тестировании где например глушили все ядра кроме одного, приводили частоты процессора и памяти (с таймингами) к одинаковой величине и гоняли тест какого нить геморного вычисления. вполне может оказаться что реальная производительность выросла не так сильно как маркетоидная
У меня сборка для рендера и 3d графики. Играю в игры эпохи Xbox 360 обычно :)
Ахаха, то есть мяу. Конкуренты тоже не будут играть в благотворительность. Как только у них по производительности и технологиям появится что-то сопоставимое с нвидией, цены на их карты станут такими же. Как это сделала амд с кукурузенами, например.
Да и тренд такой, что через 10 лет не будет массовых видеокарт для пеки, будет только облачный гейминг для всех.
mordog mordog 22.11.202319:39 ответить ссылка -0.7
Скорее через лет 10 АПУ будет покрывать рынок казуального гейминга, а карты будут для обеспеченных. Облачный гейминг уже декаду назад (привет PS3 и сервис Gaikai) должен был покорить рынок консольно-пекашного гейминга, но чёт нет.
А кто такой этот ваш "АПУ"?
Apu - Accelerated Processing Unit. С Вики "Гибри́дный проце́ссор — термин для обозначения микропроцессорной архитектуры, подразумевающей объединение центрального процессора с графическим в одном кристалле."

Та шляпа, что стоит в Стим деке и консолях

Термин APU компания AMD, как пионер в данном направлении, ввела для обозначения гибридных (гетерогенных) процессоров.
processing
GPU and other processors to work in harmon
WHAT IS HSA?
An intelligent computing architecturethat enables on a single piece of silicon by sea nleiM
GPU
CPU
hUMA (MEMORY
PARALLEL
WORKLOADS
SERIAL
WORKLOADS


AMDZ1
>Скорее через лет 10 АПУ будет покрывать рынок казуального гейминга

Radeon 780m уже сегодня является довольно мощным встроенным решением, где-то на уровне XBox Series S

На десктопы в виде APU - он тоже заглянет, в следующем году

Да и Vega8 на момент релиза не была совсем уж затычкой и помогла куче народа пересидеть волну майнинга

Я понимаю Пойнт в высказывании, но пока это всё ещё затычка. Да, уже большинство тайтлов тянет в фулл хд, но на замену десктопной карты лоу-мидл уровня (3060) не тянет. А лет через 7-10 уже могут подобные АПУхи стать мэйнстримом. Очень ждём в 24м году стрикс-поинт и особенно Strix Halo ( который будет как раз той самой мега-апу).
>лоу-мидл уровня (3060)

если 3060 - лоу, то что тогда у 25% юзеров стима, которые по сей день сидят gtx1**0?

мы, конечно, в курсе, что стим в вопросе железок может нагло пиздеть, но стабильного ресурса лучше у нас пока нет.

low segment сегодня это RX6400/RX6500 и 780m даёт вполне себе сопостовимую производительность, но уже в виде встройки

>Очень ждём в 24м году стрикс-поинт и особенно Strix Halo ( который будет как раз той самой мега-апу).

во всех в слухах о Strix Halo меня очень смущает "256-bit LPDDR5X Memory Controller"
4x-канал в ноутбуках? звучит не очень правдоподобно
но буду рад ошибится
Lpddr - распаянная память (как в смартфонах), она будет прямо на кристалле.
Я писал low-middle - это низшая карта из среднего сегмента. Т.к. 3050ти не существует, то это 3060.
>Lpddr - распаянная память (как в смартфонах), она будет прямо на кристалле.

1 канал хоть ddr5, хоть lpddr5x всё равно ограничен 64 битами (2*32), т.е. в процессор для 256-битной ширины нужно будет затолкать 4(8) канальный контроллер

и, повторюсь, я не считаю это реалистичным слухом. Я скорее поверил бы, что AMD поставит другой контроллер и распаяет HBM-память на подложке процессора. Но, опять же, буду рад ошибиться.
Как вам 4 канала в мобильном чипе медиатек?
22:50 © 0
t m @ ^ ..ill 59% ■
= SoC-L	35 q :
MEDIATEK	▼
MediaTek Dimensity 9300	
Memory	
Memory Type	LPDDR5X/LPDDR5T
Memory Clock	4,800 MHz
(Effective)	(9,600 MT/s)
Memory Bus Width	16 bits
Memory Channels	4
Memory Bandwidth	76.8 GB/s
ECC Memory Supported	No
Или 8 каналов в ноутбучном чипе квалком.
Суть в том, что при создании SOC с распаянной памятью с этим сильно проще, чем делать контроллеры для внешних каналов памяти
22:51 O ©	* m '©' ill 59% ■
= SoC-L	35 Q, :
QUALCOMM	▼
Qualcomm Snapdragon X Elite	
Processor	
Instruction Set	ARMv9-A 64 bits
Num of Cores	12
Num of Threads	12
Microarchitecture	12 Oryon
Frequency	Up to 3.8-4.3 GHz
L2 Cache	36 MB
L3 Cache	6 MB
Memory	
Memory Type	LPDDR5X
Memory
Ты soc с apu не путай
какая-то херня - 16*4 = 64
76 gb/s - это 1 (одна) планка DDR5 (2*32)

вероятно в программе ошибка, т.к. стандарт ddr5 не подразумевает ширины канала в 16 бит
Lpddr может быть 64, 32 и 16 бит. У эпла они были и теми и другими в мобильных чипах. Зависит от архитектуры проца, полагаю, и возможно от плотности чипов памяти, но это уже мои догадки.
1 канал конкретно в ddr5 (и lpddr5x вместе с ней) никак не может быть 64 битным
а ты memory type можешь прочитать или тебе перевести? %)
Разница то какая?
8×4.266=34.128 как на скриншоте выше
8×9600=76.8 как на скрине с процом медиатек.
Что не так-то я не понимаю?
Процессоры 64 битные вроде...
разрядность (архитектура) самих процессоров и разрядность контроллера памяти - вещи вообще параллельные %)
На x86 я готов поверить что есть жёсткая спецификация, а кастомные ядра arm это уже другая история
и тут тоже мимо - спецификациям JEDEC похуй какая у тебя архитектура процессора %)
Да, согласен, после 4ки спецификацию изменили и 64 бита в одноканале быть не может.
8x16 (с учётом double data rate) указали как 256 шину памяти? Ну, с учётом того, что это внутренняя информация не для пресс релиза, вполне может быть.
4 канала на АПУ вполне могут развести в стриксе. Но это будет только HALO версия, только для топовых Asus Scar или вроде того. Я более чем уверен что в масс маркет это чудо не попадёт.
И вангую 32 гига распаянной нерасширяемой памяти под систему и графику, что прямо скажем "не богато".
И вот здесь уже я хотел бы ошибаться.
Лол, это тот самый облачный гейминг, который в итоге сдох? По-моему ты ошибся временем, тебе следовало бы такое сказать 10 лет назад и тогда бы многие еще поверили, а так это хуета полная этот "облачный гейминг для всех".
Ну давай, покажи где он сдох. Пара мелких стартапов сдохли, пару других скупили крупные издатели. И крупные издатели в итоге допилили их до адекватного состояния - у сони, майков и нвидии дела с облачным геймингом отлично идут.
mordog mordog 22.11.202321:47 ответить ссылка -5.1
PSN, GFN, Amazon luna, XBOX Cloud?
mordog mordog 23.11.202311:41 ответить ссылка -0.9
Вырезка из отчёта CMA за этот год. Там такие суммы крутятся, что на фоне всего рынка похожи на погрешность. О каком поглощении или доминировании клауд гейминга идёт речь?
Cloud gaming services are growing as a potential alternative to consoles
19.	In recent years, cloud gaming has started to emerge as an alternative to gaming consoles and PCs. Unlike consoles and PCs, where gamers typically download and run games locally on their device, cloud gaming services
Потому что они аккуратно отодвинули 60ку от среднего сегмента к бичёвому, добавив 90-е версии. Цены только забыли изменить.
А так да, 1060 по критериям цена/качество настоящая легенда, семь лет у меня исправно запускала игры в крайне играбельном состоянии, никакая прошлая карта у меня так долго не жила
anorakee anorakee 22.11.202318:53 ответить ссылка 22.5
Ну нет, я точно помню, что 1060 на 6 гигов была крепким середняком
Эмм.. 650Ти, 750Ти, 1050Ти - вам напомнить, сколько этих карт было куплено? Надо ли говорить, что люди на них играли во все игры и не задумывались, что у них с "сегментом" что-то не так?..
60 был твёрдый мидл. 70 уже хай энд был и 80 топ энд.
Титаны - это энтузиаст-лвл, либо же для тех, кто хотел собрать одну машину и для работы и для гейминга.
Mjon Mjon 22.11.202320:03 ответить ссылка 11.7
Все он правильно расписал.
Титаны были продуктом для энтузиастов всегда.
30-50 серия это энтри уровень. 60-60ti - мид. 70-70ti - хай, и 80-80ti - топ. Титаны, они же 90 серия - энтузиаст уровень.
Так точно, нижний тогда был 3х гиговая версия и 1050.
Чиво? Ультрабюджет гейминг - 1050, для 1080 на средних брался 1050ti, а 1060 был, как раз, средним сегментом. Скачок цен между GTX1060 6GB и GTX1070 был уже достаточно заметным, как и разница в производительности. Ну, это если говорить про времена GTX10XX.
Mjon Mjon 22.11.202320:01 ответить ссылка 3.8
но была еще 1060 на 3 гб, и вот она была более доступной, я свою брал бу с гарантией в 1 18 году и тогда разрыв между 3 гб и 6 гб был ощутим
Справедливости ради, 250$ 2016ого года это около 320$ 2023его по покупательной способности. У доллара тоже инфляция есть. Но это не отменяет всратой стратегии 40 серии.
Toluk Toluk 22.11.202318:55 ответить ссылка -3.9
Ну, нвидию я конечно как компанию считаю теми еще говнарями, но, справедливости ради, - 40 серия это очередная смена парадигмы, точно так же как и 20 серия.
Как бы, двигаться то куда-то надо. Рассчитывать на новые более эффективные техпроцессы уже не особо приходится. А жаловаться на первое поколение новой технологии считаю не совсем уместно. Оно всегда недоработанное.
jorjio21 jorjio21 22.11.202319:03 ответить ссылка -1.7

Зачем ты года как уебан пишешь?

Ого!

> ты пока не сказал, я так и не понял что это был окончание. Я думал он удивляется, 2016, ого xD

справедливости ради 970ая была как 1060ая, а 980ая быстрее их обоих.
Tetrix Tetrix 23.11.202306:41 ответить ссылка -0.9
Сижу на 1660 (не super) пятый год и причин для обновления не вижу, мб если поменять fullHD моник на 2к-4к, но до тех пор, хз зачем
JSlevin JSlevin 22.11.202319:01 ответить ссылка -1.7
О, понимаемо. Сидел три года на такой же и радовался, пришлось продать из-за переезда. Теперь жду туманного светлого будущего, когда снова начну радоваться своей новенькой пока-не-знаю-чему.
зависит от игр. запусти любую новинку на свое 1660
БГ3 на 960 до сих пор выглядит отлично
На низких? С фср? Она отлично смотрится в 2к на ультре, а это и 3060 не вытягивает в 3 акте
3й акт в проц упирается, а не в видюху.
и дальше что? просадки есть не только там, просто там их видно лучше. Факт что 3060 не всегда игру вытягивает, в связке хоть с 5600 хоть с 12400. А тут чел с 960 говорит она у него летает.
Чел, пошаговая игра в 40 кадров на средне высоких, это более чем играбельно
это говно полное.
4k возможно 3060 и не вытягивает. 1080 и 1440 должна вывозить. В 1440p возможно придется играть высоких вместо ультра. С VRR монитором хоть 40 FPS там будет - какая разница? Игра пошаговая.
не вывозит она 1440р натив НИКАК. только в старых играх, типо ДАИ, ведьмака 3 без HD ремастера, фолаута 4 и тд
Ни в одной игре где есть длсс нет смысла юзать натив 2к и выше.
длсс качество выдает картинку как натив с сглаживанием, но при этом еще и фпс процентов на 30-50 накидывает.
игра работает на vega 8, да, в мыле, но работает. Так что тут зависит многое от ваших требований. Кому-то и апскейл с 720p в 30 фпс норм.
А ничего, что GTX1660 вышла в 2019? Какие пять лет?
Mjon Mjon 22.11.202320:05 ответить ссылка 0.3
Не пять лет, а пятый год. Это значит, что прошло всего четыре полных года. Держу в курсе
Та же хуйня. Покупал в 2021-м и кончал от каждой пройденной игры пока люди срались по поводу 30-й серии.
нуф эт факт. У меня 2060 с 2019года, пака похер, но и в такое фуфло как старфилд я и не играю, д и алан вейк чет пошел нахер... д и чет вообще невочто сыграть на досуге. О! Зато ситиес скайлайн на высоких прям хорошо.

Вообще если так посмотреть Робокоп без люменя топчик. Сайнцроу Киберпанк без мусорного длсс тож не плох. Д вообще если так глянуть все новые наработки инвидии или эпиков в топку бросить бы, но в некоторых проектах их даже выключить нельзя...
LinaMeyer LinaMeyer 22.11.202319:07 ответить ссылка -2.8
Я сейчас в MM7 играю на 3060, при том, что RDR2 непройденная лежит. Такой кайф. Так что нужно иногда вспоминать забытую классику прошлых веков (на самом деле всего-то 1999 год).
Ну, это уже буквально прошлое тысячелетие.
Wave Wave 22.11.202321:20 ответить ссылка 0.8
я так сменил несколько карт (1660 супер/6600 рыкса и теперь 3070), а третьи герои в формате хоты как лежали, так и лежат на диске
Там еще закон Мура есть - транзисторные тех. процессы к потолку приближаются, и тут уже никто ничего не поделает. Дальше либо квантовые, либо белково-углеродные ПК будут.

Да и армы свою лепту в торможение развития вносят. Маки и мобилки в разы больше ПК. А аппле всерьез заявили об вступлении на игровое поле.

Меня больше расстраивает ВР - вот это будущее и следующий шаг. Но че-то как-то косо и криво все идет. История свернула не туда, когда провалились разер гидра. Была бы промежуточная ступень вр-кнаклзов, но без вр, чтобы можно было без шлема играть - все бы это было популярней. Причем концепция-то жива - свичи от сыча по схожему принципу работает, но это же нинтендо.
А что не так с VR? Развивается потихоньку. Уже сейчас можно погружаться в виртуальную реальность с отслеживанием тела, рук, ног, мимики лица, направления взгляда. Да, картинка не как в реальности, но тут и воображение подключить можно.
Хл Аликс, внезапно, вышла три года назад. И до сих пор игр подобного уровня нет. Одни сплошные демки. Зато НО ВР - мод хорошо заходит.

Вальв где-то публично говорила, что надеялась, что Аликс популяризирует ВР, но этого не случилось.
Цены на шлемазлы не особо падают.
Я в теме с 2018 года. В то время комплект Vive стоил порядка 50к деревянных, ранее он стоил 70к. Я брал Vive Pro только шлем без ничего за порядка 800 евро. В 22 году я брал Pico 4 за меньше чем 20 к рублей на распродаже, сейчас он дороже стоит. Но всё равно VR стал доступней.
Пико 4 это китайская балалайка с вуйфуем.Посмотри цены на норм шлемы с дисплей порт.
Эта китайская балалайка выдаёт весьма качественную картинку по wifi и VD. А без провода это даже плюс. У меня есть шлем с DP, есть с чем сравнивать.
Охота если пережатую картинку смотреть-дело хозяйское.
Можно наваливать битрейт пока wifi позволяет и процессор справляется с декодированием. Это не суть важно, просто хотел сказать что есть доступный VR как Quest 2, Pico 4 с возможностью играть с ПК и без него. И это полноценный VR с отслеживанием в пространстве, полноценными контроллерами, специальным процессором, возможностью играть автономно и прочими фишками вроде отслеживания рук. И всё это за вменяемые деньги.
Кста,раз уж разговор про ВР пошел,ты пробовал 3д фильмы смотреть на нем? Если пробовал-то как впечатления?
Пробовал смотреть и 360 видео, и 3д и обычные. От обычного или 3д впечатление похуже чем в кино, ограничивает разрешение шлема. 360 странное впечатление, можно крутить головой вокруг, но кажется что всё натянуто на сферу. Чисто ради видео VR точно не стоит брать.
Ну как сказать, на момент выхода Alyx ВР уже был популярен в узких кругах: симуляторщиков, любителей социальных "метавселенных" типа VRChat и просто энтузиастов. По поводу игр скажу что выходят и качественные проекты, также некоторые игры можно играть в VR режиме (Elite, No Man's Sky, Payday 2, Phasmophobia и.т.д.) Да, действительно качественные ВР эксклюзивы можно по пальцам пересчитать, но я в этом не спец, в основном сижу в VRChat.
у меня как раз GTX 1060, 6Gb
посоветуйте что-то поновее для работы с нейронками
tooo tooo 22.11.202319:46 ответить ссылка -0.1
asus strix 3060.
3060 12гб.
Mjon Mjon 22.11.202320:21 ответить ссылка 2.4
Меня 4080 всем устраивает. Лучшее сочетание средней цены и топовой производительности. Я бы конечно хотел 4090Ти, но вообще не знаю нахрена она мне и откуда взять
" 4080"
"средней цены"
Hey you dropped this
7900 XTX :D
SHARK
RX 7900 XTX
20.76
10
15
Geometric Mean it/s - Higher is Better
¿S Puget Systems
20
25
Скромно предположу, что надо карту под нейронку брать, а не наоборот. И как обычно, уверен что бОльшая часть нейронок работает с CUDA, по этому карты AMD могут быть ограничивающим фактором.
если у нейронки открытые исходники - нейронка запустится на AMD

https://habr.com/ru/articles/701712/
ROCm очень припозднился и, хоть его наличие и даёт надежду на появление поддержки карт асж у ряда софтмэйкеров в некотором будущем, далеко не все юзеры и даже компании буду заморачиваться с попыткой пропускать код через транслятор и бить в бубен во имя полной совместимости. Даже если эта либа будет работать на ура, большинство отдаст предпочтение CUDA. Вам это говорит поклонник и пользователь продукции AMD с 2003 года. Жизнь учит объективно смотреть на вещи.
Сорри за очепятки, пишу с мобильного.
Посмотрите на прибыль нвидиа и вы поймёте что они то остались такими же как слева, а справа - пользователи
Купил себе rx 7800 xt с 16 гб vram и заебись
а вы дальше на 8 зеленых гигабайтах и лучах хуанга сидите
Rekrut Rekrut 22.11.202321:01 ответить ссылка 0.1
Проблем никаких не было? Я все чаше задумываюсь над покупкой амд, порекомендовали 6700xt, как оптимальную на сегодня цена/производительность, но часто натыкаюсь, что уледй проблемы с красными какие-то
6600 xt, 6750 xt, 7800 xt, никаких проблем ни с одной картой не было, если нужен только гейминг, на куртко-ускорители лучше вообще не смотреть, по цене крыла от боинга.
Прежде чем делать выбор, стоит сесть и подумать для чего ты будешь видюху юзать.

Если твой выбор только играть в игрули в нативном разрешении без рт - красные тебе подходят.

Если ты хочешь красивостей и адекватный апскейл тяжелых в играх, запись экрана с нормальным соотношением битрейт/качество, ускорение вычислений видюхой в софте, различные плюшки в виде всяких АИ шумодавов на микрофон и эффектов на вебку, и т.д. и т.п. - тебе к зеленым.
> запись экрана с нормальным соотношением битрейт/качество

что есть "нормальное соотношение"? и что не так с ReLive?
в режиме "last 5 minute" на 10 Mbps я крутил его еще на HD7850
и после переезда на GTX1080 c SD разницы как-то не ощутил

>адекватный апскейл тяжелых в играх

даже если поставить два монитора side-by-side с FSR и DLSS - ты едва ли отличишь одно от другого. В отличии от нативного разрешения

Во первых - на FullHD все апскейлеры говно. Тут согласен с видео.

А в разрешениях выше я хз куда вы смотрите, чтоб говорить что разницы нет... просто рандомно тыкнул пару кадров.

Следи за бутылкой на переднем плане и что с ней делает фср.


Я дикий гостинг вижу даже после ютубовского пережатия...
типа пропадающая бутылка лучше зернистой бутылки? ты серьёзно?
FHD RT ultra упроиз
DLSS RR
Более наглядные примеры для тебя записал.

Обрати внимание на контрастные предметы, волосы, тетиву, наконечники копья, само копье во время каста скила.

Если кратко: fsr хреново сглаживает и переусердствует с резкостью, а движущиеся контрастные объекты так вообще зубьями идут...

п.с. ну и это я у fsr даже не качество, а ультра-качество поставил...
я мотал видос, смотря на волосы, несколько
я сделал 2 скрина и вставил их в Krita
я располовинил их и поставил side-by-side
я смотрел на полученную скрин-склейку с увеличением в 300%
и я всё еще не могу сказать, что одна половина лучше другой половины

и мне было бы очень интересно узнать - а уважаемые пидоры смогут сказать где какая технология не смотря видос?
РАЗБЙТОР
СВЯТИЛИЩЕ
хГ274У:-27'*
Общие
Паладин Предметы Пассивы 11о выбору
Смотреть позже Поделиться
5
или

Ь	1/45? *>
4«51Л Й
5*	-'чад I #

\ • "***»
гщ
В С° УоиТиЬе

11 23 22 05 29
У тебя HD монитор чтоли?
у меня православный 5:4, т.к. мои 50" не влезали в трактор и остались на эрэфии

но к вопросу это отношение не имеет, т.к. в криту вставлялись qhd-скрины
Значит шото с глазами...
https://imgur.com/UnhNYsJ
https://imgur.com/uJmlpwp
даже на твоих скринах с максимальным приближением бросается в глаза только иная текстура синего копья - на остальные отличия вообще насрать

а учитывая что обычно в балде камера находится сильно сверху - и на синее копьё тоже будет насрать
Пиздец бро... ладно, хер с тобой, если ты текстуру от херового сглаживания отличить не в состоянии, я думаю тебе в принципе пофиг каким апскейлером пользоваться.
я бы сказал, что они оба хуёвые и выключил бы обоих
чего и тебе желаю ;)
была 6600 не ХТ и в целом соглашусь с jorjio21, что "стоит сесть и подумать для чего ты будешь видюху юзать", если рассматривать чисто растровый гейминг, без доп фишек, то 6700ХТ - неплохой вариант за свои деньги.
Но, если ты, например как я, захочешь погенерить картинок на своём компе, то заметишь, что красные справляются с этим гораздо хуже (по крайней мере так было в последний раз, когда я пробовал),
Если захочешь поиграть в какой-нибудь мод от энтузиаста, возраждающий старую классику, как апример РТ ХаЛва/Квейк от СултимаТ


то увидишь, что на красных их изначально вообще не запустить (поддержку рыкс добавили со временем), а когда запустишь, то фепесов, естественно будет меньше и играть придётся с меньшим разрешением.
Также, что касается DLSS VS FSR - то длсс, на моём 2к монике выдаёт результат лучше чем фср, я бы сказал, что длсс на ступень ниже всё-равно выглядит чуть лучше, чем фср (т.е. допустим длсс на "производительности" будет давать чуть лучшую или схожую с "сбалансированным" пресетом ФСР картинку), но тут уж, наверное, больше от моника/остроты зрения зависит, например в Метро Исход и Киберпанке я спокойно могу даже играть с ДЛСС на "производительности", чисто чтобы видяха не сильно грелась т.к. корпус в ногах стоит и при этом мыло хоть и будет заметно ,но не будет столь уж критичным.

Также у красных всё-же есть проблемы с драйверами (чего только стоит недавняя история с баном игроков в КС просто из-за наличия последних драйверов), лично проблемы с которыми я сталкивался:
1) отсутствие перевода некоторых пунктов меню (изначально винда скачала и поставила старые драйвера в которых некоторые названия, тупо были оставлены на английском, после обновления дров в ручную на более новые перевод уже был),
2) проблемы с некоторыми играми при активации некоторых функции - в меню дров активировал то-ли AntiLag, то ли LowLatency (точно название не помню, короче, насколько я понял аналог Reflex) и благополучно забыл про него и вот, после установки 4-го фолыча обнаружил что фепес скачет как ненормальный и порой дропается чуть-ли не ниже 20, уже и настройки менял и 720р ставил, один фиг идешь по дороге вроде всё норм - 60 кадров, через 5 метров дропы, и решил я таки полазить в меню ReLive и о, чудо,путём перебора оказалось пункт, который по идее должен был "снижать задержку и улучшать игровой опыт" ломал этот опыт через колено.
3) запись через РеЛив у меня всё-равно оставляла ощущение что картинка в видео файле выдаётся не та, что я вижу на монике, а чуть более мыльная, даже если выставлять сумасшедший битрейт типа 60 или даже 90, а всё-равно запись как будто в 1080р делалась, хотя я даже выставлял 4К в настройках РеЛива - один фиг от 2К, на мой взгляд, не особо отличалось (но было это скорее из-за того, что сам файл якобы писался в 4К, но в игре один фиг разрешение рендерера 2К оставалось), могу даже ссылки на тестовые видосы скинуть, если интересно, может это мне только кажется что картинка на 2К не тянет - хз.
Я тоже купил себе 7800xt за 52к с озона гигабайтовскую версию на 3 вертушки.
Но мне грамотно сказали, что надо было скорее всего брать 6800xt, она ту же производительность выдает но за 42к
Tetrix Tetrix 23.11.202306:58 ответить ссылка 0.0
все фичи fsr3 доступны только на rdna3.
другое дело, что если ты купил radeon - тебе вероятно похуй на fsr...
1060 это разрешение 1920х1080. и видяха 3060 даёт с норм скоростью только это разрешение. зачем апгрейдиться?
6гиговая 1060 слабее чем 980, откуда вывод что они равны? про 3060 и 4060 так там вообще разница 15-20%
проблема 4060 в том, что есть куча видях 30-й серии и 6000-х рыкс после волны майнинга по довольно привлекательным ценам, что Нвидия решила игнорировать
я вот подумал отчего разрабы забили на оптимизацию игр? потому что технологии и стандарты не устоялись. пока оптимизируешь под одно - куртка выпустит не из хуя а из жопы другие лучи и полетите вы со своей оптимизацией в пизду. да и последние несколько лет картинка субъективно лучше не становится - с лупой надо высматривать разницу и сравнивая с такой же картинкой но без фичи. картинке есть куда рости - текстуры детальнее, больше объектов интерактивных, более интерактивный мир... но все спускают деньги и время на пидорские лучи
ну ХЗ, если у разрабов руки из жопы, то они конечно и лучи обосрут, а вот если люди знают что делают, то получается охуенный результат типа как в Метро:Исход или модах от Sultim_t
метро исход это уже давно готовая игра и отлаженая. с её выхода железо прокачалось и на этот задел сделали добавку по графонию. а вот когда игру начинают с нуля то выйдет она через 2-3 года. и хз какая технология победит к тому моменту. вот сделали они оптимизацию под залупные лучи, а к выходу игры победили жопные лучи. если игра стартовала давно то она вообще может изначально затачивалась под 2060 а остальные навороты там на костылях приделаны. когда бурление говнотрейсинга и добавочных кадров устоится и войдёт в норм русло тогда начнут подвозить оптимизацию. и то с поправкой на цикл разработки игры
проблема в том, что оптимизация и отлов багов - довольно долгий и тяжёлый процесс, который может тянуть за собой очень большие изменения в проекте.

в то же время, владельцы/инвесторы студий очень хотели бы, чтобы игра вышла уже вчера.

поэтому "наша игра выдаёт 1080p30 на ps5? отлично - выкатываем в релиз"

касается не только игр, но и всего ебучего IT
если игра не имеет проблеска и уныла они поймут ещё на фокус-группах и дадут маркетоидам денег, маркетоиды дадут денег журнашлюхам и блогошлюхам - прокатывает уже много лет. проблема остального ит - перегруз не основными функциями, телеметрией и прочей пидорастией. в итоге проблема в том что юзер не голосует рублём чётко и ясно так чтобы маркетоида владельцы на кактус без смазки насадили за вмешательство в проэкт
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
GffVIGABYM My confidence level
Chat
Call
J Video Call Real meet 
GAYFORCE V
«> «
ПУЮ1А
Я на похер залочу драйвера на ятхЗОбО так, чтобы на моих видяхах не майнили, а играли Пека-бояре
маинеры
кто-нибудь взломайте пжлст я купимл 10 штук мне кредит почкой или натурой омдвать
подробнее»

Doge Lore Мемы,Мемосы, мемасы, мемосики, мемесы Майнеры RTX 3060 nvidia

V «> « ПУЮ1А Я на похер залочу драйвера на ятхЗОбО так, чтобы на моих видяхах не майнили, а играли Пека-бояре маинеры кто-нибудь взломайте пжлст я купимл 10 штук мне кредит почкой или натурой омдвать