Exhibit 1:12-inch Wafer Prices by Nodes in Leading Foundries (*), 2020-2022
5nm
(*) Sub-10nm: TSMC
12-28nm: TSMC. Samsung
40-90nm: TSMC. Samsung. UMC. GF. SMIC
5%
*
7nm 12/16nm 22V28nm 40/45nm 55/65nm 90nm
■ 2020 average ■ 2021 average ■ 2022 average
Два, они активно ебошут всякие процессоры для машинного обучения и пр штуки которые для корпоративных клиентов.
Три, рынок центральных процессоров плотно занят, как для пк так и для мобильных устройств, залезть в него можно только купив контору которая уже давно на рынке.
AMD штампует и то, и другое. В чём-то даже успешнее конкурентов.
Ну и еще гвоздь в крышку. Зачем им создавать самим себе конкурента? Универсальный проц? который сочетает в себе мощь и современных видях и мощь современных процессоров? Т.е. видяха уже не нужна? Ну и да, представляю теплопакет такой херни) Впрочем интел вроде в паре с амуде такую штуку для ноутов запилили из проца интел и чипа веги или чего то там.
Ну и самое главное, если верить нвидиа то основное их направление это корпоративные клиенты, и их видяхи для простых человеков это так, просто потому что кто то же должен. А в корпоративном сегменте такой проц нахуй не нужен, ибо интел со встройкой на офисных пеканях за глаза справляется со всем.
В целом ситуация понятна.
Интел и АМД развиваются в двух направлениях, а Нвидиа - в одном. Только высокие цены и лояльность пользователей их спасает.
На самом деле я не помню работает ли интел и амд в этом же направлении (3), но вроде бы нет.
Ну и получается что нвидиа работает в не освоенном прочими крупными конторами направлении, уход от конкуренции с китами в перспективную и динамично развивающуюся область это более умный и перспективный шаг чем попытка зайти на перенасыщенный рынок который уже поделили.
И да, графика от Интел это конечно хорошо, больше игроков, больше конкуренции и ниже цены, но это ПИЗДЕЦ какой риск так то...
https://3dnews.ru/959077
В то время как на ПЦ до сих пор больше всего ценится именно охуенный конвейер и производительность одного потока.
Вопрос в том, а кому оно нужно?
У них немалый рынок, к примеру, мобильных процессоров:
Tegra 2 (двухъядерный мобильный процессор)
Tegra 3 (четырехъядерный мобильный процессор)
вот только стоимость устройств далеко не маленькая, даже есть флагманские "игровые решения" которые вроде как заходят но в тоже время вменяемые люди покупают устройства на процессорах привычных для миллионов китайских телефонов в разы дешевле.
Даже нетбуки на их процессорах пытались делать https://www.notebookcheck-ru.com/Acer-Chromebook-13-CB5-311-T9B0.127858.0.html
Ты б взял его за 300 евро? Я нет, я б что-то на базе интела взял и не парил себе мозги, что что-то не заведется с ПО.
А теперь попробуй перевести это в масштабы десктопного ПК, из-за низкого спроса цена будет не целесообразная для рядового пользователя который покупает ПК на 5-10 лет.
nvidia может конечно купить лицензию на x86/64 нассать в уши акционерам, что мы, бля, сможем. Проебаться пару лет на полировке архитектуры и родить 10киловатную кафельную плитку о 10000 ядер которая, вполне вероятно, будет в одиночку уделывать 42 юнитовую стойку xeon platinum. Но каждое ядро из этих 10000 будет на уровне atom 1.0Ghz, т.е. да, заебись, оно даже работает, но в домашку его не воткнешь как есть, а если порезать на кусочки и оно даже совсем не будет греться - да кому оно нахуй дома нужно, т.к. получится Via C3. Энергоэффективность это хорошо. Масштабируемость тоже, но в домашних сценариях на это срать абсолютно, т.к. нужна максимальная однопоточная производительность.
Ситуацию сможет спасти только переселение на марс 10,000 инженеров, где нарушится связь с землей и у них окажется случайно с собой завод по производству и упаковке микросхем (и совсем заебись, если еще и микстура вечной жизни). Вот когда они психанут и скажут - нахуй ваше x86/64 мы построим свой пакет команд и свои сетевый протоколы сразу заложив в них парраллельность - вот тогда будет заебись. А пока придется жить в ситуации, где у тебя десяток стоек считают поведение пыли при ядерном взрыве в реальном времени, но дома у тебя почти не тормозит рейд в вовке на 20 человек, так-же сильно, как торговая площадь с 15 АФК игроками.
Почитать про это можно на любом сайте датированный 2010 годом.
Если денег на новое нет вообще (ну всякое бывает) попробуй найти хоть немножко и в зависимости от того, какая материнка действуй так:
- есть мать полная фигня (брендовая - hp / lenovo / dell) гуглишь наименование своего компа с добавкой pdf - по ней ты найдешь спеку со всеми конфигурациями и максимально-поддерживаемый камень. Запоминаешь. затем гуглишь свою-же систему дописывая к ней Xeon x3450, x3470, x3480 и читаешь зарубежные форумы, у кого с каким биосом заводилось-ли. Если xeon заводятся, радостно бежишь заказывать на что денег не жалко (сейчас за 2т.р. можно разжиться x3470. 3440 брать смысла нет, ты его не разгонешь, а скорость у него унылая). Если с xeon система не дружит вообще - душишь жабу и заказываешь на ali i7-870/i7-860.
Если мать китайская / просто "дешевая" в контексте не внушающая своим видом хоть какой-то уровень мощи и намека на разгон - покупаешь x3470.
Если мать представляет из себя, что-то нормальное, с радиаторами на мосфетах и 8 контактной колодкой питания камня: берешь x3450 и гонишь его до упора. Второй шаг при последнем случае материнки: ищешь серверную регистровую оперативку 4х гиговыми плашками, чтоб чипы памяти были с двух сторон, или доебываешься до продавца, что тебе нужна сугубо DDR3 Reg 4GB Dual Rank 1600/1866Mhz (только дуал ранговая) и хуячишь их сразу кол-во в 4шт (с уже установленной мешать нельзя). У тебя за очень дешево набирается 16 гигов оперативы по цене 3т.р. (работает только на гигах / асусах, на китае и вендорных не работает).
Второй вариант предусматривающий меньше ебли и больше производительности: продавать связку мать + процессор. Покупать материнку на 1155 и камушек e3-1230.
*самовоспламенился*
И всё это в простонародье люди называют "потянет" или "не потянет"
Так что есть
если производительности процессора игре не хватает, то похуй какая у тебя видяха.
Если поставить видяху более нового поколения чем проц, то она просто не будет воспринята компом. Как было у меня с GTX970 и i7 2600. Тоже какой-то уёбок мне посоветовал, что нет такого понятия "не потянет".
GTX970 какое покаление? 9? А VooDoo какое было? -4? RTX2080 покаление 20?, а 11,12,13,14,15,17,18,19 куда проебались? Что-ты за хуйню порешь?
У тебя 2600 и 970 на заработало? А у меня 2600 и 980 работали в паре, и 2600 + 1070 работают, и 2080 туда-же вставала без всяких бубнов.
Все работает.
А то что видюха поломана, до тебя не дошло?
32 нм с 12 нм?
Обман да?
Херню пишешь, не пиши такое больше идиот.
Засмеют.
Если у тебя нет аппаратной базы и ты не знаешь как определить на чем стопорится система, берешь свое железо, ищешь ближайший радиорынок и топаешь туда с печальным взглядом и проблемой: ононеработаитвсевместеаотдельноработаит.
Какое нахуй несовпадение БИОСА и техпроцесса? еще раз пройди курс программиста, ты по прежнему нихуя непонимаешь как одно к другому и что с чем.
Процессору целиком и полностью насрать своим техпроцессом на техпроцесс видеокарты. Видеокарте абсолютно насрать своим техпроцессом на версию БИОСа материнки. БИОСу видеокарты насрать сразу на техпроцесс процессора, версию биоса материнки и техпроцесс чипа видеокарты.
Единственные более-менее актуальные варианты, почему 970 посылала нахуй все остальное: 2600 был ES из первых ревизий, где кол-во линий pci-e плавало от 1 до 8 в зависимости от уровня влажности марса пока он находится в весах, ахуенного качества блок питания, пердящий в окружающие пространство наводками по всем линиям и китайский-же роутер по уровню излучения попадающий в категорию РЭБ малой мощности. В этом случае у тебя да, видеокарта на своих pci-e3.0x16 не могла найти общий язык со всем остальным сидя на pci-e2.0x1.
2600 адекватно вытягивает все уровнем до GTX2080 включительно.
Вот тебе наглядный пример 2600+970.
Что было то ?
Просто такой пиздеж первый раз вижу.
А вот у друга забавная ситуёвина, похожая на твою - I7 К-серия на чуть более апнутой микроаркитектуре Haswell - так вот ему, как раз, пришлось знатно поебаться пол ночи, чтобы заставить работать свою 970ПЕЧ в связке с Хасвеллом. Пришлось с бубнами из под доса *привет, 90-е!, перепрошивать биос проца и самой видюхи.
Так что могу предположить, что у тебя I7 К-серии на Haswell-е. И хер его знает, почему на более древней микроархитектуре SB нет таких проблем, какие есть у Haswell.
Мобильный i7-2670QM + GTX760 192bit.
Для DooM вполне хватает, Bioshock Infinite вообще на максималках с 60 фпс.
В общем, это как пытаться заменить javascript на что-нибудь менее тяжелое и хитровыебанное.
2. Стандартизация. Документация на ARM фиксирует только ядро и минимальный набор интерфейсов - питание, кэш, менеджер памяти, контроллер прерываний и интерфейсы для отладки. Контроллер внешней памяти? По усмотрению производителя. Контроллеры внешних интерфейсов вроде PCI-E или SATA? По усмотрению производителя. Логика загрузки ОС? По усмотрению производителя. И даже никакого стандартизированного HAL'а для облегчения портируемости кода между всем зоопарком различных реализаций.
Мол видеокарта может потянуть движок намного мощнее чем проц.
ПРОЦ AMD Athlon 64 x2 4600+ 2.40 GHz
МАМКА Gigabyte GA-MA74GM-S2 первейшей ревизии
ОПЕРА DDR2 4Gb
GTX 1050 2gb
HDD 1tb (930gb)
Походу мой проц не раскрывает видюху :D
Nier:Automata шла без каких либо косяков
c NieR: Automata было тяжковато