Шейдеры: как маленькая игровая технология породила искусственный интеллект и сделала NVIDIA триллионной корпорацией

Как шейдеры из игр привели к революции ИИ: история эволюции видеокарт от фиксированного конвейера до CUDA и триллионной капитализации NVIDIA.
Павел Ельцов 28 февраля 2026 в 06:52

На заре компьютерных игр каждый новый релиз казался визуальной революцией. Графика развивалась стремительно, однако, положа руку на сердце, ей было куда расти. Достаточно вспомнить Лару Крофт из первых частей Tomb Raider — её угловатые формы, составленные из крупных полигонов, скорее напоминали геометрические фигуры, нежели живого персонажа.

 

Но в начале двухтысячных произошёл перелом. Появилась технология, которая кардинально преобразила графику в играх. Персонажи перестали выглядеть как фигурки оригами, картинка стала всё больше приближаться к реальности, а каждый новый релиз вызывал восторг у игроков.

Однако никто не мог предположить, что эта, казалось бы, небольшая инновация, задуманная исключительно ради красивой картинки, изменит вектор развития целой индустрии и в конечном счёте приведёт к новой промышленной революции, в которой искусственный интеллект постепенно начинает вытеснять человека.

Эта технология — шейдеры.

В этой статье речь пойдёт о том, как динозавры вдохновили Valve на создание Half-Life 2, каким образом видеоускорители превратились в процессоры и породили искусственный интеллект, а компания NVIDIA стала одной из самых дорогих корпораций в мире.

Междоусобные войны видеокарт

Девяностые годы. Рынок компьютерных игр представлял собой неизведанные территории, подобные ещё не открытой карте в стратегии Warcraft. По этим территориям рыскали «войска» графических компаний — небольших фирм, соревновавшихся за право диктовать свои условия.

Самой могущественной силой того времени была 3dfx Interactive. Её графические акселераторы Voodoo и закрытый программный интерфейс Glide преображали игры до неузнаваемости. Владельцы этих карт наслаждались невиданным качеством графики, а все остальные могли лишь завидовать.

Главным соперником 3dfx выступала молодая и агрессивная NVIDIA. Она наносила удар за ударом — чипами RIVA 128 и RIVA TNT, — постепенно отвоёвывая долю рынка.

За спинами лидеров набирала силы ATI (будущая AMD) с линейкой карт 3D Rage. В корпоративном сегменте компания уже чувствовала себя уверенно, однако в игровом пространстве пока отставала, делая ставку на мультимедийные возможности и аппаратное декодирование видео.

На горизонте маячили и менее успешные игроки: S3 Graphics и Matrox.

Каждый производитель строил собственную империю за стенами проприетарных стандартов и не желал договариваться с конкурентами. Разные архитектуры, закрытые программные интерфейсы — игры, прекрасно работавшие на одном железе, отказывались запускаться на другом без мучительных танцев с бубном. Царили хаос и фрагментация.

Но недавно утвердившийся на технологическом троне Microsoft решил навести порядок. Корпорация замыслила загнать всех производителей в единый стандарт — DirectX. Впрочем, сделать это оказалось значительно сложнее, чем представлялось.

Гонка архитектур

В первые годы DirectX развивался семимильными шагами. Microsoft выпускала версию за версией, внедряя все передовые технологии того времени. К седьмой версии DirectX уже уверенно превосходил главного конкурента — OpenGL. Однако, несмотря на бешеный темп обновлений, стандарт всё равно не поспевал за рынком. И дело было не в OpenGL, а в производителях железа.

Видеокарты того времени, строго говоря, ещё не были видеокартами в современном понимании. Их даже называли иначе — графическими ускорителями, или акселераторами.

Эти ускорители работали по так называемому фиксированному конвейеру (fixed-function pipeline). Что это означало на практике?

Вся графика прогонялась через специализированные аппаратные блоки, функции которых были буквально «вшиты» в железо. Разработчики могли пользоваться готовыми инструментами, но не имели возможности менять их поведение по своему усмотрению.

По сути, видеокарта работала как волшебная коробочка со встроенным рецептом. Загружаешь в неё игру — она щедро посыпает её фирменным набором графических «специй», и картинка преображается. Нравится результат — прекрасно. Не нравится — что ж, приобретай новую видеокарту с другим набором «специй», на свой вкус.

Производителям такой расклад был на руку: разница между моделями была очевидной, а значит, продавать их было проще.

Игроков тоже всё устраивало — фиксированный конвейер работал стабильно и выдавал высокую частоту кадров.

А разработчики? Разумеется, подобный подход ограничивал творческие возможности, зато существенно ускорял процесс создания игр. Эффекты не требовалось писать вручную — они уже были заложены в аппаратуру. Достаточно было просто добавить их поддержку в свой проект.

Однако для Microsoft это оборачивалось настоящим кошмаром. Каждую новую аппаратную «особенность» приходилось экстренно добавлять в DirectX, подстраиваясь под рынок видеокарт. А диктовать свои условия, когда ты вынужден лишь догонять спецификации производителей, попросту невозможно.

Казалось, выхода не было. Или казалось, что не было — до тех пор, пока в команду DirectX не пришёл новый человек. Он заявил: «Так работать невозможно!» — и предложил революционную идею, изменившую вектор развития всей индустрии.

Физически корректный провал

Этим человеком был Джонатан «Шеймус» Блэкли — впоследствии известный как один из «отцов» игровой консоли Xbox. Личность разносторонняя: физик по образованию, разработчик игр по призванию и киношник по стечению обстоятельств.

В Microsoft он занимался унификацией драйверов для промышленных и потребительских трёхмерных ускорителей. Блэкли прекрасно понимал: главная преграда на пути стандартизации — фиксированный конвейер с его бесконечным калейдоскопом аппаратных «особенностей».

Но если Microsoft страдала от хаоса в стандартах, то разработчики игр мучились от ограничений самих видеокарт. И Блэкли знал об этом не понаслышке.

До прихода в Microsoft он работал в DreamWorks Interactive — игровом подразделении студии DreamWorks, где создавал физический движок для игры Trespasser, основанной на вселенной «Парка юрского периода».

Физический движок Trespasser был настоящей революцией для своего времени. Физика в игре поражала воображение: предметы можно было поднимать, бросать, расстреливать, а шкала здоровья персонажа отображалась в виде татуировки сердца на груди главной героини — решение, мягко говоря, спорное с точки зрения дизайна, но в те годы это казалось новаторством.

Именно этот физический движок впоследствии вдохновил студию Valve на создание Half-Life 2, а позднее — на разработку Half-Life: Alyx.

Сегодня Trespasser считается культовым проектом, однако в 1998 году игра с треском провалилась. Причина заключалась в ужасном техническом состоянии: спешка, чрезмерные амбиции и, разумеется, ограничения фиксированного конвейера, который попросту не позволял реализовать задуманное.

Но какие же были альтернативы? Ответ пришёл из мира большого кино — а точнее, из области трёхмерной анимации.

История других игрушек

Как человек из мира трёхмерной графики и кинематографа, Шеймус Блэкли, разумеется, знал о достижениях студии Pixar.

В те годы мультфильмы Pixar совершили нечто невообразимое. Никто и представить не мог, что компьютерная графика способна выглядеть настолько правдоподобно. Но каким образом студия этого добилась?

Секрет заключался в одном элегантном приёме. Чтобы цифровые объекты выглядели убедительно, их поверхности должны были корректно взаимодействовать со светом. Глянцевый пластик обязан блестеть, ткань — быть матовой и фактурной, а дерево — сохранять характерный рисунок волокон.

Поэтому для каждого вида поверхностей в Pixar написали специальные программы, описывающие, как именно свет должен с ними взаимодействовать: отражаться, рассеиваться, поглощаться. Эти программы получили название шейдеры — буквально «затенители» (от английского shade — «затенять»).

Шейдеры творили настоящее волшебство. Без них изображение выглядело плоским и искусственным, но стоило их применить — и сцена оживала.

Казалось бы, почему бы не перенести эту технологию в игры? Однако на пути стояли два серьёзных препятствия.

Во-первых, шейдеры требовали огромных вычислительных мощностей. В кинематографе один кадр мог рендериться часами или даже сутками на серверных кластерах стоимостью в миллионы долларов. В играх же каждый кадр должен формироваться за считанные миллисекунды — и не на суперкомпьютере, а на обычном домашнем компьютере.

Во-вторых, Pixar рендерил свои фильмы на центральном процессоре (CPU). Шейдеры — это программы, а для выполнения программ требуется полноценный процессор, а не специализированное устройство для ускорения отрисовки пикселей. Видеокарты с фиксированным конвейером не умели выполнять произвольный код — они лишь пропускали изображение через жёстко заданные аппаратные блоки.

Прорыв в железе

Иными словами, чтобы адаптировать технологию шейдеров для игр, необходимо было решить две задачи.

Первая — переписать значительную часть программного интерфейса DirectX. Задача сложная, но выполнимая.

Вторая, и главная, — убедить производителей видеокарт изменить саму архитектуру своего железа.

Фиксированный конвейер состоял из множества аппаратных блоков, каждый из которых выполнял строго определённую функцию. Маркетологи были в восторге от такого положения дел: «Посмотрите, у нас туман гуще, чем у конкурентов, фильтрация не билинейная, а трилинейная, а какие сглаженные края!»

Теперь же требовалось отказаться от всех этих уникальных торговых предложений и заменить специализированные блоки универсальными вычислительными ядрами, которые подчиняются не производителю, а исполняют код, написанный разработчиками игр.

Задача, мягко говоря, непростая. Но Блэкли помогла сила убеждения.

Сначала он убедил Microsoft. Программируемые шейдеры — это будущее. А кто задаст стандарт, тот и будет это будущее контролировать. Microsoft согласилась.

Затем он убедил производителей. И первой на новый путь встала NVIDIA.

Рождение GPU

В компании уже осознавали перспективность этой идеи. В 1999 году вышел GeForce 256 — первый продукт в линейке GeForce и, по утверждению самой NVIDIA, первый в мире GPU (Graphics Processing Unit) — графический процессор.

Впрочем, по существу, это был в значительной мере маркетинговый ход. Видеокарта по-прежнему использовала фиксированный конвейер. Единственным подлинным новшеством стала аппаратная поддержка T&L (Transform & Lighting) — обработка геометрии и освещения силами видеокарты, а не центрального процессора.

Тем не менее эксперимент удался. Выяснилось, что видеокарта справляется с подобными вычислениями значительно быстрее, чем CPU.

Риски были огромными. NVIDIA не горела желанием отказываться от своих наработок, однако выбора не оставалось. В те годы Дженсен Хуанг возглавлял сравнительно небольшую компанию, тогда как Microsoft была абсолютным монополистом. Бросить вызов «королю» означало выстрелить себе в ногу.

Поэтому NVIDIA приняла условия — и не прогадала.

В ноябре 2000 года вышел DirectX 8 с поддержкой вершинных и пиксельных шейдеров. Вслед за ним появилась GeForce 3 — первая видеокарта с программируемым конвейером и поддержкой нового программного интерфейса.

Фиксированный конвейер ушёл в историю, а вместе с ним — и компании, которые не успели перестроиться: 3dfx, S3, Matrox.

Графические ускорители уступили место графическим процессорам. Игровая индустрия вступила в свой золотой век.

Золотой век игр

С появлением шейдеров разработчики обрели долгожданную творческую свободу. Игры преобразились, а технологические шедевры посыпались один за другим.

Doom 3 — с его динамическим освещением и тенями, которые впечатляли настолько, что игроки буквально замирали перед монитором от ужаса и восторга.

Half-Life 2 — с реалистичной физикой, вдохновлённой опытом Trespasser и доведённой до совершенства.

И, разумеется, главная технологическая демонстрация десятилетия — Crysis. В этой игре шейдеры использовались повсюду: динамическое освещение, объёмные тени, реалистичная вода, невероятная детализация окружения. Ни один персональный компьютер того времени не мог запустить Crysis на максимальных настройках — но как же великолепно эта игра выглядела даже при скромной производительности.

Однако главное значение шейдеров заключалось не только в творческой свободе для разработчиков. Они раскрыли подлинный потенциал видеокарт — потенциал, который выходил далеко за рамки игровой индустрии.

«Неприлично» параллельный

Итак, известно, что игры быстрее работают на видеокарте, нежели на центральном процессоре. Но почему?

Дело в архитектуре.

CPU — это, образно говоря, высокоинтеллектуальные исполнители, но с очень строгими правилами работы. Они спроектированы для выполнения задач последовательно. Процессор обрабатывает инструкции одну за другой с высочайшей скоростью, однако строго в заданном порядке.

Можно запустить множество программ, и будет казаться, что они работают одновременно. В действительности процессор попросту молниеносно переключается между ними.

Этот тип вычислений чаще всего называют MIMD (Multiple Instruction, Multiple Data) — «много инструкций, много данных».

Участь процессора незавидна: стоит выполнить какую-либо операцию не в той последовательности — и программа рухнет. Поэтому, если задача сложная, нередко лучше, чтобы она выполнялась на одном ядре. А если возникает желание задействовать все ядра, приходится явным образом распараллеливать код.

Вот почему замена четырёхъядерного процессора на восьмиядерный далеко не всегда даёт ощутимый прирост производительности в отдельных задачах или играх. Приложение должно уметь работать с многопоточностью, а для этого необходимо специальным образом переписывать код.

Совсем иная картина складывается с видеокартой. Стоит заменить её на более мощную — и частота кадров в игре немедленно возрастает. Никаких дополнительных усилий со стороны программистов не требуется.

Причина в том, что у GPU массово-параллельная архитектура. Её также обозначают терминами SIMD (Single Instruction, Multiple Data) или SIMT (Single Instruction, Multiple Threads) — буквально: «одна инструкция — много данных». Видеокарте не нужно заботиться об очерёдности операций — она просто обсчитывает миллионы пикселей одновременно. Какой пиксель обработать первым, какой последним — не столь существенно.

У подобных задач существует даже специальный термин: embarrassingly parallel, что можно перевести как «чрезвычайно параллельные», хотя буквальный перевод — «неприлично параллельные» — пожалуй, точнее передаёт суть.

До появления шейдеров этот колоссальный потенциал видеокарт был заперт внутри фиксированного конвейера. Вычисления могли вестись лишь в рамках одного специализированного блока.

Шейдеры сняли все ограничения. И внезапно выяснилось, что видеокарты — это, по существу, суперкомпьютеры. А использовать их исключительно для игр — как минимум расточительно.

GPGPU: когда видеокарта стала суперкомпьютером

Постепенно видеокарты превращались в вычислительных монстров — сначала с сотнями, а затем и с тысячами ядер. (Для сравнения: новейшая NVIDIA GeForce RTX 5090, анонсированная в начале 2025 года, содержит 21 760 ядер CUDA, тензорные ядра пятого поколения с производительностью 3 352 AI TOPS и ядра для трассировки лучей четвёртого поколения.) Однако применение этих мощностей по-прежнему ограничивалось играми: шейдеры просто не предназначались для иных задач.

Впрочем, это не останавливало наиболее изобретательных учёных.

Под видом текстур они загружали в видеопамять расчёты молекул, финансовые модели, физические симуляции и прочие научные вычисления. Этот метод получил название GPGPU — General-Purpose computing on GPU, то есть «универсальные вычисления на графическом процессоре».

Одним из таких проектов стал BrookGPU, разработанный студентами Стэнфордского университета. В 2003 году они проводили поразительные эксперименты: просчитывали на видеокартах огромные массивы данных в виде параллельных потоков.

Всё это работало через сложнейшие обходные конструкции и многоуровневые абстракции над DirectX и OpenGL. Но даже в таких стеснённых условиях обнаружилось, что некоторые операции — например, сегментация изображений или трассировка лучей — выполняются на GPU до семи раз быстрее, чем на CPU.

В NVIDIA, разумеется, заметили, что их оборудование используют не по прямому назначению. Однако вместо того чтобы пресечь эту деятельность, компания решила поддержать инициативных исследователей — и, будем откровенны, позаимствовать ряд их идей.

Компания наняла ведущего разработчика BrookGPU — Яна Бака (впоследствии занявшего должность вице-президента подразделения Accelerated Computing в NVIDIA). Под его руководством в 2006 году появилась платформа CUDA (Compute Unified Device Architecture) — набор инструментов для разработчиков, который наконец позволил запускать на видеокартах произвольный программный код без каких-либо обходных решений.

Этот шаг принёс NVIDIA триллионы долларов.

Одна за другой появлялись новые библиотеки и инструменты: OpenCL, TensorFlow, вычислительные шейдеры (Compute Shaders). Исследователи и инженеры по всему миру осваивали вычисления на GPU. И в определённый момент мир словно перевернулся.

Блокчейн, майнинг криптовалют, нейронные сети, NFT — каждая новая волна технологического ажиотажа усиливала спрос на графические процессоры. Сначала все бросились добывать криптовалюту, затем хлынула волна глубокого обучения нейронных сетей. Цены на видеокарты взлетели до небес, начался жестокий дефицит чипов.

А кто оказался на вершине этой новой реальности? Разумеется, NVIDIA. По состоянию на 2025 год рыночная капитализация компании превышает 3 триллиона долларов, что делает её одной из самых дорогих корпораций в мире.

По существу, видеокарты сегодня достаются всем — дата-центрам, исследовательским лабораториям, майнерам, — но только не тем, для кого они создавались изначально: игрокам. «Вы обещали нам красивую графику, а подсунули Скайнет», — иронизируют геймеры в интернете.

И в самом деле: когда стоимость топовых видеокарт, таких как NVIDIA GeForce RTX 5080, достигает шестизначных сумм в рублях, невольно задумываешься — до игр ли тут, если за те же деньги можно развернуть локальную нейросеть?

Впрочем, искусственный интеллект, судя по всему, ждать не намерен.

Из виртуального мира — в реальный

Подобно Нео из «Матрицы», осознавшему, что он способен изменять мир по своему желанию, шейдеры — сначала преобразив виртуальную реальность игр — теперь переписывают правила в мире реальном.

Большие языковые модели, системы искусственного интеллекта, автономные роботы, беспилотные автомобили — всё это стремительно перекраивает экономику, культуру и рынок труда. И всё это, в конечном счёте, стало возможным благодаря той самой маленькой технологии, которая когда-то была придумана для того, чтобы пиксели на экране выглядели чуть красивее.

Быть может, старшее поколение было право, утверждая, что игры до добра не доведут? А быть может, напротив, — именно игры и технологии, рождённые в их недрах, спасут человечество от его собственных ограничений.

Послесловие: ирония истории

Напоследок стоит обратить внимание на любопытный исторический поворот. Когда-то индустрия решительно отказалась от фиксированного конвейера в пользу универсальных программируемых ядер. Однако сегодня NVIDIA вновь делает ставку на специализированные аппаратные блоки: RT-ядра для аппаратной трассировки лучей и тензорные ядра для работы технологии DLSS и задач машинного обучения.

Пока эта стратегия приносит плоды: линейка видеокарт RTX пользуется огромным спросом. Но сумеет ли Дженсен Хуанг вовремя распознать момент, когда специализация перестанет быть конкурентным преимуществом? Или же компания рискует попасть в ту же ловушку, которая в своё время погубила её предшественников — 3dfx, S3 и Matrox?

История, как известно, развивается по спирали. И то, какой виток ждёт NVIDIA и всю индустрию впереди, покажет время.

 

Meta* вложит десятки миллиардов в Nvidia — первый крупный покупатель CPU

Meta* и Nvidia заключили многомиллиардное партнёрство на GPU Blackwell и Rubin. Meta* отказывается от собственных чипов и возвращается к Nvidia
Павел Ельцов 24 февраля 2026 в 06:21

Meta* и Nvidia объявили многолетнее партнёрство на десятки миллиардов долларов — крупнейшую сделку Meta* с чипмейкером. Meta* закупит миллионы Nvidia Blackwell и Rubin GPU, плюс станет первой Big Tech компанией, которая массово развернёт автономные CPU Nvidia Grace в своих дата-центрах.

Детали суммы не раскрыты, но аналитики говорят о десятках миллиардов долларов. Важный нюанс: Grace CPU предназначены для inference (вывод ИИ-моделей), а не для обучения. Само по себе это полноценный сдвиг от тренировки к реальному обслуживанию пользователей. Meta* получает дефицитные чипы следующего поколения в момент, когда Blackwell GPU Nvidia уже распроданы на год вперёд.

Что странно: Meta* годами развивала собственные MTIA-чипы для inference и даже объявила о выпуске версии для тренировки в 2026 году. Но Financial Times сообщает о технических проблемах с новыми чипами — похоже, собственная разработка провалилась, и теперь Meta* снова полностью зависит от Nvidia. Акции Nvidia выросли на 2%, чипмейкеры AMD и Broadcom тоже в плюсе.

*Компания Meta Platforms Inc. признана экстремистской организацией и запрещена на территории РФ, также как и её продукты Facebook и Instagram.

Nvidia приобрела технологии главного конкурента за $20 млрд

Nvidia заключила сделку с AI-стартапом Groq на $20 млрд. Как покупка LPU-чипов и команды изменит рынок ИИ-ускорителей и обойдёт регуляторов.
Павел Ельцов 26 декабря 2025 в 02:38

Nvidia заключила сделку с AI-стартапом Groq на $20 миллиардов — крупнейшую в истории компании. Формально это «лицензионное соглашение», но по факту Nvidia забирает все активы Groq, включая CEO Джонатана Росса и президента Санни Мадру.

Groq создал LPU-чипы, которые обрабатывают запросы к нейросетям в 10 раз быстрее и с десятикратной экономией энергии по сравнению с GPU Nvidia. Компанию оценивали в $6,9 млрд всего три месяца назад.

Nvidia получает технологию конкурента и ключевых инженеров, но формально не покупает компанию — изящный способ обойти антимонопольное регулирование. GroqCloud продолжит работу под новым CEO, но мозги стартапа теперь у Дженсена Хуанга.

NVIDIA GeForce RTX 4080 с 12 ГБ памяти сняли с производства?

Такой шаг со стороны NVIDIA неожиданен. Любопытно, что компания анонсировала новую карту в двух версиях, а потом сняла с производства одну из них.
aka_opex 26 октября 2022 в 12:28

Компания Nvidia тихо «сняла с производства» свою единственную видеокарту из серии 40, которая стоила менее 1000 долларов США. RTX 4080 с 12 ГБ памяти по цене 899 долларов США должна была стать альтернативой RTX 4080 с 16 ГБ памяти за 1199 долларов США, но после того, как бенчмарки и обзоры показали, что, хотя обе они имеют обозначение «4080», версия с 12 ГБ памяти слишком уступает, чтобы быть помещенной в один класс — многие тестеры посчитали, что надо уменьшить путаницу в двух уровнях GPU и изменить ее наименование.

Поскольку версия с 12 ГБ отменена, вариант с 16 ГБ теперь является самым «доступным» вариантом 40-й серии по сравнению с RTX 4090 с 24 ГБ за 1599 долларов США. Те, у кого бюджет ограничен, возможно, захотят повременить и подождать снижения цен на старые карты, но если цена не является проблемой, эти графические процессоры выйдут 16 ноября.

NVIDIA представила флагманские видеокарты 40-й серии

Компания NVIDIA представила сразу две видеокарты флагманского уровня нового поколения: GeForce RTX 4080 и GeForce RTX 4090.
aka_opex 21 сентября 2022 в 11:05

NVIDIA и ее видеокарты продолжают двигать мир технологий вперед с мощностью, которая растет по экспоненте. На фоне увлечения майнингом криптовалют, видеокарты становилось все труднее найти по разумным ценам. К счастью для потребителей, цены с тех пор стабилизировались, и NVIDIA расширяет свои предложения, представляя серию 40, начиная с RTX 4090 и RTX 4080.

Благодаря новой архитектуре NVIDIA Ada Lovelace, карты имеют новые тензорные ядра четвертого поколения, ядра трассировки лучей третьего поколения, переупорядочение выполнения шейдеров и NVIDIA DLSS 3, которая повышает производительность за счет использования ИИ для вывода кадров более высокого разрешения.

Результаты этих прорывов включают ожидаемое удвоение производительности RTX 4090 по сравнению с его предшественником RTX 3090 Ti. RTX 4080 16 ГБ должна удвоить мощность RTX 3080 Ti, в то время как RTX 4080 12 ГБ сравнима с RTX 3090.

Выпуск NVIDIA RTX 4090 начнется 12 октября по цене 1599 долларов США, а RTX 4080 16 ГБ и 12 ГБ появятся в ноябре по цене 1199 долларов США и 899 долларов США соответственно.

EVGA уходит с рынка видеокарт. Причина — жесткие условия, которые ставит NVIDIA

EVGA разорвала отношения с Nvidia, а также с AMD и Intel. Непонятно, что с компанией будет дальше…
aka_opex 19 сентября 2022 в 07:07

Производитель графических карт EVGA — одно из самых громких имен, ориентированных на геймеров — объявил о том, что он уходит с рынка графических карт. Известный партнер NVIDIA, компания EVGA завоевала множество наград, а поклонники полюбили производительность и дизайн ее карт 30-й серии.

Новость вышла на фоне скорого выхода видеокарт нового поколения — карт 40-й серии. На днях появились слухи, что графические процессоры уже поступили на склады в августе. В то же время, цены на графические процессоры падают на вторичном рынке. При этом компания EVGA намекает, что ее уход в значительной степени связан с неудовлетворенностью работой с Nvidia. Поскольку Nvidia контролирует фактическое производство основных компонентов карт, большинство сторонних брендов находятся практически в их власти, а с учетом того, что Nvidia продвигает свои карты версии Founders, при заключении партнерских отношений может быть довольно много условий.

Менеджер по продукции EVGA подтвердил новость: «EVGA не будет поставлять видеокарты следующего поколения». GamersNexus также выяснил, что решение было связано даже не с денежным аспектом закрытия подразделения GPU, а в основном «с уважением», как заявил генеральный директор EVGA Эндрю Хан. EVGA также подтвердила, что не будет продолжать сотрудничество с AMD или Intel.

Intel анонсировал графические карты ARC Pro для рабочих станций и не только…

Intel представил видеокарты серии ARC Pro, как альтернативу решениям от AMD и NVIDIA. Поддержка трассировки лучей присутствует…
aka_opex 13 августа 2022 в 04:09

Вскоре после дебюта новой серии графических карт Arc компания Intel представила серию Arc Pro — новую коллекцию графических процессоров, предназначенных для производительности. Arc Pro состоит из A30M, A40 и A50, которые разделены на три различных уровня. Первая из трех моделей — это обычный GPU для ноутбука, а модель A40 — аналог для настольного ПК, обладающий аналогичными характеристиками в однослотовом форм-факторе.

Модель A50 — это топовая модель с двухслотовой конфигурацией для тех, кому требуется большая мощность обработки изображений для рабочих станций. Что касается технических характеристик, то и A30M, и A40 обладают мощностью 3,5 терафлопс, но последняя модель имеет 6 ГБ VRAM, как и A50, в то время как первая поставляется только с 4 ГБ. Естественно, A50 увеличивает свою мощность до 4,8 терафлопс, при этом все три модели оснащены встроенной поддержкой трассировки лучей и машинного обучения. Все они также могут похвастаться четырьмя портами мини-дисплеев, к которым можно подключить до двух дисплеев 8K 60 Гц, двух дисплеев 5K 240 Гц, двух дисплеев 5K 120 Гц или четырех дисплеев 4K 60 Гц.

Intel Arc V-Series Limited Edition представлена: Красивая, но мощная ли?

Intel наконец явила миру новенькую видеокарту Intel Arc A-Series, которая выглядит красиво и составит конкуренцию GPU от AMD и NVIDIA. Составит же?
aka_opex 9 апреля 2022 в 10:14

Intel наконец-то объявила о выпуске долгожданной графической карты ARC A-Series Limited Edition, которую планируется запустить летом 2022 года.

https://youtu.be/n6LSJcV5Vco

Высокопроизводительный графический бренд технологического гиганта для геймеров и создателей раскрыл эту новость на своем канале YouTube, опубликовав 49-секундный видеоролик, демонстрирующий дизайн устройства.

Устройство оснащено системой охлаждения с двумя вентиляторами, черным гребнем и контрастными хромированными деталями. Intel также может похвастаться графикой нового поколения для таких популярных игр, как Monster Hunter: Rise, League of Legends, Grid Legends, Ghostwire и Elden Ring.

Настольный аналог также оснащен портом HDMI и, как ожидается, будет более продвинутым, чем его предшественник ARC 3, имея больше VRAM и увеличенное графическое ядро.

Компания пока не сообщила никаких подробностей о цене и технических спецификациях. А вот какой у карточки хэш-рейт — не сообщают

AMD сокрушительно отвечает Intel и NVIDIA в рамках CES 2022?

AMD показал новые ПК-процессоры, мобильные чипы и обновил видеографику. В общем ударил и по Intel, и по NVIDIA. Успешно ли?
aka_opex 4 января 2022 в 11:20

Компания AMD готова внедрить 3D V-Cache в свои настольные чипы. Эта технология, которая, по сути, позволяет AMD использовать больше кэша поверх своих процессоров, дебютирует в Ryzen 7 5800X3D. В то время как оригинальная версия этого процессора имела 36 МБ кэша L2 и L3, новая версия имеет более 100 МБ совокупного кэша. AMD утверждает, что он обеспечивает на 5% более высокую производительность в играх 1080p по сравнению с Intel 12900K, и примерно на 15% быстрее, чем Ryzen 9 5900X.

Может показаться, что это не так много, но этот чип, по сути, является лишь доказательством концепции. AMD, вероятно, необходимо доказать, что ее технология V-cache действительно работает, прежде чем она начнет интегрировать ее в будущие линейки. Компания заявляет, что 5800X3D будет доступен позже этой весной.

AMD также сообщила, что процессоры нового поколения Zen 4 Ryzen 7000 появятся во второй половине 2022 года. Они будут построены на 5 нм техпроцессе, чипы Zen 4 также будут работать на новой платформе AMD Socket AM5. Выступая на выставке CES, генеральный директор AMD Лиза Су отметила, что AM5 будет представлять собой сокет LGA, размещая тонкие контакты на материнской плате, а не на процессоре. Чипы Ryzen 7000 также будут поддерживать память DDR5 и PCIE5, как и ожидалось. Во время короткой демонстрации Су показала, как Halo Infinite плавно работает на чипе Zen 4, и отметила, что каждое ядро работает на частоте 5 ГГц.

Также компания представила свои мобильные процессоры Ryzen 6000, которые построены по 6-нм техпроцессу Zen 3+ и имеют значительное обновление — графику RDNA 2. Компания утверждает, что новые чипы смогут справиться с большинством AAA-игр в разрешении 1080p, а их игровая производительность будет более чем в два раза выше, чем у графики Radeon предыдущего поколения.

AMD утверждает, что ядро Zen 3+ может лучше достигать состояния глубокого сна для экономии энергии, а также включает лучшие функции адаптивного управления питанием. Можно ожидать и то, что чипы Ryzen 6000 будут потреблять на 30% меньше энергии во время видеоконференций. Более того, AMD утверждает, что они обеспечат до 24 часов автономного воспроизведения фильмов. Что касается безопасности, Ryzen 6000 — это первая платформа, в которую интегрирован новый чип безопасности Microsoft Pluton.

В целом, мобильные чипы Ryzen 6000 будут примерно на 11 процентов быстрее, чем Ryzen 5000, при выполнении однопоточных задач, и на 28 процентов быстрее при многопоточной работе. Новое семейство процессоров возглавит 8-ядерный/16-поточный Ryzen 9 6980HX, тактовая частота которого может достигать 5 ГГц. Учитывая, что это совершенно новая процессорная платформа, она также включает в себя другие обновления, такие как более быстрая оперативная память DDR5, которая, по словам AMD, значительно повысит производительность интегрированного GPU, а также интеграцию Wi-Fi 6E и улучшенную поддержку устройств PCIe 4.0 и USB 4.

Для большинства покупателей интегрированная графика RDNA 2 будет самым привлекательным фактором. Сообщается, что графика RDNA 2 поддерживает технологию FreeSync для сглаживания игрового процесса, а также дисплеи Dynamic HDR. AMD утверждает, что она также будет примерно на 70% быстрее, чем графика Intel Iris Xe, которая интегрирована в процессоры 11-го поколения.

AMD не говорит многого о своих чипах Ryzen 6000 серии U, которые предназначены для ультрапортативных устройств, но они, вероятно, получат преимущества от многих обновлений платформы. Самый быстрый чип серии U, Ryzen 7 6800U, будет иметь восемь ядер и частоту до 4,7 ГГц.

Но и это ещё не все, AMD начинает 2022 год с выпуска графики серии RX 6000 для более широкого спектра ноутбуков. Компания представила линейку графических процессоров Radeon RX 6000S, созданных специально для тонких и легких ноутбуков (менее 0,78 дюйма и 4,5 фунтов).

Как сообщается, основная модель RX 6600S обеспечивает 80 кадров в секунду и более при высоких настройках детализации в ряде последних игр, таких как Call of Duty: Black Ops Cold War и Deathloop. При переходе на RX 6700S вы получите 100 кадров в секунду и выше, а RX 6800S — 100 кадров в секунду и выше при максимальных настройках.

Есть и другие варианты, если для вас производительность важнее портативности. Новая Radeon RX 6850M всего на 7% быстрее, чем 6800M, но RX 6650M и 6650M XT среднего уровня на 20% быстрее, чем 6600M. Вы также найдете стартовые чипы RX 6300M и 6500M, которые заявлены на 200% быстрее, чем GeForce MX450 от NVIDIA, хотя ожидается, что этот разрыв сократится с новыми MX550 и MX570.

А для ПК-геймеров настоящим подарком станет Radeon RX 6500 XT, которая будет конкурировать с GeForce GTX 1650 от NVIDIA с заявленной производительностью на 20-60% выше в играх 1080p. И что важно, есть новая функция Radeon Super Resolution, которая лучше противостоит повышению разрешения DLSS от NVIDIA. И все же самое приятное тут — цена: всего 199 долларов США, а в продаже новая карточка появится уже с 19 января.

NVIDIA: 3070 Ti и 3080 Ti идет на ноутбуки

NVIDIA представляет новые Ti-решения для игровых ноутбуков, а также устанавливает новый стандарт для киберспортивных мониторов.

Такие компании, как Razer, Alienware и Asus ROG, уже давно предлагают ноутбуки с графическими процессорами RTX 3080 и 3070, но летом NVIDIA выпустила пару обновленных карт для настольных ПК: 3070 Ti и 3080 Ti. Теперь компания переносит бренд «Ti» на ноутбуки.

3080 Ti будет доступна в ноутбуках по цене от $2 499 и выше. NVIDIA утверждает, что она быстрее, чем настольная карта Titan RTX прошлого поколения, и сможет запускать неуказанные пока игры с ультра-настройками в разрешении 1440p на скорости более 120 кадров в секунду. Она также оснащена 16 ГБ GDDR6 с частотой «самой быстрой из когда-либо существовавших в ноутбуках». Точные подробности пока не сообщаются, но первые ноутбуки 3080 Ti появятся в продаже в феврале, так что нам недолго осталось ждать, пока мы узнаем, на что они способны.

Модель 3070 Ti будет доступна в ноутбуках по цене от $1 499 и выше. NVIDIA утверждает, что эта модель «на 70% быстрее, чем ноутбуки RTX 2070 Super», что не является особенно полезной цифрой, но все же. По всей видимости, она сможет запускать игры в разрешении 1440p на ультра настройках со скоростью 100 кадров в секунду, и, опять же, начнет появляться в ноутбуках в феврале.

Наконец, NVIDIA анонсировала несколько новых технологий для ноутбуков Max-Q, включая AI CPU Optimizer, который может контролировать частоты и энергопотребление некоторых CPU Intel и AMD «нового поколения», Rapid Core Scaling, который может отключать некоторые ядра GPU, повышая частоты других для задач производительности, и Battery Boost 2.0, который настраивает игру и аппаратное обеспечение, чтобы улучшить игру при работе от батареи.

NVIDIA утверждает, что последнее может увеличить время работы от батареи на 70%, предположительно за счет игровой производительности и точности.

Также компания NVIDIA решила заявить о новом стандарте для киберспорта — речь идет о 1440p разрешении и частоте обновления мониторов в 360 Гц. Новая «категория 1440p esports» начинается с четырех дисплеев, сертифицированных NVIDIA: ASUS ROG Swift 360Hz PG27AQN, AOC AG274QGM — AGON PRO Mini LED, MSI MEG 271Q Mini LED и ViewSonic XG272G-2K Mini LED. Монитор ASUS работает на частоте 360 Гц, в то время как остальные мониторы оснащены подсветкой Mini LED, но их частота не превышает 300 Гц.

Все четыре монитора поддерживают адаптивную частоту обновления G-Sync, цветовой режим «Esports Vibrance» и, что более важно для целевой аудитории, поддерживают анализатор задержек Reflex от NVIDIA.