TSMC отчиталась за I квартал 2026: прибыль выросла на 58% — рекорд за всю историю

TSMC зафиксировала рекордную прибыль Q1 2026: +58% год к году, $35,9 млрд выручки. ИИ-чипы — 61% доходов. Прогноз роста повышен.
Павел Ельцов 22 апреля 2026 в 01:15

TSMC опубликовала финансовые результаты за первый квартал 2026 года. Выручка достигла $35,9 млрд — рост на 35% год к году. Чистая прибыль увеличилась на 58% и также обновила исторический максимум. Рентабельность по чистой прибыли составила рекордные 50,5%. Компания повысила прогноз по выручке на весь 2026 год: теперь ожидается рост более чем на 30% в долларах. Это восьмой квартал подряд двузначного роста прибыли.

Двигатель результатов — один и тот же: искусственный интеллект. Сегмент высокопроизводительных вычислений, включающий ИИ-ускорители и 5G-чипы, уже составляет 61% всей выручки TSMC. Чипы на узле 3 нм принесли четверть всей выручки компании — три года назад эта цифра составляла лишь 6%. Генеральный директор Вэй Чжэцзя охарактеризовал спрос на ИИ-чипы как «чрезвычайно устойчивый» и заявил, что мощности компании по-прежнему распроданы. Капитальные расходы на 2026 год выйдут к верхней границе прогнозного диапазона в $52–56 млрд. Акции TSMC с начала года выросли примерно на 35%, рыночная капитализация — около $1,7 трлн.

OpenAI вложит $20 млрд в мощности Cerebras — диверсификация от Nvidia

OpenAI вложит $20 млрд в серверы Cerebras за 3 года. Крупнейшая сделка компании с альтернативными чипами — курс на независимость от Nvidia.

OpenAI согласовала трёхлетний контракт на использование серверных мощностей от Cerebras Systems на сумму свыше $20 млрд. Это примерно вдвое больше, чем сообщалось ранее. В рамках сделки OpenAI также может получить опционы на миноритарную долю в Cerebras. Компания создаёт чипы WSE (Wafer Scale Engine) — самые крупные в мире полупроводниковые устройства, спроектированные специально под задачи инференса языковых моделей.

Сделка вписывается в стратегию OpenAI по диверсификации вычислительной базы. Компания остаётся крупнейшим потребителем GPU Nvidia, однако одновременно инвестирует в альтернативы: собственные чипы совместно с Broadcom, мощности Google TPU через Anthropic, теперь — Cerebras. Причина очевидна: от одного поставщика зависеть опасно, особенно когда тот сам испытывает ограничения производственных мощностей. Для Cerebras, ранее нацеленной на IPO, это крупнейший контракт в истории и фактическое подтверждение жизнеспособности альтернативы Nvidia для ИИ-инференса.

Упаковка чипов становится новым узким местом ИИ-индустрии

Упаковка чипов CoWoS стала новым узким местом ИИ. Nvidia занимает большую часть мощностей TSMC. Чипы из Аризоны летят упаковываться на Тайвань.
Павел Ельцов 13 апреля 2026 в 03:00

8 апреля CNBC опубликовала расследование, обращающее внимание на следующий системный риск для ИИ-индустрии: продвинутая упаковка чипов. Nvidia зарезервировала большую часть мощностей TSMC по технологии CoWoS (Chip on Wafer on Substrate) — именно этот процесс объединяет процессоры и высокоскоростную память HBM в единый модуль. Без этого этапа мощные ИИ-ускорители просто не работают. По данным CNBC, CoWoS у TSMC растёт со скоростью 80% в год, но спрос обгоняет предложение.

Парадоксальная ситуация: даже чипы, произведённые в США на заводе TSMC в Аризоне, сейчас отправляются обратно на Тайвань для упаковки — локальных мощностей в Штатах просто нет. TSMC строит два упаковочных предприятия в Аризоне, Intel наращивает компетенции в этом направлении и ведёт переговоры с Nvidia о возможности выполнять упаковку для её чипов. Именно упаковка, а не производство кремния, может оказаться главным ограничением роста ИИ в ближайшие годы.

Дженсен Хуанг заявил о достижении AGI

Хуанг объявил AGI достигнутым на GTC 2026. Arm представила первый серверный AI CPU — акции взлетели на 16% за день.
Павел Ельцов 9 апреля 2026 в 04:00

На конференции GTC 2026 в марте глава Nvidia Дженсен Хуанг объявил, что AGI (искусственный общий интеллект) по ряду определений уже достигнут. Заявление немедленно вызвало полемику: критики указали, что Хуанг использует трактовку, при которой AGI означает превосходство ИИ-систем над среднестатистическим человеком по большинству задач — именно такое определение удобно подтверждается текущими результатами бенчмарков.

Параллельно Arm анонсировала первый в истории компании собственный процессор для дата-центров — AGI CPU, разработанный специально под ИИ-агентов. К консорциуму поддержки нового чипа присоединились Meta*, Google и Nvidia. На этом фоне акции Arm взлетели более чем на 16% за одну торговую сессию — рынок воспринял анонс как прямую заявку на долю в серверном сегменте, который традиционно принадлежит x86.

*Компания Meta Platforms Inc. признана экстремистской организацией и запрещена на территории РФ, также как и её продукты Facebook и Instagram.

Nvidia вложила $5 млрд в производство Intel

Nvidia вложила $5 млрд в производство Intel и тестирует 18A для будущих GPU. Акции Intel выросли на 7% после объявления сделки.
Павел Ельцов 8 апреля 2026 в 06:26

В начале апреля стало известно, что Nvidia приобрела стратегическую долю в производственных мощностях Intel, вложив около пяти миллиардов долларов. Пакет составляет порядка 4–5% компании. Это не просто финансовая инвестиция — сделка означает, что Nvidia тестирует на 18A будущие архитектуры своих графических процессоров. Акции Intel отреагировали ростом более чем на 7% за один день.

Для рынка это мощный сигнал доверия. Nvidia — крупнейший в мире потребитель передовых литографических мощностей — до сих пор работала исключительно с TSMC. Теперь появился реальный прецедент диверсификации. Масштабного производства чипов Nvidia на 18A пока нет, но само присутствие компании в качестве инвестора меняет переговорные позиции Intel с другими потенциальными заказчиками фундаментально.

Nvidia DGX Spark — суперкомпьютер на вашем столе

NVIDIA Project Digits — персональный суперкомпьютер за $3000 с 1 петафлопсом. Разбираем чип GB10, FP4-точность и кому нужен ИИ на рабочем столе.
Павел Ельцов 27 марта 2026 в 05:20

Что если бы вычислительная мощность, которую ещё несколько лет назад можно было встретить разве что в специализированных исследовательских центрах, уместилась в корпус размером с увеличенный Mac mini и встала на ваш рабочий стол? Именно с таким вопросом NVIDIA вышла на сцену CES 2025 — и ответ оказался не риторическим.

При слове «суперкомпьютер» воображение рисует привычную картину: просторный машинный зал, стойки с оборудованием от пола до потолка, ряды вентиляторов, непрерывный гул. Такие системы строят для моделирования климата, разработки ядерного оружия, расчёта сложных физических процессов и — в последние годы всё чаще — для обучения и запуска крупных моделей искусственного интеллекта. Доступ к подобным мощностям традиционно означал либо работу в государственном исследовательском институте, либо аренду облачной инфраструктуры у технологических гигантов.\

В NVIDIA задались простым вопросом: а что если сделать это компактным? Project Digits — именно так устройство называлось на момент анонса — стал ответом на этот вопрос. Суперкомпьютер, который помещается в небольшой корпус и может стоять прямо на рабочем столе. Впрочем, к моменту выхода в продажу устройство сменило имя: с осени 2025 года оно называется NVIDIA DGX Spark.

Для кого это устройство — и для кого точно нет

Нужно сразу сказать прямо: для рядового пользователя DGX Spark бесполезен. Это не игровая машина, не мощная рабочая станция для монтажа видео и не замена привычному домашнему компьютеру. Устройство создавалось для вполне конкретной аудитории: разработчиков в сфере искусственного интеллекта, исследователей и студентов, которым нужно создавать, дообучать и запускать крупные языковые модели локально — без постоянного обращения к облачной инфраструктуре.

По замыслу NVIDIA, DGX Spark — это инструмент для прототипирования. Разработчик создаёт и тестирует модель на настольном устройстве, а когда она готова к промышленному применению, разворачивает её в облаке или в корпоративном дата-центре. Причём — и это принципиально — на той же самой программной архитектуре. Никакой переписки кода, никакой адаптации под другую платформу.

Кроме того, устройство открывает интересную возможность для тех, кто ценит конфиденциальность: на нём можно запустить собственную языковую модель, обучить её на персональных данных и работать с ней локально, не передавая ничего в интернет. Это значительно отличается от привычной схемы, при которой любой запрос к ChatGPT или аналогичному сервису обрабатывается на удалённых серверах.

Операционная система — не привычная Windows, а DGX OS: специализированный дистрибутив на базе Ubuntu 24.04, настроенный под задачи искусственного интеллекта. В комплекте идут CUDA, cuDNN, TensorRT, Docker и целый набор готовых сценариев применения — от RAG-систем до мультиагентных рабочих процессов. Всё это позволяет приступить к работе практически сразу после включения.

Что внутри: архитектура GB10 Grace Blackwell

Внешне DGX Spark выглядит как типичный мини-компьютер — золотистый металлический корпус размером 150 × 150 × 50,5 мм, стилистически напоминающий уменьшенную копию легендарного DGX-1. Именно такой суперкомпьютер Дженсен Хуанг лично доставил Илону Маску в офис OpenAI в 2016 году — системы, которую принято считать отправной точкой всего нынешнего бума генеративного ИИ. Намёк на эту историю в дизайне DGX Spark вряд ли случаен.

128 гигабайт оперативной памяти и накопитель NVMe объёмом до 4 ТБ — внушительно, но вполне ожидаемо для устройства подобного класса: обученные языковые модели занимают значительное место. Самое интересное — в главном чипе. Сердце DGX Spark — GB10 Grace Blackwell Superchip, система на кристалле (SoC), разработанная совместно с компанией MediaTek.

Прежде чем двигаться дальше, стоит пояснить саму концепцию SoC для тех, кто с ней не знаком. Традиционный компьютер состоит из множества отдельных компонентов, расположенных на разных платах и соединённых между собой: центральный процессор, графический процессор, оперативная память, контроллеры. В случае системы на кристалле все эти элементы интегрированы на одном чипе. Это позволяет существенно сократить занимаемое пространство и снизить задержки при передаче данных между компонентами.

GB10 объединяет графический процессор на архитектуре Blackwell — с новейшими ядрами CUDA и тензорными ядрами пятого поколения — и центральный процессор Grace с двадцатью энергоэффективными ядрами на базе архитектуры Arm (10 высокопроизводительных ядер Cortex-X925 и 10 энергоэффективных Cortex-A725). Соединяет их технология NVLink-C2C, обеспечивающая пропускную способность в пять раз выше, чем интерфейс PCIe Gen 5. Унифицированная архитектура памяти означает, что процессор и графический сопроцессор совместно используют единый пул из 128 ГБ — без накладных расходов на копирование данных между раздельными банками.

Благодаря этому DGX Spark способен локально запускать языковые модели с числом параметров до 200 миллиардов. Для сравнения: GPT-3 — модель, с которой во многом началась нынешняя эпоха генеративного ИИ — содержит 175 миллиардов параметров. Если же соединить два устройства через специальный адаптер ConnectX с пропускной способностью 200 Гбит/с, объединённая система справляется с моделями до 405 миллиардов параметров — размер флагманской Llama 3.1 от Meta.

Петафлопс петафлопсу рознь: о чём умалчивают в пресс-релизах

Заявленная производительность в 1 петафлопс — квадриллион операций в секунду — звучит впечатляюще. Для сравнения: Sony PlayStation 5 Pro выдаёт около 33 терафлопс, то есть примерно в тридцать раз меньше. Однако у этой цифры есть существенная оговорка, о которой важно говорить честно.

Заявленный петафлопс относится к вычислениям с точностью FP4 — то есть к операциям с четырёхбитными числами с плавающей точкой. Для сравнения: стандартные научные расчёты ведутся с точностью FP32 (32-битные числа), а большинство современных нейросетей при обучении используют как минимум FP16. FP4 — это очень низкая точность. При ней каждое число кодируется четырьмя битами вместо шестнадцати или тридцати двух, что позволяет резко ускорить вычисления, но ценой потери точности представления числовых значений.

Кроме того, реальный показатель достигается с использованием технологии структурного прореживания (structured sparsity): она удваивает эффективную скорость вычислений, пропуская нулевые значения. Но работает это только при условии, что конкретная задача оптимизирована под этот режим — что в реальных приложениях выполняется далеко не всегда. Независимые тесты показывают реальную производительность на уровне около 100 терафлопс в формате BF16 и около 207 терафлопс в FP8 — цифры уважительные, но далёкие от рекламного петафлопса.

После выхода устройства в продажу эта тема вызвала оживлённую дискуссию в профессиональном сообществе. Критики указывали, что заявленная мощность — маркетинговая цифра, а не реальный показатель производительности для большинства задач. Один из обозревателей зафиксировал, что при работе с моделью Llama-3.1-8B устройство выдаёт около 36 токенов в секунду — ровно столько же, сколько Mac mini с процессором M4 Pro, который стоит примерно в три раза дешевле.

И всё же было бы несправедливо сводить дискуссию к простому «обману покупателей». NVIDIA действительно провела масштабную исследовательскую работу, чтобы сохранить практически приемлемую точность при переходе на FP4. На конференции HotChips в августе 2024 года компания продемонстрировала первый генератор изображений, работающий на модели с точностью FP4: результат визуально практически неотличим от FP16. Это говорит о том, что для задач инференса в нейронных сетях четырёхбитное представление чисел вполне имеет право на существование — особенно в сочетании с грамотными методами квантизации.

Немаловажно и то, что DGX Spark обладает уникальным преимуществом, которое не отражается ни в каких бенчмарках: нативная поддержка CUDA. Конкурирующие решения на базе AMD Ryzen AI Max или чипов Apple Silicon предлагают сопоставимую или даже превосходящую производительность по соотношению цена/качество — но все они лишены доступа к экосистеме CUDA, которая по-прежнему остаётся де-факто стандартом в разработке ИИ.

От анонса к реальности: как Project Digits стал DGX Spark

Путь от анонса до прилавка оказался долгим. На CES 2025 устройство обещали выпустить в мае того же года по цене 3 000 долларов. В марте 2025 года NVIDIA переименовала Project Digits в DGX Spark. Первые поставки начались лишь осенью 2025 года — и уже по цене 3 999 долларов за версию Founders Edition. К февралю 2026 года цена выросла ещё раз — до 4 699 долларов, что NVIDIA объяснила дефицитом 128-гигабайтных модулей памяти LPDDR5x.

Параллельно к выпуску устройств подключились партнёры: Acer, ASUS, Dell, Gigabyte, HP, Lenovo и MSI выпустили собственные версии на базе того же чипа GB10 — как правило, с меньшим объёмом накопителя и по более низкой цене. Рынок обозначил своё отношение к категории довольно отчётливо: сопоставимые по возможностям системы на Ryzen AI Max+ стоят существенно дешевле, хотя и проигрывают в поддержке программного стека NVIDIA.

Реальные пользователи и независимые обозреватели дали устройству в целом осторожно положительную оценку. Отмечается исключительное удобство работы с готовым программным стеком — DGX OS поставляется с предустановленными инструментами, и первую рабочую нейросетевую задачу можно запустить буквально через несколько минут после распаковки. 128 ГБ единой памяти, разделяемой между процессором и графическим ускорителем, действительно позволяют запускать модели, недоступные на большинстве потребительских устройств. Встроенный сетевой интерфейс ConnectX-7 с пропускной способностью 200 Гбит/с — компонент, который в отдельной поставке стоит от 1 700 долларов — также выгодно отличает DGX Spark от конкурентов.

Вместе с тем критики указывают на тепловые ограничения: компактный металлический корпус объёмом 1,13 литра при длительных нагрузках заметно греется, и часть пользователей фиксировала самопроизвольные перезагрузки. Устройство потребляет значительно меньше заявленного TDP, что свидетельствует о термическом или программном ограничении производительности. Ситуацию должны исправить обновления прошивки — одно из них уже снизило потребление в режиме ожидания более чем на треть.

Намёк на будущее: NVIDIA на рынке потребительских процессоров?

На пресс-конференции в январе 2025 года Дженсен Хуанг обронил фразу о том, что у компании есть «собственные планы» относительно дальнейшего использования разработанного процессора. На фоне устойчивых слухов о том, что NVIDIA активно работает над собственным потребительским центральным процессором, это заявление прозвучало не как дежурная ремарка, а как намеренный сигнал рынку.

Если компания действительно выйдет на рынок потребительских процессоров — рынок, который десятилетиями делят Intel и AMD, — последствия для индустрии сложно переоценить. GB10 уже доказал, что архитектура Arm в связке с графическим ускорителем Blackwell и унифицированной памятью работает. Остаётся вопрос: захочет ли NVIDIA идти дальше? Пока что это лишь намёки. Но в истории технологий именно так всё и начинается.

Главное — не само устройство

DGX Spark — устройство для узкой аудитории. При нынешней цене в несколько тысяч долларов, работе исключительно под управлением Linux и ориентации на профессиональные задачи ИИ оно явно адресовано не широкому потребителю. Разработчики и исследователи получили то, о чём давно мечтали: возможность работать с крупными языковыми моделями локально, без облачной зависимости и без необходимости делиться данными с внешними серверами.

Но, пожалуй, главное в этой истории — не само устройство. Главное — прецедент. Впервые в истории суперкомпьютерные вычисления в сфере искусственного интеллекта оказались в форм-факторе настольного компьютера с ценой, соответствующей профессиональной рабочей станции. Это тот самый момент, когда технология, существовавшая исключительно в серверных залах, делает шаг навстречу обычному рабочему пространству. Пусть пока — только для профессионалов. Но закономерность здесь такая же, как и всегда: сначала появляется дорогой инструмент для специалистов, а затем — через несколько лет — доступная версия для всех остальных.

 

Nvidia покупает чужой мозг за $20 миллиардов

Nvidia лицензирует архитектуру Groq за $20 млрд для нового ИИ-чипа. Признание: LPU от Groq быстрее собственных решений Nvidia в задачах вывода.
Павел Ельцов 26 марта 2026 в 03:38

Nvidia готовится показать принципиально новый для себя тип чипа — процессор для вывода нейросетевых моделей, построенный не на собственной архитектуре, а на разработках стартапа Groq. Два года назад Groq почти никто не знал, но их языковой процессор (LPU) оказался лучшим на рынке для задач инференса. Nvidia оценила это и заключила лицензионное соглашение на внушительные $20 млрд.

Для компании, привыкшей диктовать архитектурные стандарты в одиночку, это неожиданный шаг. Фактически Nvidia признаёт: в гонке за скоростью вывода ИИ чужое решение оказалось быстрее собственного. Новый чип ожидается к показу в марте — и индустрия следит внимательно.

Nvidia показала рекордные $68,1 млрд выручки — но инвесторы в панике

Nvidia отчиталась о рекордной выручке $68,1 млрд, но акции упали. Инвесторы диверсифицируются из tech-сектора — коррекция или начало спада ИИ-пузыря?
Павел Ельцов 11 марта 2026 в 09:46

26 февраля Nvidia отчиталась о квартальной выручке в $68,1 миллиарда за квартал, закончившийся 25 января 2026 года, что абсолютный рекорд компании. Подтверждение того, что спрос на ИИ-вычисления остаётся на пике: гипермасштабируемые облака и корпорации покупают и тренировочные, и инференс-мощности с безумной скоростью.

Но рынок отреагировал неожиданно: акции Nvidia упали на следующий день сильнее, чем в любой другой день с апреля. Nasdaq и S&P 500 показали худший месяц с марта 2025. Tech-индекс проседает, а инвесторы бегут в облигации, энергетику, материалы и потребительские товары. Равновзвешенный S&P (где каждая акция имеет одинаковый вес) вырос на 7% за год, тогда как классический S&P — всего на 0,49%, а Nasdaq упал на 2,5%.

Почти 40% стоимости S&P 500 сконцентрировано в мега-cap tech вроде Nvidia, Microsoft и Alphabet. Инвесторы начинают диверсифицировать, уходя из ИИ-акций в секторы с меньшей экспозицией. Аналитики из Piper Sandler снизили рейтинг tech-сектора с «overweight» на «neutral» — это первый раз за годы. Результаты Nvidia фактически стали индикатором здоровья всего ИИ-бума. Если выручка и прогнозы продолжают расти — это проверка соответствия затрат облачных гигантов.

Nvidia вложила $4 млрд в фотонику — медные провода больше не тянут ИИ

Nvidia вложила $4 млрд в фотонику Lumentum и Coherent. Медные провода достигли предела — ИИ-фабрики переходят на световую передачу данных.
Павел Ельцов 8 марта 2026 в 03:47

2 марта Nvidia объявила о стратегических инвестициях в $4 миллиарда — по $2 миллиарда в компании Lumentum и Coherent, которые производят фотонику для дата-центров. Это не просто вложение денег: Nvidia получает многолетние контракты на поставку лазеров и оптических компонентов, плюс эксклюзивный доступ к будущим мощностям обеих компаний.

Проблема, которую решает фотоника, проста: медные кабели больше не справляются. При скорости 1,6 терабита в секунду медь перегревается и теряет сигнал уже на расстоянии двух метров между GPU-стойками. Индустрия достигла «предела меди» — физической границы, за которой данные нужно передавать светом, а не электричеством. Фотоника использует лазеры вместо проводов: данные движутся по световым каналам, энергопотребление падает, тепловыделение снижается.

Дженсен Хуанг называет это «самой сложной кремниевой фотоникой в мире для строительства ИИ-фабрик гигаваттного масштаба». Nvidia финансирует строительство новых заводов Lumentum в США, гарантирует закупки на миллиарды долларов вперёд и получает приоритетный доступ к технологиям Co-Packaged Optics — интеграции лазеров прямо в чипы.

Акции Lumentum взлетели на 12%, Coherent — на 15%. Nvidia сама поднялась на 3%. Но главное не это: Nvidia создаёт вертикальную интеграцию всей ИИ-инфраструктуры — от GPU до оптических сетей. Конкуренты вроде AMD и Broadcom остаются позади, а облачные гиганты Microsoft и Meta всё чаще покупают готовые решения Nvidia вместо сборки собственных систем.

Шейдеры: как маленькая игровая технология породила искусственный интеллект и сделала NVIDIA триллионной корпорацией

Как шейдеры из игр привели к революции ИИ: история эволюции видеокарт от фиксированного конвейера до CUDA и триллионной капитализации NVIDIA.
Павел Ельцов 28 февраля 2026 в 06:52

На заре компьютерных игр каждый новый релиз казался визуальной революцией. Графика развивалась стремительно, однако, положа руку на сердце, ей было куда расти. Достаточно вспомнить Лару Крофт из первых частей Tomb Raider — её угловатые формы, составленные из крупных полигонов, скорее напоминали геометрические фигуры, нежели живого персонажа.

 

Но в начале двухтысячных произошёл перелом. Появилась технология, которая кардинально преобразила графику в играх. Персонажи перестали выглядеть как фигурки оригами, картинка стала всё больше приближаться к реальности, а каждый новый релиз вызывал восторг у игроков.

Однако никто не мог предположить, что эта, казалось бы, небольшая инновация, задуманная исключительно ради красивой картинки, изменит вектор развития целой индустрии и в конечном счёте приведёт к новой промышленной революции, в которой искусственный интеллект постепенно начинает вытеснять человека.

Эта технология — шейдеры.

В этой статье речь пойдёт о том, как динозавры вдохновили Valve на создание Half-Life 2, каким образом видеоускорители превратились в процессоры и породили искусственный интеллект, а компания NVIDIA стала одной из самых дорогих корпораций в мире.

Междоусобные войны видеокарт

Девяностые годы. Рынок компьютерных игр представлял собой неизведанные территории, подобные ещё не открытой карте в стратегии Warcraft. По этим территориям рыскали «войска» графических компаний — небольших фирм, соревновавшихся за право диктовать свои условия.

Самой могущественной силой того времени была 3dfx Interactive. Её графические акселераторы Voodoo и закрытый программный интерфейс Glide преображали игры до неузнаваемости. Владельцы этих карт наслаждались невиданным качеством графики, а все остальные могли лишь завидовать.

Главным соперником 3dfx выступала молодая и агрессивная NVIDIA. Она наносила удар за ударом — чипами RIVA 128 и RIVA TNT, — постепенно отвоёвывая долю рынка.

За спинами лидеров набирала силы ATI (будущая AMD) с линейкой карт 3D Rage. В корпоративном сегменте компания уже чувствовала себя уверенно, однако в игровом пространстве пока отставала, делая ставку на мультимедийные возможности и аппаратное декодирование видео.

На горизонте маячили и менее успешные игроки: S3 Graphics и Matrox.

Каждый производитель строил собственную империю за стенами проприетарных стандартов и не желал договариваться с конкурентами. Разные архитектуры, закрытые программные интерфейсы — игры, прекрасно работавшие на одном железе, отказывались запускаться на другом без мучительных танцев с бубном. Царили хаос и фрагментация.

Но недавно утвердившийся на технологическом троне Microsoft решил навести порядок. Корпорация замыслила загнать всех производителей в единый стандарт — DirectX. Впрочем, сделать это оказалось значительно сложнее, чем представлялось.

Гонка архитектур

В первые годы DirectX развивался семимильными шагами. Microsoft выпускала версию за версией, внедряя все передовые технологии того времени. К седьмой версии DirectX уже уверенно превосходил главного конкурента — OpenGL. Однако, несмотря на бешеный темп обновлений, стандарт всё равно не поспевал за рынком. И дело было не в OpenGL, а в производителях железа.

Видеокарты того времени, строго говоря, ещё не были видеокартами в современном понимании. Их даже называли иначе — графическими ускорителями, или акселераторами.

Эти ускорители работали по так называемому фиксированному конвейеру (fixed-function pipeline). Что это означало на практике?

Вся графика прогонялась через специализированные аппаратные блоки, функции которых были буквально «вшиты» в железо. Разработчики могли пользоваться готовыми инструментами, но не имели возможности менять их поведение по своему усмотрению.

По сути, видеокарта работала как волшебная коробочка со встроенным рецептом. Загружаешь в неё игру — она щедро посыпает её фирменным набором графических «специй», и картинка преображается. Нравится результат — прекрасно. Не нравится — что ж, приобретай новую видеокарту с другим набором «специй», на свой вкус.

Производителям такой расклад был на руку: разница между моделями была очевидной, а значит, продавать их было проще.

Игроков тоже всё устраивало — фиксированный конвейер работал стабильно и выдавал высокую частоту кадров.

А разработчики? Разумеется, подобный подход ограничивал творческие возможности, зато существенно ускорял процесс создания игр. Эффекты не требовалось писать вручную — они уже были заложены в аппаратуру. Достаточно было просто добавить их поддержку в свой проект.

Однако для Microsoft это оборачивалось настоящим кошмаром. Каждую новую аппаратную «особенность» приходилось экстренно добавлять в DirectX, подстраиваясь под рынок видеокарт. А диктовать свои условия, когда ты вынужден лишь догонять спецификации производителей, попросту невозможно.

Казалось, выхода не было. Или казалось, что не было — до тех пор, пока в команду DirectX не пришёл новый человек. Он заявил: «Так работать невозможно!» — и предложил революционную идею, изменившую вектор развития всей индустрии.

Физически корректный провал

Этим человеком был Джонатан «Шеймус» Блэкли — впоследствии известный как один из «отцов» игровой консоли Xbox. Личность разносторонняя: физик по образованию, разработчик игр по призванию и киношник по стечению обстоятельств.

В Microsoft он занимался унификацией драйверов для промышленных и потребительских трёхмерных ускорителей. Блэкли прекрасно понимал: главная преграда на пути стандартизации — фиксированный конвейер с его бесконечным калейдоскопом аппаратных «особенностей».

Но если Microsoft страдала от хаоса в стандартах, то разработчики игр мучились от ограничений самих видеокарт. И Блэкли знал об этом не понаслышке.

До прихода в Microsoft он работал в DreamWorks Interactive — игровом подразделении студии DreamWorks, где создавал физический движок для игры Trespasser, основанной на вселенной «Парка юрского периода».

Физический движок Trespasser был настоящей революцией для своего времени. Физика в игре поражала воображение: предметы можно было поднимать, бросать, расстреливать, а шкала здоровья персонажа отображалась в виде татуировки сердца на груди главной героини — решение, мягко говоря, спорное с точки зрения дизайна, но в те годы это казалось новаторством.

Именно этот физический движок впоследствии вдохновил студию Valve на создание Half-Life 2, а позднее — на разработку Half-Life: Alyx.

Сегодня Trespasser считается культовым проектом, однако в 1998 году игра с треском провалилась. Причина заключалась в ужасном техническом состоянии: спешка, чрезмерные амбиции и, разумеется, ограничения фиксированного конвейера, который попросту не позволял реализовать задуманное.

Но какие же были альтернативы? Ответ пришёл из мира большого кино — а точнее, из области трёхмерной анимации.

История других игрушек

Как человек из мира трёхмерной графики и кинематографа, Шеймус Блэкли, разумеется, знал о достижениях студии Pixar.

В те годы мультфильмы Pixar совершили нечто невообразимое. Никто и представить не мог, что компьютерная графика способна выглядеть настолько правдоподобно. Но каким образом студия этого добилась?

Секрет заключался в одном элегантном приёме. Чтобы цифровые объекты выглядели убедительно, их поверхности должны были корректно взаимодействовать со светом. Глянцевый пластик обязан блестеть, ткань — быть матовой и фактурной, а дерево — сохранять характерный рисунок волокон.

Поэтому для каждого вида поверхностей в Pixar написали специальные программы, описывающие, как именно свет должен с ними взаимодействовать: отражаться, рассеиваться, поглощаться. Эти программы получили название шейдеры — буквально «затенители» (от английского shade — «затенять»).

Шейдеры творили настоящее волшебство. Без них изображение выглядело плоским и искусственным, но стоило их применить — и сцена оживала.

Казалось бы, почему бы не перенести эту технологию в игры? Однако на пути стояли два серьёзных препятствия.

Во-первых, шейдеры требовали огромных вычислительных мощностей. В кинематографе один кадр мог рендериться часами или даже сутками на серверных кластерах стоимостью в миллионы долларов. В играх же каждый кадр должен формироваться за считанные миллисекунды — и не на суперкомпьютере, а на обычном домашнем компьютере.

Во-вторых, Pixar рендерил свои фильмы на центральном процессоре (CPU). Шейдеры — это программы, а для выполнения программ требуется полноценный процессор, а не специализированное устройство для ускорения отрисовки пикселей. Видеокарты с фиксированным конвейером не умели выполнять произвольный код — они лишь пропускали изображение через жёстко заданные аппаратные блоки.

Прорыв в железе

Иными словами, чтобы адаптировать технологию шейдеров для игр, необходимо было решить две задачи.

Первая — переписать значительную часть программного интерфейса DirectX. Задача сложная, но выполнимая.

Вторая, и главная, — убедить производителей видеокарт изменить саму архитектуру своего железа.

Фиксированный конвейер состоял из множества аппаратных блоков, каждый из которых выполнял строго определённую функцию. Маркетологи были в восторге от такого положения дел: «Посмотрите, у нас туман гуще, чем у конкурентов, фильтрация не билинейная, а трилинейная, а какие сглаженные края!»

Теперь же требовалось отказаться от всех этих уникальных торговых предложений и заменить специализированные блоки универсальными вычислительными ядрами, которые подчиняются не производителю, а исполняют код, написанный разработчиками игр.

Задача, мягко говоря, непростая. Но Блэкли помогла сила убеждения.

Сначала он убедил Microsoft. Программируемые шейдеры — это будущее. А кто задаст стандарт, тот и будет это будущее контролировать. Microsoft согласилась.

Затем он убедил производителей. И первой на новый путь встала NVIDIA.

Рождение GPU

В компании уже осознавали перспективность этой идеи. В 1999 году вышел GeForce 256 — первый продукт в линейке GeForce и, по утверждению самой NVIDIA, первый в мире GPU (Graphics Processing Unit) — графический процессор.

Впрочем, по существу, это был в значительной мере маркетинговый ход. Видеокарта по-прежнему использовала фиксированный конвейер. Единственным подлинным новшеством стала аппаратная поддержка T&L (Transform & Lighting) — обработка геометрии и освещения силами видеокарты, а не центрального процессора.

Тем не менее эксперимент удался. Выяснилось, что видеокарта справляется с подобными вычислениями значительно быстрее, чем CPU.

Риски были огромными. NVIDIA не горела желанием отказываться от своих наработок, однако выбора не оставалось. В те годы Дженсен Хуанг возглавлял сравнительно небольшую компанию, тогда как Microsoft была абсолютным монополистом. Бросить вызов «королю» означало выстрелить себе в ногу.

Поэтому NVIDIA приняла условия — и не прогадала.

В ноябре 2000 года вышел DirectX 8 с поддержкой вершинных и пиксельных шейдеров. Вслед за ним появилась GeForce 3 — первая видеокарта с программируемым конвейером и поддержкой нового программного интерфейса.

Фиксированный конвейер ушёл в историю, а вместе с ним — и компании, которые не успели перестроиться: 3dfx, S3, Matrox.

Графические ускорители уступили место графическим процессорам. Игровая индустрия вступила в свой золотой век.

Золотой век игр

С появлением шейдеров разработчики обрели долгожданную творческую свободу. Игры преобразились, а технологические шедевры посыпались один за другим.

Doom 3 — с его динамическим освещением и тенями, которые впечатляли настолько, что игроки буквально замирали перед монитором от ужаса и восторга.

Half-Life 2 — с реалистичной физикой, вдохновлённой опытом Trespasser и доведённой до совершенства.

И, разумеется, главная технологическая демонстрация десятилетия — Crysis. В этой игре шейдеры использовались повсюду: динамическое освещение, объёмные тени, реалистичная вода, невероятная детализация окружения. Ни один персональный компьютер того времени не мог запустить Crysis на максимальных настройках — но как же великолепно эта игра выглядела даже при скромной производительности.

Однако главное значение шейдеров заключалось не только в творческой свободе для разработчиков. Они раскрыли подлинный потенциал видеокарт — потенциал, который выходил далеко за рамки игровой индустрии.

«Неприлично» параллельный

Итак, известно, что игры быстрее работают на видеокарте, нежели на центральном процессоре. Но почему?

Дело в архитектуре.

CPU — это, образно говоря, высокоинтеллектуальные исполнители, но с очень строгими правилами работы. Они спроектированы для выполнения задач последовательно. Процессор обрабатывает инструкции одну за другой с высочайшей скоростью, однако строго в заданном порядке.

Можно запустить множество программ, и будет казаться, что они работают одновременно. В действительности процессор попросту молниеносно переключается между ними.

Этот тип вычислений чаще всего называют MIMD (Multiple Instruction, Multiple Data) — «много инструкций, много данных».

Участь процессора незавидна: стоит выполнить какую-либо операцию не в той последовательности — и программа рухнет. Поэтому, если задача сложная, нередко лучше, чтобы она выполнялась на одном ядре. А если возникает желание задействовать все ядра, приходится явным образом распараллеливать код.

Вот почему замена четырёхъядерного процессора на восьмиядерный далеко не всегда даёт ощутимый прирост производительности в отдельных задачах или играх. Приложение должно уметь работать с многопоточностью, а для этого необходимо специальным образом переписывать код.

Совсем иная картина складывается с видеокартой. Стоит заменить её на более мощную — и частота кадров в игре немедленно возрастает. Никаких дополнительных усилий со стороны программистов не требуется.

Причина в том, что у GPU массово-параллельная архитектура. Её также обозначают терминами SIMD (Single Instruction, Multiple Data) или SIMT (Single Instruction, Multiple Threads) — буквально: «одна инструкция — много данных». Видеокарте не нужно заботиться об очерёдности операций — она просто обсчитывает миллионы пикселей одновременно. Какой пиксель обработать первым, какой последним — не столь существенно.

У подобных задач существует даже специальный термин: embarrassingly parallel, что можно перевести как «чрезвычайно параллельные», хотя буквальный перевод — «неприлично параллельные» — пожалуй, точнее передаёт суть.

До появления шейдеров этот колоссальный потенциал видеокарт был заперт внутри фиксированного конвейера. Вычисления могли вестись лишь в рамках одного специализированного блока.

Шейдеры сняли все ограничения. И внезапно выяснилось, что видеокарты — это, по существу, суперкомпьютеры. А использовать их исключительно для игр — как минимум расточительно.

GPGPU: когда видеокарта стала суперкомпьютером

Постепенно видеокарты превращались в вычислительных монстров — сначала с сотнями, а затем и с тысячами ядер. (Для сравнения: новейшая NVIDIA GeForce RTX 5090, анонсированная в начале 2025 года, содержит 21 760 ядер CUDA, тензорные ядра пятого поколения с производительностью 3 352 AI TOPS и ядра для трассировки лучей четвёртого поколения.) Однако применение этих мощностей по-прежнему ограничивалось играми: шейдеры просто не предназначались для иных задач.

Впрочем, это не останавливало наиболее изобретательных учёных.

Под видом текстур они загружали в видеопамять расчёты молекул, финансовые модели, физические симуляции и прочие научные вычисления. Этот метод получил название GPGPU — General-Purpose computing on GPU, то есть «универсальные вычисления на графическом процессоре».

Одним из таких проектов стал BrookGPU, разработанный студентами Стэнфордского университета. В 2003 году они проводили поразительные эксперименты: просчитывали на видеокартах огромные массивы данных в виде параллельных потоков.

Всё это работало через сложнейшие обходные конструкции и многоуровневые абстракции над DirectX и OpenGL. Но даже в таких стеснённых условиях обнаружилось, что некоторые операции — например, сегментация изображений или трассировка лучей — выполняются на GPU до семи раз быстрее, чем на CPU.

В NVIDIA, разумеется, заметили, что их оборудование используют не по прямому назначению. Однако вместо того чтобы пресечь эту деятельность, компания решила поддержать инициативных исследователей — и, будем откровенны, позаимствовать ряд их идей.

Компания наняла ведущего разработчика BrookGPU — Яна Бака (впоследствии занявшего должность вице-президента подразделения Accelerated Computing в NVIDIA). Под его руководством в 2006 году появилась платформа CUDA (Compute Unified Device Architecture) — набор инструментов для разработчиков, который наконец позволил запускать на видеокартах произвольный программный код без каких-либо обходных решений.

Этот шаг принёс NVIDIA триллионы долларов.

Одна за другой появлялись новые библиотеки и инструменты: OpenCL, TensorFlow, вычислительные шейдеры (Compute Shaders). Исследователи и инженеры по всему миру осваивали вычисления на GPU. И в определённый момент мир словно перевернулся.

Блокчейн, майнинг криптовалют, нейронные сети, NFT — каждая новая волна технологического ажиотажа усиливала спрос на графические процессоры. Сначала все бросились добывать криптовалюту, затем хлынула волна глубокого обучения нейронных сетей. Цены на видеокарты взлетели до небес, начался жестокий дефицит чипов.

А кто оказался на вершине этой новой реальности? Разумеется, NVIDIA. По состоянию на 2025 год рыночная капитализация компании превышает 3 триллиона долларов, что делает её одной из самых дорогих корпораций в мире.

По существу, видеокарты сегодня достаются всем — дата-центрам, исследовательским лабораториям, майнерам, — но только не тем, для кого они создавались изначально: игрокам. «Вы обещали нам красивую графику, а подсунули Скайнет», — иронизируют геймеры в интернете.

И в самом деле: когда стоимость топовых видеокарт, таких как NVIDIA GeForce RTX 5080, достигает шестизначных сумм в рублях, невольно задумываешься — до игр ли тут, если за те же деньги можно развернуть локальную нейросеть?

Впрочем, искусственный интеллект, судя по всему, ждать не намерен.

Из виртуального мира — в реальный

Подобно Нео из «Матрицы», осознавшему, что он способен изменять мир по своему желанию, шейдеры — сначала преобразив виртуальную реальность игр — теперь переписывают правила в мире реальном.

Большие языковые модели, системы искусственного интеллекта, автономные роботы, беспилотные автомобили — всё это стремительно перекраивает экономику, культуру и рынок труда. И всё это, в конечном счёте, стало возможным благодаря той самой маленькой технологии, которая когда-то была придумана для того, чтобы пиксели на экране выглядели чуть красивее.

Быть может, старшее поколение было право, утверждая, что игры до добра не доведут? А быть может, напротив, — именно игры и технологии, рождённые в их недрах, спасут человечество от его собственных ограничений.

Послесловие: ирония истории

Напоследок стоит обратить внимание на любопытный исторический поворот. Когда-то индустрия решительно отказалась от фиксированного конвейера в пользу универсальных программируемых ядер. Однако сегодня NVIDIA вновь делает ставку на специализированные аппаратные блоки: RT-ядра для аппаратной трассировки лучей и тензорные ядра для работы технологии DLSS и задач машинного обучения.

Пока эта стратегия приносит плоды: линейка видеокарт RTX пользуется огромным спросом. Но сумеет ли Дженсен Хуанг вовремя распознать момент, когда специализация перестанет быть конкурентным преимуществом? Или же компания рискует попасть в ту же ловушку, которая в своё время погубила её предшественников — 3dfx, S3 и Matrox?

История, как известно, развивается по спирали. И то, какой виток ждёт NVIDIA и всю индустрию впереди, покажет время.