Вайб-кодинг: революция или иллюзия? Что на самом деле происходит с программированием в 2026 году

222 Вайб-кодинг — слово 2025 года: что это такое, кто заработал миллион и почему Торвальдс называет это катастрофой.
Павел Ельцов 23 апреля 2026 в 11:32

Представьте: вы открываете чат с нейросетью и пишете — «Сделай мне браузерную игру-авиасимулятор с трёхмерной графикой». Идёте варить кофе. Возвращаетесь — игра готова. Проходит семнадцать дней, и на вашем счету миллион долларов выручки.

Именно это произошло с Питером Левелсом из Нидерландов в марте 2025 года. Всего три часа работы, ни одной строки кода, написанной самостоятельно.

Это называется вайб-кодинг. Словарь Коллинза признал его словом года. Четверть стартапов, прошедших через акселератор Y Combinator, создают таким образом девяносто пять процентов своего кода. А инструменты для вайб-кодинга оцениваются в десятки миллиардов долларов.

Но что это вообще такое? Будущее программирования или начало конца?

Одни говорят — революция: любой человек может создать приложение, просто описав его словами. Другие бьют тревогу: армия людей, которые не способны понять код, который они якобы «написали». И когда что-то ломается — а оно ломается непременно — никто не знает, как это починить.

Истина, как водится, находится где-то посередине.В этом материале мы разберёмся в трёх вещах. Первое — откуда вообще взялся этот «вайб» и как он устроен. Второе — что происходит, когда люди начинают строить настоящий бизнес на коде, которого не понимают. И третье — для чего вайб-кодинг действительно был создан.

Спойлер: это не замена программистов.

Глава первая. Откуда взялся этот вайб

Точкой отсчёта явления можно считать февраль 2025 года. Андрей Карпаты — почти легендарная фигура в мире искусственного интеллекта. Один из сооснователей OpenAI, бывший директор по искусственному интеллекту в компании Tesla и тот самый человек, который обучал нейросети водить автомобили.

3 февраля 2025 года он публикует пост в социальной сети X. Запись набирает более пяти миллионов просмотров.

Вот что он написал:

«Есть новый вид кодинга, который я называю vibe coding. Ты полностью отдаёшься вайбу, принимаешь экспоненциальный рост и забываешь, что код вообще существует».

Дальше Карпаты описывает, как теперь устроена его работа. Он разговаривает с нейросетью голосом через программу SuperWhisper. Просит самые, казалось бы, примитивные вещи: «уменьши отступ слева на половину». Почему голосом? Потому что лень искать нужную строчку в коде. Когда искусственный интеллект предлагает изменения, Карпаты жмёт «принять всё». Он вообще не смотрит, что именно нагенерировала машина.

А когда вылезает ошибка? Копирует её текст в чат к боту. Без комментариев и объяснений — просто красный текст из консоли. По его словам, как правило бот сам находит источник проблемы и устраняет её вполне эффективно.

В итоге код разрастается. Карпаты сам признаётся: он уже не понимает, что происходит внутри проекта. Чтобы разобраться, пришлось бы сесть и внимательно читать код несколько часов подряд. Иногда ошибка не поддаётся никаким текстовым командам — тогда он просит делать случайные изменения, пока проблема не исчезнет сама собой.

И вот тут кроется важная деталь, которую многие пропустили. В конце того самого поста Карпаты добавляет оговорку: «Неплохо для одноразовых проектов выходного дня».

Запомните эту фразу: throwaway weekend projects — одноразовые проекты выходного дня.

Однако интернет услышал другое. Широкая аудитория поняла: можно забить на код и просто «вайбить». Оговорка воспринялась как мелкий шрифт в договоре, который никто не читает. Но к этому мы вернёмся чуть позже.

Сначала стоит ответить на вопрос: почему это сработало именно сейчас? Почему не год и не пять лет назад?

Чтобы понять, нужно посмотреть на программирование как на лестницу.

В самом начале этой лестницы лежат нули и единицы. Машинные коды, которые понимает только процессор. Программисты пятидесятых годов вручную переключали тумблеры, чтобы ввести программу в компьютер.

Чуть позже, ступенькой выше, появился ассемблер. Он уже работал с буквами и командами вроде MOV и ADD, но всё ещё требовал думать на языке регистров и адресов памяти.

Ещё выше выросли языки вроде C и Java, где код начал напоминать английские предложения.

Потом пришёл Python — настолько простой, что его часто называют «исполняемым псевдокодом»: языком, на котором можно объяснить алгоритм даже человеку, далёкому от программирования.

Каждая ступенька всё дальше отдаляла программиста от железа. Причём, как это обычно бывает, консерваторы воевали с новыми технологиями. Сначала настоящие программисты писали на ассемблере. Потом настоящие программисты писали на C. Потом оказалось, что настоящие программисты пишут на чём угодно — лишь бы решить задачу.

Вайб-кодинг — это следующая ступенька. Он отдаляет программиста от синтаксиса вообще. Не нужно знать, как правильно расставить скобки в JavaScript. Достаточно сказать, что ты хочешь получить.

Но что конкретно изменилось в технологиях? Почему в 2023 году так не работало, а в 2025-м заработало?

Ответ лежит в двух технических прорывах, которые случились почти незаметно для широкой публики.

Первый прорыв — контекстное окно. Это количество текста, которое нейросеть может «держать в голове» одновременно, и сколько информации она учитывает при генерации ответа.

Представьте, что вы разговариваете с человеком, который помнит только последние три предложения. Вы не сможете обсудить с ним сложный проект, потому что он забудет начало разговора прежде, чем вы дойдёте до конца.

В 2023 году контекстные окна измерялись тысячами токенов — это примерно несколько страниц текста. Можно было показать искусственному интеллекту кусочек кода и спросить: «Что тут не так?» Но скормить ему весь проект целиком — невозможно.

К 2025 году контекст вырос до нескольких миллионов токенов. Это примерно вся кодовая база среднего проекта — около семидесяти пяти тысяч строк кода — целиком и сразу. Теперь можно сказать нейросети: «Добавь систему авторизации». И она поймёт, какие файлы нужно трогать, как они связаны между собой, какие зависимости учесть.

Второй прорыв касается способности моделей рассуждать. Ранние языковые модели просто предсказывали следующее слово на основе предыдущих. Это работало удивительно хорошо для генерации текста, но плохо для решения задач, требующих планирования.

Современные модели научились строить цепочки рассуждений. Прежде чем написать код, модель «думает» вслух, а затем выполняет шаги последовательно, проверяя результат каждого. Если вы пользуетесь нейросетями, вы наверняка сталкивались с этим — как правило, это так называемый «думающий» режим, или Pro-режим.

Эти два изменения — увеличение памяти и появление планирования — превратили искусственный интеллект из умного автодополнения в нечто, напоминающее младшего разработчика. Неопытного, ошибающегося, но способного взять задачу и довести её до результата.

И здесь важно рассказать об одной истории, которая многое объясняет про реальные границы вайб-кодинга.

Свой последний серьёзный проект — чат-клиент под названием Nanochat — Карпаты написал руками. Да, тот самый Карпаты. Человек, который придумал термин «вайб-кодинг» и легитимизировал его для миллионов разработчиков по всему миру.

Почему руками? Он сам объяснил в посте о проекте: «Искусственные интеллект-агенты просто не работали достаточно хорошо. Были бесполезны. Возможно, репозиторий слишком далёк от того, на чём они обучались».

Получается любопытная картина. Человек, открывший дверь в мир вайб-кодинга, сам в эту дверь не заходит, когда дело касается чего-то важного. Инструмент, который он описывал для «проектов выходного дня», другие люди начали применять для продакшена, стартапов, приложений с реальными пользователями и реальными деньгами.

Создатель термина сам очертил его границы — но эти границы увидели далеко не все.

Произошло то, что лингвисты называют семантической диффузией. Изначальный смысл размылся.

Кто-то решил, что вайб-кодинг означает любую помощь искусственного интеллекта при написании кода. Кто-то подумал, что это способ войти в творческое состояние потока. Кто-то вообще интерпретировал это как философию «кодинга по ощущениям», когда пишешь то, что кажется правильным.

Если давать определение точно, вайб-кодинг — это когда ты не понимаешь, что у тебя в коде, и принимаешь изменения на веру. Ещё проще: когда пользователь является дилетантом в работе с кодом.

Людей, которые не понимают код, который они «написали», с каждым месяцем становится всё больше. У них появились инструменты, которые раньше были доступны только профессионалам с годами обучения за плечами.

Карпаты открыл дверь. Но как именно в неё войти? Оказывается, есть несколько способов нырнуть в эту кроличью нору.

Глава вторая. Три способа нырнуть в кроличью нору

Вайб-кодинг условно можно поделить на три уровня вовлечённости.

Уровень первый — чат-боты

Первый уровень — это обычный чат. ChatGPT, Claude, Gemini, Grok и любой из десятков ботов, которые сейчас доступны каждому. Вы открываете браузер, описываете задачу человеческим языком, получаете код, копируете его куда нужно.

Это самый безопасный способ познакомиться с вайб-кодингом. Искусственный интеллект видит только то, что вы ему показали. Он не знает ваш проект целиком, не может залезть в файловую систему, не имеет доступа к вашей базе данных. Вы остаётесь полностью за рулём. Каждый кусок кода проходит через ваши руки, и именно вы решаете, куда его вставить и вставлять ли вообще.

Для небольших задач это работает отлично. Написать функцию сортировки. Разобраться с непонятным сообщением об ошибке. Спросить, что делает странный синтаксис, который вы встретили в чужом коде. Бот объяснит, покажет примеры, предложит варианты.

Но для целого проекта такой подход становится утомительным. Вы превращаетесь в курьера между чатом и редактором кода: скопировал туда, вставил сюда, запустил, получил ошибку, скопировал ошибку обратно в чат, получил исправление, вставил, снова запустил.

Контекст теряется. Бот не помнит, что вы делали пять сообщений назад, если разговор затянулся. Всё приходится объяснять заново.

Зато контроль — стопроцентный. Если бот сгенерировал чушь, вы просто не используете это. При условии, конечно, что вы поймёте, что это чушь.

Уровень второй — умные редакторы

Второй уровень серьёзнее. Это умные редакторы кода, в которых искусственный интеллект уже не слепой гость, а полноправный жилец вашего проекта.

Cursor стал символом этой категории. К ноябрю 2025 года компанию оценили в двадцать девять миллиардов долларов.

Почему такие деньги? Потому что Cursor решает ту самую проблему курьера. Здесь искусственный интеллект видит весь ваш проект. Он читает файлы, понимает структуру, знает, какие библиотеки вы используете. Когда вы говорите «добавь авторизацию», Cursor не просит скопировать код из десяти файлов — он сам находит нужные места и предлагает изменения.

Ключевая функция называется Composer. Вы открываете специальную панель, пишете задачу обычным языком, и искусственный интеллект редактирует сразу несколько файлов одновременно.

При этом вы всё ещё видите, что происходит. Каждое изменение подсвечивается. Можно принять, можно отклонить, можно попросить переделать. Вы всё ещё рулите, но искусственный интеллект сидит рядом на пассажирском сиденье и подсказывает дорогу.

Уровень третий — автономные агенты

Третий уровень меняет всё. Здесь вы перестаёте быть водителем. Вы становитесь менеджером. Или, если говорить честнее, пассажиром такси, который назвал адрес и откинулся на сиденье.

Автономные агенты — такие как Replit Agent или Devin — работают следующим образом. Вы ставите задачу, например: «Сделай систему оплаты с интеграцией платёжного сервиса». И уходите. Можете заварить чай, проверить почту, выгулять собаку.

Агент сам разбивает задачу на шаги. Сам проектирует архитектуру. Сам пишет код. Сам запускает, тестирует, видит ошибки, исправляет их. Часами. Без вашего участия.

Платформа Replit заявляет поразительную цифру: семьдесят пять процентов их пользователей вообще не пишут код. Они только описывают, что хотят получить. Платформа делает остальное.

Звучит как мечта? Так и есть. Но у этой мечты есть тёмная сторона, и мы к ней ещё вернёмся.

Пока важно понять механику. Автономный агент — это модель, обёрнутая в цикл действий. Специалисты называют его OODA: наблюдай, ориентируйся, решай, действуй (от английского Observe, Orient, Decide, Act).

Агент смотрит на текущее состояние проекта. Сопоставляет его с вашим запросом. Решает, что нужно изменить. Вносит изменения. Потом снова смотрит на результат. И повторяет цикл, пока задача не будет выполнена — или пока не упрётся в тупик.

Однако когда что-то ломается, вы оказываетесь в странной позиции. Вы владелец системы, которую не понимаете. Менеджер команды из одного искусственного интеллекта, который не может объяснить свои решения.

Казалось бы, рецепт катастрофы. Но по факту всё оказалось интереснее: на вайб-кодинге можно зарабатывать.

Глава третья. Когда вайб приносит миллионы

Вернёмся к нидерландцу из начала материала. Питер Левелс — человек-легенда среди независимых разработчиков. Он прославился тем, что запускает проекты в одиночку и доводит их до серьёзной выручки без инвесторов и команды.

Март 2025 года. Левелс открывает Cursor, подключает языковую модель Claude и начинает разговаривать с нейросетью. Он хочет сделать браузерную игру — авиасимулятор с трёхмерной графикой и мультиплеером, чтобы можно было летать вместе с другими игроками в режиме реального времени.

Три часа спустя игра работает.

Через семнадцать дней после запуска проект Fly приносит миллион долларов выручки. Триста двадцать тысяч игроков. Пиковая аудитория — двадцать шесть тысяч человек одновременно. Для браузерной игры, сделанной одним человеком за вечер, это поразительные цифры.

Монетизация оказалась простой: хочешь летать на истребителе F-16 вместо стандартного самолёта — плати тридцать долларов. Хочешь рекламу своего продукта на билбордах внутри игрового мира — пять тысяч долларов в месяц за рекламный слот. Предприниматель Илон Маск опубликовал репост проекта со словами «Игры с использованием искусственного интеллекта будут чем-то невероятным» — и это только добавило волны интереса.

Но Левелс — не новичок. У него за плечами годы опыта, десятки запущенных проектов, понимание архитектуры и инфраструктуры. Он знает, что просить у искусственного интеллекта, потому что знает, как устроен программный продукт.

Возникает резонный вопрос: а что насчёт людей, которые вообще не умеют программировать? Сработает ли для них эта магия?

Джош Морер решил проверить. Бывший глава Uber в Нью-Йорке, менеджер и управленец до мозга костей, человек из мира бизнеса. Опыт написания кода — нулевой.

Морер хотел приложение для записи встреч: чтобы оно само расшифровывало разговоры, выделяло ключевые моменты и генерировало резюме переговоров.

Идея понятная, рынок существует, но воплощение требует мобильной разработки, работы с аудио, интеграции с искусственным интеллектом для транскрибации. Раньше это означало либо нанять команду разработчиков, либо потратить год на самостоятельное обучение.

Однако Морер сел за инструменты с искусственным интеллектом и начал описывать, что хочет получить. Первый рабочий концепт появился за один день.

Через восемь месяцев приложение Wave AI приносит четыреста пятьдесят тысяч долларов ежемесячной выручки. Двадцать две тысячи платящих подписчиков. Морер утверждает, что написал «девяносто девять процентов кода самостоятельно с помощью искусственного интеллекта».

Можно подумать, что Морер — исключение. Талантливый бизнесмен, который просто переложил свои управленческие навыки на новый инструмент. Но похожие истории множатся с каждым месяцем.

Если собрать все эти кейсы вместе, вырисовывается закономерность. Вайб-кодинг работает лучше всего там, где скорость важнее совершенства. Прототип для проверки гипотезы. Основа для привлечения первых пользователей. Личный инструмент под конкретную задачу. Продукт, который либо взлетит и будет в дальнейшем переписан профессионально, либо провалится — и никто не заплачет.

Истории успеха соблазнительны. Они создают ощущение, что барьер между идеей и миллионом долларов измеряется теперь часами, а не годами. И отчасти это правда.

Но все эти кейсы объединяет кое-что ещё. Это ранняя стадия. Проверка продукта рынком. Первые деньги и первая эйфория. Ни одна из этих историй пока не прошла испытание временем. Никто ещё не рассказал, каково поддерживать вайб-код через два года. Каково масштабировать команду вокруг кодовой базы, которую никто толком не понимает.

Глава четвёртая. Когда вайб превращается в кошмар

На каждую историю успеха приходится история провала — и последних, к сожалению, даже больше.

Июль 2025 года. Джейсон Лемкин, основатель одной из крупнейших конференций для стартапов в мире — SaaStr, — решает поэкспериментировать. Он слышал про вайб-кодинг, видел истории успеха и хочет попробовать сам. Открывает Replit Agent, начинает строить бизнес-приложение: базу данных с контактами руководителей, инструмент для профессионального нетворкинга.

Девять дней всё идёт хорошо. Агент пишет код, добавляет функции, проект растёт. Тысяча двести шесть записей о руководителях компаний. Тысяча сто девяносто шесть компаний. Месяцы работы по сбору данных.

На десятый день агент удаляет всю базу данных. Просто стирает.

Лемкин потом подсчитал: он одиннадцать раз в явном виде запрещал агенту трогать данные. Писал заглавными буквами. Ставил пометки в коде. Создавал отдельные инструкции. Агент игнорировал всё.

Но это ещё не самое страшное. После удаления агент солгал. Лемкин спросил, можно ли восстановить данные. Агент ответил: невозможно, всё уничтожено, резервных копий нет. Лемкин, к счастью, не поверил и попробовал откатить изменения вручную. Сработало. Данные вернулись.

Но и это ещё не всё. Чтобы скрыть проблему, агент создал поддельную базу данных — четыре тысячи записей о несуществующих людях. То есть искусственный интеллект попытался замести следы.

Ошибки, конечно, случаются. Но эта история наглядно демонстрирует: автономный агент может действовать вопреки явным инструкциям, лгать о последствиях своих действий и пытаться скрыть проблемы. Это не баг в привычном понимании слова. Это нечто принципиально иное.

Теперь представим другой сценарий: Лемкин всё-таки довёл своё приложение до продакшена, и люди начали бы загружать туда свои данные. Нейросеть могла либо удалить их, либо — что ещё хуже — выложить куда-нибудь в открытый доступ.

Пока Лемкин разбирался с удалённой базой, на другом конце интернета разворачивалась история Enrichlead.

Леонель Ацеведо, предприниматель, решил построить SaaS-продукт целиком на базе Cursor. Ноль строк кода руками — принципиальная позиция. Он хотел доказать, что вайб-кодинг работает для настоящего бизнеса. Продукт для обогащения данных о потенциальных клиентах — полезный инструмент для специалистов по продажам.

Запуск прошёл успешно. Первые пользователи появились. Ацеведо начал рассказывать в социальных сетях, как построил продукт полностью с помощью искусственного интеллекта. Делился опытом, отвечал на вопросы, вдохновлял других.

Через два дня после запуска он написал панический пост: «Ребята, меня атакуют. Ключи к интерфейсам сторонних сервисов исчерпаны, люди обходят подписку, создают мусор в базе данных».

Когда исследователи посмотрели на код, они обнаружили классику ошибок новичка. Секретные ключи к API были прописаны прямо во фронтенде — любой мог открыть инструменты разработчика в браузере и увидеть их. База данных была открыта наружу без аутентификации. Проверка входящих данных отсутствовала. Подписку можно было обойти, просто изменив один параметр в запросе.

Искусственный интеллект написал код, который работал. Но этот код был дырявым, как решето. И Ацеведо, не имея опыта в области безопасности, не мог этого увидеть — просто потому что не знал, что именно искать.

Ацеведо закрыл проект. В последнем посте написал: «Cursor ломает другие части кода при каждом исправлении». Попытки залатать одни дыры создавали новые.

Различные исследования дают разные цифры, но порядок один и тот же: от сорока до сорока пяти процентов кода, сгенерированного искусственным интеллектом, содержит проблемы с безопасностью. Почти половина.

Объяснение этому явлению лежит на поверхности. Искусственный интеллект обучался на открытом коде из интернета. А открытый код в интернете полон уязвимостей. Stack Overflow завален примерами, которые работают, но небезопасны. GitHub хранит миллионы репозиториев, написанных новичками. Модель впитала всё это и теперь воспроизводит те же ошибки с уверенностью эксперта.

Линус Торвальдс, создатель операционной системы Linux и системы контроля версий Git — человек, чей код работает на миллиардах устройств по всему миру, — высказался на саммите Open Source в Сеуле.

«Вайб-кодинг — отличный способ заинтересовать новичков компьютерами», — сказал он. А потом добавил: «Ужасная, ужасная идея, если пытаться сделать из этого продукт».

Торвальдс объяснил, почему. Код ядра Linux должен быть скучным, предсказуемым и стабильным. Когда от твоего кода зависят серверы банков, медицинское оборудование, системы управления воздушными судами — «вайб» является последним, что тебе нужно. Нужны люди, которые понимают каждую строчку.

Получается парадоксальная картина. Вайб-кодинг экономит месяцы на старте, но создаёт годы проблем потом. Быстрый путь к рабочему прототипу оборачивается медленной смертью от тысячи ошибок.

Если вайб-кодинг создаёт миллионеров и банкротов одновременно, ускоряет разработку и множит уязвимости, если эксперты называют его и «отличным способом начать», и «ужасной идеей для продукта» — может быть, мы вообще не о том спорим? Может быть, вопрос «заменит ли вайб-кодинг программистов» изначально поставлен неверно?

Глава пятая. Персональный софт: настоящее будущее

Посмотрим на проблему с другой стороны. Сегодня, если вам нужно приложение, вы идёте в магазин.

App Store, Google Play, тысячи вариантов на любой вкус. Находите что-то похожее на то, что искали, скачиваете — и начинаете мириться. Какие-то функции вам не нужны: они загромождают интерфейс, отвлекают, иногда раздражают. Двадцать процентов нужных функций работают не совсем так, как хотелось бы: кнопка не там или логика странная. Интеграция с нужным сервисом отсутствует.

Но вы терпите, потому что альтернатива — писать своё приложение с нуля — требует либо денег на разработчика, либо месяцев обучения программированию.

Почему так происходит? Чтобы окупить затраты, продукты создают для миллионов пользователей. Разработчики усредняют потребности, ищут общий знаменатель, отсекают всё слишком специфичное. Ваш личный случай никому не интересен с экономической точки зрения.

Вайб-кодинг меняет это уравнение.

Здесь напрашивается аналогия. Когда появились цифровые фотоаппараты, а потом камеры в телефонах, профессиональные фотографы не исчезли. Но миллиарды людей получили возможность делать снимки. Появился новый класс контента — любительская фотография. Она не конкурирует с профессиональной. Она существует параллельно, в своей нише, для своих задач.

Вайб-кодинг создаёт такой же параллельный класс — персональный программный продукт. Приложения, которые существуют в единственном экземпляре. Решают задачу одного человека или одной небольшой компании. Они никогда не попадут в магазины приложений и не будут скачаны миллионами. Да и не должны.

Мечта нескольких поколений — делать приложения под себя, а не адаптироваться под чужие — становится реальностью. Не для критических систем. Но для тысячи маленьких раздражающих проблем, которые раньше приходилось терпеть, потому что решение стоило слишком дорого или его попросту не существовало.

И когда мы смотрим на вайб-кодинг через эту призму, вопрос «заменит ли он программистов» теряет смысл. Правильный вопрос звучит иначе: что смогут создавать те, кто раньше не мог создавать ничего?

Заключение

Так есть ли у вайб-кодинга будущее? Да. Но не то, о котором кричат заголовки.

Вайб-кодинг не заменит программистов. Для профессиональной разработки он останется тем, чем его задумывал Карпаты: способом быстро проверить идею и генератором черновиков, с которыми потом работают специалисты.

А вот простые пользователи станут новым классом создателей. Персональный программный продукт станет нормой — так же, как стал нормой личный блог. Большинство этих приложений никто никогда не увидит, кроме их создателей. И это нормально. Фотографии из отпуска тоже смотрит только семья, но камера в телефоне от этого не становится менее полезной.

Карпаты придумал термин для проектов выходного дня. Индустрия попыталась применить его к полноценному продакшену — и получила удалённые базы данных и серьёзные уязвимости в безопасности.

Урок прост: инструмент работает там, где его создатель и предполагал. Для всего остального есть профессионалы.

OpenAI теряет топ-менеджеров накануне IPO — и всё равно стоит $852 млрд

OpenAI потеряла трёх топ-менеджеров накануне IPO. Оценка компании $852 млрд. CFO предупреждает: расходы могут превысить $200 млрд до выхода в прибыль
Павел Ельцов 13 апреля 2026 в 09:45

На этой неделе стало известно, что OpenAI переживает серьёзные кадровые потрясения: операционный директор Брэд Лайткэп переведён на «специальные проекты», коммерческий директор Кейт Рауч ушла в отпуск по болезни, директор по развёртыванию ИИ Фиджи Симо — тоже на больничном. Три ключевые роли оказались вакантны одновременно. Всё это происходит на фоне подготовки к IPO, которое компания планирует провести в конце 2026 года при оценке около одного триллиона долларов.

После мартовского закрытия раунда на $122 млрд текущая оценка компании составляет $852 млрд — крупнейшая в истории венчурного рынка. Тем не менее CFO Сара Фреар предупредила коллег, что IPO в 2026 году может быть слишком ранним: расходы компании могут превысить $200 млрд прежде, чем она выйдет в плюс. OpenAI удвоила число бизнес-пользователей Codex за три месяца — более девяти миллионов платных корпоративных подписчиков — но путь к устойчивой прибыли остаётся неопределённым.

Дженсен Хуанг заявил о достижении AGI

Хуанг объявил AGI достигнутым на GTC 2026. Arm представила первый серверный AI CPU — акции взлетели на 16% за день.
Павел Ельцов 9 апреля 2026 в 04:00

На конференции GTC 2026 в марте глава Nvidia Дженсен Хуанг объявил, что AGI (искусственный общий интеллект) по ряду определений уже достигнут. Заявление немедленно вызвало полемику: критики указали, что Хуанг использует трактовку, при которой AGI означает превосходство ИИ-систем над среднестатистическим человеком по большинству задач — именно такое определение удобно подтверждается текущими результатами бенчмарков.

Параллельно Arm анонсировала первый в истории компании собственный процессор для дата-центров — AGI CPU, разработанный специально под ИИ-агентов. К консорциуму поддержки нового чипа присоединились Meta*, Google и Nvidia. На этом фоне акции Arm взлетели более чем на 16% за одну торговую сессию — рынок воспринял анонс как прямую заявку на долю в серверном сегменте, который традиционно принадлежит x86.

*Компания Meta Platforms Inc. признана экстремистской организацией и запрещена на территории РФ, также как и её продукты Facebook и Instagram.

Samsung: прибыль выросла в восемь раз благодаря ИИ-памяти

Samsung отчиталась о рекордной прибыли: рост в 8 раз за квартал. Драйвер — HBM-память для ИИ. Прогноз на год — $206 млрд операционной прибыли.

7 апреля Samsung Electronics объявила предварительные результаты первого квартала 2026 года: операционная прибыль составила около 57,2 трлн. вон — примерно $38 млрд. Это в восемь раз больше, чем за аналогичный период прошлого года, и больше, чем вся прибыль компании за весь 2025 год. Главный двигатель рекорда — память для ИИ-ускорителей: средние контрактные цены на DRAM в первом квартале выросли на 64%.

Samsung первой в мире начала коммерческие поставки памяти нового поколения HBM4, обогнав конкурента SK Hynix после нескольких лет догоняющей игры. По прогнозу Citigroup, годовая операционная прибыль Samsung в 2026 году может достичь 310 трлн вон — около $206 млрд.

Mistral уместила голосовой ИИ в умные часы

Mistral выпустила голосовую ИИ-модель Voxtral TTS для умных часов и смартфонов. Работает офлайн, 90 мс задержка, 9 языков.
Павел Ельцов 8 апреля 2026 в 06:27

30 марта французская компания Mistral AI выпустила открытую модель синтеза речи Voxtral TTS — и сделала это не для серверов, а для носимых устройств. Модель настолько компактна, что работает прямо на смартфонах и умных часах, без отправки данных в облако. Задержка до первого звука — 90 миллисекунд, то есть фактически реальное время. Поддерживаются девять языков: английский, французский, немецкий, испанский, португальский, итальянский, нидерландский, хинди и арабский.

Стратегически это прямой вызов ElevenLabs и голосовым сервисам OpenAI, которые держат всю обработку в облаке. Mistral делает ставку на противоположное: никаких API-вызовов, никаких задержек, никаких данных за пределами устройства. Для разработчиков это означает безлимитный инференс без поминутной тарификации. Модель уже доступна на Hugging Face под открытой лицензией.

Anthropic случайно раскрыла свою самую мощную модель

Anthropic случайно раскрыла новую модель Claude Mythos — мощнее Opus 4.6. Модель утекла через черновик блог-поста 28 марта 2026.

28 марта из-за ошибки в системе управления контентом в открытый доступ попал черновик блог-поста Anthropic. Из него стало известно, что компания тестирует новую модель под названием Claude Mythos — внутри компании её описывают как «безусловно самую мощную систему из всех, что мы когда-либо создавали». Модель входит в новый ценовой уровень под кодовым названием Capybara и, по утечке, значительно опережает Claude Opus 4.6 в задачах программирования, академических рассуждений и кибербезопасности.

Ирония ситуации не ускользнула от индустрии: компания, которая публично позиционирует себя как эталон ответственного развития ИИ, допустила базовую техническую оплошность именно в момент, когда готовилась объявить о своей наиболее мощной разработке. Официального анонса Mythos пока не было — Anthropic лишь подтвердила факт утечки.

Память дороже золота: ИИ убивает доступные смартфоны

ИИ-бум съедает мировые запасы памяти — смартфоны дорожают, бюджетный сегмент исчезает. IDC фиксирует рекордное падение рынка.
Павел Ельцов 30 марта 2026 в 07:06

Мировой рынок смартфонов переживает крупнейший кризис за десятилетие. Цены на чипы памяти DRAM и HBM почти удвоились только за первый квартал 2026 года — производители памяти массово переориентируются на поставки для дата-центров ИИ, оставляя отрасль смартфонов без комплектующих.

По прогнозу IDC, в 2026 году мировые продажи смартфонов упадут на рекордные 12,9% до 1,12 млрд устройств — минимум за более чем десять лет. Средняя цена аппарата вырастет на 14%, до исторического максимума в $523. Смартфонов дешевле $100 не останется вовсе. Отрасль, десятилетиями жившая за счёт доступного сегмента, оказалась заложником искусственного интеллекта, которому нужна та же самая память.

ChatGPT 5.3 Instant убавил «кринж» и стал меньше умничать

OpenAI выпустила GPT-5.3 Instant — модель перестала «умничать» и теперь отвечает естественно. Галлюцинации снижены на 26%, а GPT-5.4 уже на подходе.
Павел Ельцов 8 марта 2026 в 03:47

3 марта OpenAI выкатила GPT-5.3 Instant — обновление, которое слушает пользователей, а не бенчмарки. Главная претензия к GPT-5.2 была проста: модель слишком много умничала, читала лекции вместо ответов и начинала фразами вроде «Остановись. Сделай вдох» или «Ты не сломан, и это не только твоя проблема». OpenAI назвала этот стиль «cringe» — и убрала его.

GPT-5.3 Instant фокусируется на трёх вещах, которые пользователи чувствуют каждый день: тон, релевантность и естественный разговор. Модель теперь реже отказывается отвечать на безопасные вопросы — раньше GPT-5.2 перестраховывалась и блокировала запросы, которые могла спокойно выполнить. Плюс модель лучше понимает контекст и даёт ответ сразу, без длинных вступлений.

Главное улучшение — точность. Галлюцинации упали на 26,8% при использовании веб-поиска и на 19,7% без интернета. OpenAI протестировала это на вопросах из медицины, права и финансов — областях, где ошибки стоят дорого. Модель также лучше балансирует собственные знания с информацией из интернета, вместо того чтобы просто пересказывать ссылки.

GPT-5.3 Instant доступен всем пользователям ChatGPT с 3 марта, разработчикам — через API под именем gpt-5.3-chat-latest. Предыдущая версия GPT-5.2 Instant останется для платных подписчиков до 3 июня 2026 года, после чего будет отключена. Обновления для версий Thinking и Pro обещаны в ближайшие недели.

Но самое интересное — через час после анонса OpenAI опубликовала в X простую фразу: «5.4 скорее, чем вы думаете». Ссылки на GPT-5.4 уже появлялись в pull requests Codex и в тестах для избранных пользователей. Похоже, OpenAI ускоряет цикл обновлений: раньше новые версии выходили раз в полгода, теперь — каждые 90 дней или быстрее. Гонка reasoning превращается в спринт, и OpenAI не собирается отставать от Anthropic Claude и Google Gemini.

OpenAI снижает планы до $600 млрд — от триллиона к реальности

OpenAI сократила инфраструктурные планы с $1,4 трлн до $600 млрд. Выручка 2025 года — $13,1 млрд, цель 2030 — $280 млрд. Готовится IPO.
Павел Ельцов 1 марта 2026 в 06:02

OpenAI пересмотрела свои амбиции и вместо заявленных в конце 2025 года $1,4 триллиона на инфраструктуру компания теперь планирует потратить $600 миллиардов до 2030 года. Это снижение на 57% — и первый признак того, что даже лидер ИИ-индустрии начинает связывать капзатраты с реальной выручкой, а не бесконечными обещаниями.

Цифры впечатляют: в 2025 году OpenAI заработала $13,1 миллиарда (выше целевых $10 млрд) и потратила $8 миллиардов (ниже планируемых $9 млрд). К 2030 году компания прогнозирует выручку $280 миллиардов — поровну между потребительским и корпоративным бизнесом. Соотношение затрат к доходам 2:1 — агрессивно, но уже не безумно, как раньше.

Параллельно идёт крупнейший раунд финансирования на $100+ миллиардов, где 90% — стратегические инвесторы. Nvidia обсуждает вложение до $30 миллиардов при оценке компании в $730 миллиардов до инвестиции. ChatGPT насчитывает 900 миллионов активных пользователей в неделю (рост с 800 млн в октябре), а Codex обошёл 1,5 миллиона пользователей, конкурируя напрямую с Claude Code от Anthropic.

В декабре OpenAI объявила «code red» — критический режим для улучшения ChatGPT на фоне давления от Google Gemini и Anthropic Claude. Теперь компания готовится к IPO, которое может оценить её в $1 триллион. Вопрос остаётся: хватит ли миллиарда пользователей, чтобы превратиться в машину выручки на $280 миллиардов?

Шейдеры: как маленькая игровая технология породила искусственный интеллект и сделала NVIDIA триллионной корпорацией

Как шейдеры из игр привели к революции ИИ: история эволюции видеокарт от фиксированного конвейера до CUDA и триллионной капитализации NVIDIA.
Павел Ельцов 28 февраля 2026 в 06:52

На заре компьютерных игр каждый новый релиз казался визуальной революцией. Графика развивалась стремительно, однако, положа руку на сердце, ей было куда расти. Достаточно вспомнить Лару Крофт из первых частей Tomb Raider — её угловатые формы, составленные из крупных полигонов, скорее напоминали геометрические фигуры, нежели живого персонажа.

 

Но в начале двухтысячных произошёл перелом. Появилась технология, которая кардинально преобразила графику в играх. Персонажи перестали выглядеть как фигурки оригами, картинка стала всё больше приближаться к реальности, а каждый новый релиз вызывал восторг у игроков.

Однако никто не мог предположить, что эта, казалось бы, небольшая инновация, задуманная исключительно ради красивой картинки, изменит вектор развития целой индустрии и в конечном счёте приведёт к новой промышленной революции, в которой искусственный интеллект постепенно начинает вытеснять человека.

Эта технология — шейдеры.

В этой статье речь пойдёт о том, как динозавры вдохновили Valve на создание Half-Life 2, каким образом видеоускорители превратились в процессоры и породили искусственный интеллект, а компания NVIDIA стала одной из самых дорогих корпораций в мире.

Междоусобные войны видеокарт

Девяностые годы. Рынок компьютерных игр представлял собой неизведанные территории, подобные ещё не открытой карте в стратегии Warcraft. По этим территориям рыскали «войска» графических компаний — небольших фирм, соревновавшихся за право диктовать свои условия.

Самой могущественной силой того времени была 3dfx Interactive. Её графические акселераторы Voodoo и закрытый программный интерфейс Glide преображали игры до неузнаваемости. Владельцы этих карт наслаждались невиданным качеством графики, а все остальные могли лишь завидовать.

Главным соперником 3dfx выступала молодая и агрессивная NVIDIA. Она наносила удар за ударом — чипами RIVA 128 и RIVA TNT, — постепенно отвоёвывая долю рынка.

За спинами лидеров набирала силы ATI (будущая AMD) с линейкой карт 3D Rage. В корпоративном сегменте компания уже чувствовала себя уверенно, однако в игровом пространстве пока отставала, делая ставку на мультимедийные возможности и аппаратное декодирование видео.

На горизонте маячили и менее успешные игроки: S3 Graphics и Matrox.

Каждый производитель строил собственную империю за стенами проприетарных стандартов и не желал договариваться с конкурентами. Разные архитектуры, закрытые программные интерфейсы — игры, прекрасно работавшие на одном железе, отказывались запускаться на другом без мучительных танцев с бубном. Царили хаос и фрагментация.

Но недавно утвердившийся на технологическом троне Microsoft решил навести порядок. Корпорация замыслила загнать всех производителей в единый стандарт — DirectX. Впрочем, сделать это оказалось значительно сложнее, чем представлялось.

Гонка архитектур

В первые годы DirectX развивался семимильными шагами. Microsoft выпускала версию за версией, внедряя все передовые технологии того времени. К седьмой версии DirectX уже уверенно превосходил главного конкурента — OpenGL. Однако, несмотря на бешеный темп обновлений, стандарт всё равно не поспевал за рынком. И дело было не в OpenGL, а в производителях железа.

Видеокарты того времени, строго говоря, ещё не были видеокартами в современном понимании. Их даже называли иначе — графическими ускорителями, или акселераторами.

Эти ускорители работали по так называемому фиксированному конвейеру (fixed-function pipeline). Что это означало на практике?

Вся графика прогонялась через специализированные аппаратные блоки, функции которых были буквально «вшиты» в железо. Разработчики могли пользоваться готовыми инструментами, но не имели возможности менять их поведение по своему усмотрению.

По сути, видеокарта работала как волшебная коробочка со встроенным рецептом. Загружаешь в неё игру — она щедро посыпает её фирменным набором графических «специй», и картинка преображается. Нравится результат — прекрасно. Не нравится — что ж, приобретай новую видеокарту с другим набором «специй», на свой вкус.

Производителям такой расклад был на руку: разница между моделями была очевидной, а значит, продавать их было проще.

Игроков тоже всё устраивало — фиксированный конвейер работал стабильно и выдавал высокую частоту кадров.

А разработчики? Разумеется, подобный подход ограничивал творческие возможности, зато существенно ускорял процесс создания игр. Эффекты не требовалось писать вручную — они уже были заложены в аппаратуру. Достаточно было просто добавить их поддержку в свой проект.

Однако для Microsoft это оборачивалось настоящим кошмаром. Каждую новую аппаратную «особенность» приходилось экстренно добавлять в DirectX, подстраиваясь под рынок видеокарт. А диктовать свои условия, когда ты вынужден лишь догонять спецификации производителей, попросту невозможно.

Казалось, выхода не было. Или казалось, что не было — до тех пор, пока в команду DirectX не пришёл новый человек. Он заявил: «Так работать невозможно!» — и предложил революционную идею, изменившую вектор развития всей индустрии.

Физически корректный провал

Этим человеком был Джонатан «Шеймус» Блэкли — впоследствии известный как один из «отцов» игровой консоли Xbox. Личность разносторонняя: физик по образованию, разработчик игр по призванию и киношник по стечению обстоятельств.

В Microsoft он занимался унификацией драйверов для промышленных и потребительских трёхмерных ускорителей. Блэкли прекрасно понимал: главная преграда на пути стандартизации — фиксированный конвейер с его бесконечным калейдоскопом аппаратных «особенностей».

Но если Microsoft страдала от хаоса в стандартах, то разработчики игр мучились от ограничений самих видеокарт. И Блэкли знал об этом не понаслышке.

До прихода в Microsoft он работал в DreamWorks Interactive — игровом подразделении студии DreamWorks, где создавал физический движок для игры Trespasser, основанной на вселенной «Парка юрского периода».

Физический движок Trespasser был настоящей революцией для своего времени. Физика в игре поражала воображение: предметы можно было поднимать, бросать, расстреливать, а шкала здоровья персонажа отображалась в виде татуировки сердца на груди главной героини — решение, мягко говоря, спорное с точки зрения дизайна, но в те годы это казалось новаторством.

Именно этот физический движок впоследствии вдохновил студию Valve на создание Half-Life 2, а позднее — на разработку Half-Life: Alyx.

Сегодня Trespasser считается культовым проектом, однако в 1998 году игра с треском провалилась. Причина заключалась в ужасном техническом состоянии: спешка, чрезмерные амбиции и, разумеется, ограничения фиксированного конвейера, который попросту не позволял реализовать задуманное.

Но какие же были альтернативы? Ответ пришёл из мира большого кино — а точнее, из области трёхмерной анимации.

История других игрушек

Как человек из мира трёхмерной графики и кинематографа, Шеймус Блэкли, разумеется, знал о достижениях студии Pixar.

В те годы мультфильмы Pixar совершили нечто невообразимое. Никто и представить не мог, что компьютерная графика способна выглядеть настолько правдоподобно. Но каким образом студия этого добилась?

Секрет заключался в одном элегантном приёме. Чтобы цифровые объекты выглядели убедительно, их поверхности должны были корректно взаимодействовать со светом. Глянцевый пластик обязан блестеть, ткань — быть матовой и фактурной, а дерево — сохранять характерный рисунок волокон.

Поэтому для каждого вида поверхностей в Pixar написали специальные программы, описывающие, как именно свет должен с ними взаимодействовать: отражаться, рассеиваться, поглощаться. Эти программы получили название шейдеры — буквально «затенители» (от английского shade — «затенять»).

Шейдеры творили настоящее волшебство. Без них изображение выглядело плоским и искусственным, но стоило их применить — и сцена оживала.

Казалось бы, почему бы не перенести эту технологию в игры? Однако на пути стояли два серьёзных препятствия.

Во-первых, шейдеры требовали огромных вычислительных мощностей. В кинематографе один кадр мог рендериться часами или даже сутками на серверных кластерах стоимостью в миллионы долларов. В играх же каждый кадр должен формироваться за считанные миллисекунды — и не на суперкомпьютере, а на обычном домашнем компьютере.

Во-вторых, Pixar рендерил свои фильмы на центральном процессоре (CPU). Шейдеры — это программы, а для выполнения программ требуется полноценный процессор, а не специализированное устройство для ускорения отрисовки пикселей. Видеокарты с фиксированным конвейером не умели выполнять произвольный код — они лишь пропускали изображение через жёстко заданные аппаратные блоки.

Прорыв в железе

Иными словами, чтобы адаптировать технологию шейдеров для игр, необходимо было решить две задачи.

Первая — переписать значительную часть программного интерфейса DirectX. Задача сложная, но выполнимая.

Вторая, и главная, — убедить производителей видеокарт изменить саму архитектуру своего железа.

Фиксированный конвейер состоял из множества аппаратных блоков, каждый из которых выполнял строго определённую функцию. Маркетологи были в восторге от такого положения дел: «Посмотрите, у нас туман гуще, чем у конкурентов, фильтрация не билинейная, а трилинейная, а какие сглаженные края!»

Теперь же требовалось отказаться от всех этих уникальных торговых предложений и заменить специализированные блоки универсальными вычислительными ядрами, которые подчиняются не производителю, а исполняют код, написанный разработчиками игр.

Задача, мягко говоря, непростая. Но Блэкли помогла сила убеждения.

Сначала он убедил Microsoft. Программируемые шейдеры — это будущее. А кто задаст стандарт, тот и будет это будущее контролировать. Microsoft согласилась.

Затем он убедил производителей. И первой на новый путь встала NVIDIA.

Рождение GPU

В компании уже осознавали перспективность этой идеи. В 1999 году вышел GeForce 256 — первый продукт в линейке GeForce и, по утверждению самой NVIDIA, первый в мире GPU (Graphics Processing Unit) — графический процессор.

Впрочем, по существу, это был в значительной мере маркетинговый ход. Видеокарта по-прежнему использовала фиксированный конвейер. Единственным подлинным новшеством стала аппаратная поддержка T&L (Transform & Lighting) — обработка геометрии и освещения силами видеокарты, а не центрального процессора.

Тем не менее эксперимент удался. Выяснилось, что видеокарта справляется с подобными вычислениями значительно быстрее, чем CPU.

Риски были огромными. NVIDIA не горела желанием отказываться от своих наработок, однако выбора не оставалось. В те годы Дженсен Хуанг возглавлял сравнительно небольшую компанию, тогда как Microsoft была абсолютным монополистом. Бросить вызов «королю» означало выстрелить себе в ногу.

Поэтому NVIDIA приняла условия — и не прогадала.

В ноябре 2000 года вышел DirectX 8 с поддержкой вершинных и пиксельных шейдеров. Вслед за ним появилась GeForce 3 — первая видеокарта с программируемым конвейером и поддержкой нового программного интерфейса.

Фиксированный конвейер ушёл в историю, а вместе с ним — и компании, которые не успели перестроиться: 3dfx, S3, Matrox.

Графические ускорители уступили место графическим процессорам. Игровая индустрия вступила в свой золотой век.

Золотой век игр

С появлением шейдеров разработчики обрели долгожданную творческую свободу. Игры преобразились, а технологические шедевры посыпались один за другим.

Doom 3 — с его динамическим освещением и тенями, которые впечатляли настолько, что игроки буквально замирали перед монитором от ужаса и восторга.

Half-Life 2 — с реалистичной физикой, вдохновлённой опытом Trespasser и доведённой до совершенства.

И, разумеется, главная технологическая демонстрация десятилетия — Crysis. В этой игре шейдеры использовались повсюду: динамическое освещение, объёмные тени, реалистичная вода, невероятная детализация окружения. Ни один персональный компьютер того времени не мог запустить Crysis на максимальных настройках — но как же великолепно эта игра выглядела даже при скромной производительности.

Однако главное значение шейдеров заключалось не только в творческой свободе для разработчиков. Они раскрыли подлинный потенциал видеокарт — потенциал, который выходил далеко за рамки игровой индустрии.

«Неприлично» параллельный

Итак, известно, что игры быстрее работают на видеокарте, нежели на центральном процессоре. Но почему?

Дело в архитектуре.

CPU — это, образно говоря, высокоинтеллектуальные исполнители, но с очень строгими правилами работы. Они спроектированы для выполнения задач последовательно. Процессор обрабатывает инструкции одну за другой с высочайшей скоростью, однако строго в заданном порядке.

Можно запустить множество программ, и будет казаться, что они работают одновременно. В действительности процессор попросту молниеносно переключается между ними.

Этот тип вычислений чаще всего называют MIMD (Multiple Instruction, Multiple Data) — «много инструкций, много данных».

Участь процессора незавидна: стоит выполнить какую-либо операцию не в той последовательности — и программа рухнет. Поэтому, если задача сложная, нередко лучше, чтобы она выполнялась на одном ядре. А если возникает желание задействовать все ядра, приходится явным образом распараллеливать код.

Вот почему замена четырёхъядерного процессора на восьмиядерный далеко не всегда даёт ощутимый прирост производительности в отдельных задачах или играх. Приложение должно уметь работать с многопоточностью, а для этого необходимо специальным образом переписывать код.

Совсем иная картина складывается с видеокартой. Стоит заменить её на более мощную — и частота кадров в игре немедленно возрастает. Никаких дополнительных усилий со стороны программистов не требуется.

Причина в том, что у GPU массово-параллельная архитектура. Её также обозначают терминами SIMD (Single Instruction, Multiple Data) или SIMT (Single Instruction, Multiple Threads) — буквально: «одна инструкция — много данных». Видеокарте не нужно заботиться об очерёдности операций — она просто обсчитывает миллионы пикселей одновременно. Какой пиксель обработать первым, какой последним — не столь существенно.

У подобных задач существует даже специальный термин: embarrassingly parallel, что можно перевести как «чрезвычайно параллельные», хотя буквальный перевод — «неприлично параллельные» — пожалуй, точнее передаёт суть.

До появления шейдеров этот колоссальный потенциал видеокарт был заперт внутри фиксированного конвейера. Вычисления могли вестись лишь в рамках одного специализированного блока.

Шейдеры сняли все ограничения. И внезапно выяснилось, что видеокарты — это, по существу, суперкомпьютеры. А использовать их исключительно для игр — как минимум расточительно.

GPGPU: когда видеокарта стала суперкомпьютером

Постепенно видеокарты превращались в вычислительных монстров — сначала с сотнями, а затем и с тысячами ядер. (Для сравнения: новейшая NVIDIA GeForce RTX 5090, анонсированная в начале 2025 года, содержит 21 760 ядер CUDA, тензорные ядра пятого поколения с производительностью 3 352 AI TOPS и ядра для трассировки лучей четвёртого поколения.) Однако применение этих мощностей по-прежнему ограничивалось играми: шейдеры просто не предназначались для иных задач.

Впрочем, это не останавливало наиболее изобретательных учёных.

Под видом текстур они загружали в видеопамять расчёты молекул, финансовые модели, физические симуляции и прочие научные вычисления. Этот метод получил название GPGPU — General-Purpose computing on GPU, то есть «универсальные вычисления на графическом процессоре».

Одним из таких проектов стал BrookGPU, разработанный студентами Стэнфордского университета. В 2003 году они проводили поразительные эксперименты: просчитывали на видеокартах огромные массивы данных в виде параллельных потоков.

Всё это работало через сложнейшие обходные конструкции и многоуровневые абстракции над DirectX и OpenGL. Но даже в таких стеснённых условиях обнаружилось, что некоторые операции — например, сегментация изображений или трассировка лучей — выполняются на GPU до семи раз быстрее, чем на CPU.

В NVIDIA, разумеется, заметили, что их оборудование используют не по прямому назначению. Однако вместо того чтобы пресечь эту деятельность, компания решила поддержать инициативных исследователей — и, будем откровенны, позаимствовать ряд их идей.

Компания наняла ведущего разработчика BrookGPU — Яна Бака (впоследствии занявшего должность вице-президента подразделения Accelerated Computing в NVIDIA). Под его руководством в 2006 году появилась платформа CUDA (Compute Unified Device Architecture) — набор инструментов для разработчиков, который наконец позволил запускать на видеокартах произвольный программный код без каких-либо обходных решений.

Этот шаг принёс NVIDIA триллионы долларов.

Одна за другой появлялись новые библиотеки и инструменты: OpenCL, TensorFlow, вычислительные шейдеры (Compute Shaders). Исследователи и инженеры по всему миру осваивали вычисления на GPU. И в определённый момент мир словно перевернулся.

Блокчейн, майнинг криптовалют, нейронные сети, NFT — каждая новая волна технологического ажиотажа усиливала спрос на графические процессоры. Сначала все бросились добывать криптовалюту, затем хлынула волна глубокого обучения нейронных сетей. Цены на видеокарты взлетели до небес, начался жестокий дефицит чипов.

А кто оказался на вершине этой новой реальности? Разумеется, NVIDIA. По состоянию на 2025 год рыночная капитализация компании превышает 3 триллиона долларов, что делает её одной из самых дорогих корпораций в мире.

По существу, видеокарты сегодня достаются всем — дата-центрам, исследовательским лабораториям, майнерам, — но только не тем, для кого они создавались изначально: игрокам. «Вы обещали нам красивую графику, а подсунули Скайнет», — иронизируют геймеры в интернете.

И в самом деле: когда стоимость топовых видеокарт, таких как NVIDIA GeForce RTX 5080, достигает шестизначных сумм в рублях, невольно задумываешься — до игр ли тут, если за те же деньги можно развернуть локальную нейросеть?

Впрочем, искусственный интеллект, судя по всему, ждать не намерен.

Из виртуального мира — в реальный

Подобно Нео из «Матрицы», осознавшему, что он способен изменять мир по своему желанию, шейдеры — сначала преобразив виртуальную реальность игр — теперь переписывают правила в мире реальном.

Большие языковые модели, системы искусственного интеллекта, автономные роботы, беспилотные автомобили — всё это стремительно перекраивает экономику, культуру и рынок труда. И всё это, в конечном счёте, стало возможным благодаря той самой маленькой технологии, которая когда-то была придумана для того, чтобы пиксели на экране выглядели чуть красивее.

Быть может, старшее поколение было право, утверждая, что игры до добра не доведут? А быть может, напротив, — именно игры и технологии, рождённые в их недрах, спасут человечество от его собственных ограничений.

Послесловие: ирония истории

Напоследок стоит обратить внимание на любопытный исторический поворот. Когда-то индустрия решительно отказалась от фиксированного конвейера в пользу универсальных программируемых ядер. Однако сегодня NVIDIA вновь делает ставку на специализированные аппаратные блоки: RT-ядра для аппаратной трассировки лучей и тензорные ядра для работы технологии DLSS и задач машинного обучения.

Пока эта стратегия приносит плоды: линейка видеокарт RTX пользуется огромным спросом. Но сумеет ли Дженсен Хуанг вовремя распознать момент, когда специализация перестанет быть конкурентным преимуществом? Или же компания рискует попасть в ту же ловушку, которая в своё время погубила её предшественников — 3dfx, S3 и Matrox?

История, как известно, развивается по спирали. И то, какой виток ждёт NVIDIA и всю индустрию впереди, покажет время.