Почему графика состоит из треугольников? Разбор

В этом материале разбираемся, как устроен 3D рендер, почему игры состоят из треугольников, что такое полигон.
aka_opex 16 сентября 2022 в 08:25

Все объекты в реальном мире состоят из частиц — молекул и атомов. А в виртуальном 3D-мире из треугольников, то есть полигонов.

Так статуя, созданная на движке Unreal Engine 5, состоит из 33 миллионов полигонов. Выглядит невероятно реалистично и на глаз отличить от реального мира невозможно.

Но. Почему треугольники? Хотя на самом деле не только они. Сегодня разберемся, как устроен 3D-рендер, каким образом единички и нолики превращаются в потрясающие миры, объемная объекты отображаются на плоском экране? Тут куча всего интеренсного.

Хранение

И начнем с чайника. Это один из эталонных объектов в компьютерной графике. Благодаря своей форме он хорошо подходит для тестов разных поверхностей. Чайник — это что-то вроде программы Hello World! среди программистов. Давайте сперва давайте поймем, как трехмерный мир видит компьютер?

В 3D-мире всё состоит из точек. Отличие этих точек от тех, что в 2D, наличие дополнительной координаты Z. То есть чтобы создать точку в 3D мире нужно 3 числа, X, Y и Z, длина, высота и ширина.

К примеру посмотрите на эту картинку. Таблица хранит координаты каждой точки, из которой состоит куб. Каждая строка в таблице хранит одну точку. А вот так выглядит файл с 3D точками. То есть текстовый файл с кучей координат.

Но, чтобы создать объект, одних точек не достаточно, поэтому давайте проведем линию из точки A в точку B. Но одной линии тоже не хватает, давайте создадим третью точку и соединим её линиями с точками A и B. Теперь у нас есть треугольная поверхность из которой можно строить 3D фигуры. На первый взгляд может показаться, что фигура слишком простая, как из неё можно хоть что-то сделать. На самом деле всё.

Посмотрите на детализацию этой статуи, а теперь на то, из чего она состоит… да, треугольники. Эти детали называются полигонами и из них строится всё, что вы видите в 3D играх. Треугольник — это минимальное количество точек, используемых для создания полигона, который может загрузить видеокарта.

Взглянем на ту же картинку, но с новой таблицей. Правая таблица хранит информацию о треугольниках. Вся суть в том, что чтобы нарисовать треугольник, нам всего лишь нужно указать ссылки на 3 точки. Интересно, что треугольники не хранят сами точки, а именно ссылки на местонахождение этих точек в памяти. Это очень важно знать, дабы избежать создания лишних копий. А вот так выглядит хранение треугольников в текстовом файле. Один треугольник = 3 ссылки на точки.

Есть еще один важный момент. Кстати, обратите внимание на цифры. Координаты квадрата начинаются с нулей. Если всё начинается с одного места, объекты накладываются друг на друга. Для того, чтобы это избежать, нужно перевести положение квадрата с локальной системы координат в глобальную.

Самый простой способ — перемножить сетку 4 на 4 на координаты объекта. Вдаваться в подробности не будем, просто скажем, что перемножив сетку на координаты объекта, можно изменить его положение, вращение, размер и даже систему координат.

Только треугольники?

Но чем они так хороши? На самом деле используются не только они. Некоторые из вас, кто занимается 3D-дизайном могут возразить и сказать, что на самом деле всё состоит из прямоугольников. Тут важно отметить, что в 3D-графике ещё есть такое понятие как прямоугольный полигон, или же квад. Квады практически всегда используют при создании 3D-объектов. Причиной этому служит тот факт, что квады гораздо легче делить. При делении треугольников, могут возникнуть искажения на кривых поверхностях, как на этом снимке. Поэтому при в моделинге 3D-текстур, треугольники стараются избегать.

Но, когда 3D-модель (или ассет) создан, все квады превращаются в треугольники, так как точек меньше и математика с ними гораздо проще.

Смотрите, плоские полигоны гораздо проще рендерить, по этому они более предпочтительны. Если мы возьмем квадратный плоский полигон и изменим расположение одной точки, он перестанет быть плоским и выйдет из так называемой полигонной сетки. Из-за этой фичи, нужно проводить дополнительные вычисления, чтобы проверить плоский ли полигон или нет. Треугольники от этого не страдают, так как какую точку не перемести, треугольный полигон останется плоским. Профит.

Нюансы хранения

Также важно упомянуть Level of Detail, или же LOD. Удалённые объекты занимают очень малую часть экрана и их детали рассмотреть невозможно. Философия проста, зачем дальним объектам много полигонов, если их не видно. В кратце LOD сокращает количество полигонов на всём, что находится далеко от камеры и плохо видно.

Рендеринг

Есть одна важная вещь, о которой немногие догадываются: 3д игры на самом деле не трехмерные. Мы смотрим на них через дисплей, который плоский. И имеет только две координаты.

С хранением 3D-штук разобрались, теперь о том как превратить их в 2D изображение, которое мы видим на экране. И делать это желательно 60 раз в секунду.

Перспективная проекция

Ну начнём с того, что всё, что мы видим на экране на самом деле 2D. Определённый цвет пикселей на экране меняющийся в правильной последовательности дает иллюзию трехмерного пространства.

То есть, нам надо трехмерный мир спроецировать в плоскую картинку. Как это делается? Чтобы добиться этой иллюзии, используется техника перспективной проекции.

Эта техника создает плоское изображение 3D объектов, которое отображается на экране так, что результат кажется трехмерным.

Подход простой: удаленные объекты кажутся меньше, близкие больше. Работает это так, нам нужно спроецировать каждую точку объекта на экран в перспективе. Далее начинается школьная геометрия. мы видим такой треугольник, а точнее 2. Есть высота дерева в 3д мире — это У. Нам нужно найти значение Ys, что является высотой объекта на экране. Из уроков математики мы знаем, что боковые стороны подобных треугольников пропорциональны друг другу. Из этого мы делаем вывод, что боковая сторона первого треугольника, деленная на расстояние до экрана равна боковой стороне второго треугольника, деленного на расстояние до объекта. После перестановки, мы видим, что финальное значение равно расстоянию до экрана, деленного на расстояние до объекта, умноженного на его высоту. С иксом тоже самое, просто нужно заменить y на x.

Но на этом не всё. Чтобы объект попал на экран нам нужно совершить ещё 2 действия. Для начала перевести полученные координаты в орфографическое пространство, чтобы соответствовать плоскости наших мониторов. После чего их нужно централизовать, переведя в Vulkan’s Canonical view volume. Это уже то, что мы видим на экране.

Обрезка

Если просто забросать 3D-сцену треугольниками, может возникнуть проблема, игра начнет лагать. Благо есть читерские методы, которые позволяют легко ускорить рендер.

Например можно рендерить только те объекты, которые находятся в направлении, куда смотрит игрок. Этот способ называется frustum culling.

Слово Фрустум — это конусовидная призма, форма, которую принимает область видимости камеры.

У этого способа есть старший брат, называется occlusion culling, который работает хитрее: удаляет те объекты, которые перекрывают другие!  То есть те объекты, на которые вы не смотрите — реально не существуют.

Например, можно посмотреть как это реализовано на движке анриал: в специальном режиме видно, что все объект вне зоны видимости просто пропали из сцены.

Ещё одна важная техника в 3D-рендеринге называется clipping или обрезка по нашему. Как следует из названия, всё, что не попало в угол обзора, срезается для лучшей производительности. Clipping отличается тем, что она может обрезать часть объектов.

Кстати, разница clipping’a и ранее упомянутого culling’a в том, что первый метод удаляет полигоны, которые не попали в кадр, в то время как culling удаляет сами объекты на программном уровне.

После этого, значения нужно перемножить снова, но уже на сетку окна приложения. Это нужно например если вы играете в оконном режиме.

Растеризция

Теперь финальная часть, вся графика отображается на вашем экране с помощью процесса рестаризации, который берет все эти сложные линии и формы, полученные после перспективной проекции и приближает их к тому, как должны быть окрашены пиксели. В самом простом варианте растеризации ставится точка в центре пикселя и если объект задет, пиксель окрашивается, если нет, берём пиксель с другого объекта. Но такой способ создает очень рваную и пиксельную картинку. Здесь помогают разные алгоритмы сглаживания, которые делают переходы гораздо мягче и картинка получается более четкой.

GPU

За рендер 3D-объектов отвечает GPU. Да, тот самый графический чип, который позволяет нам играть в игры 4K 120 FPS. В этом ему помогает огромное количество ядер, гораздо больше, чем у центрального процессора. К примеру у RTX 3090 10496 ядер, в то время как у ryzen 7 5800x всего 8.

И тут вы можете спросить, а что нам мешает использовать графический процессор вместо центрального, ведь в нём так много ядер, а значит он мощнее. На самом деле нет. Ядра GPU отличаются от CPU тем, что они гораздо глупее и предназначены для простых, монотонных работ с графикой. CPU же в свою очередь имеет очень умные ядра, которые способны работать над очень сложными задачами быстро и независимо друг от друга. Другими словами если ядра в графическом процессоре это муравьи, которые строят домик, их много, но работа не требует много интеллекта. То ядра в центральном процессоре это учёные, создающие вакцину от коронавируса.

Скорость современных видюх просто поражает. Например вот видео где парень рендерит 312 миллиардов полигонов на RTX 3090 в реальном времени.

Итог

На этом всё. Есть ещё много того, что мы не разобрали, к примеру трассировка лучей или Ray Tracing, Shading и Anti-Aliasing. В общем, это еще несколько интересных тем, которые можно разобрать в будущем…

NVIDIA GeForce RTX 3080 Ti и 3070 Ti представлены. Российские цены внутри

Праздник на улице тех, кто ждал новую графику NVIDIA. В первую очередь, это конечно геймеры, но мы ничего не знаем про хэшрейт карточек…
aka_opex 1 июня 2021 в 12:23

В рамках выставки Computex 2021, которая проходит в онлайн-формате, компания NVIDIA представила две новых видеокарты — GeForce RTX 3070 Ti и GeForce 3080 Ti.

3080 Ti получила архитектуру NVIDIA Ampere. Она в 1,5 раза мощнее в сравнении с моделью предыдущего поколения NVIDIA GeForce RTX 2080 Ti. При это отмечается мощность в 34 Shader-TFLOPS, 67 RT-TFLOPS и 273 Tensor-TFLOPS. А вот по дизайну и внешности она похожа на обычный RTX 3080. В RTX 3080 Ti установлено 10240 ядер CUDA, 12 ГБ GDDR6X, а показатель мощности TDP составляет 350 Вт. Карта поддерживает технологию DLSS и как следует из названия — трассировку лучей.

GeForce RTX 3070 Ti несколько проще. Внутри неё 6144 ядра CUDA, 8 ГБ памяти GDDR6X, а TDP составляет 290 Вт. Эта карта производительнее чем GeForce RTX 2070 SUPER в 1,5 раза.

Российские цены и доступность

GeForce RTX 3080 Ti будет доступен с 3 июня, а RTX 3070 Ti — с 10 июня. Оба графических процессора будут доступны в видеокартах, включая модели с заводской частотой и заводским разгоном, у ведущих производителей ASUS, Colorful, EVGA, Gainward, Gigabyte, Inno3D, MSI, Palit, Zotac и других региональных поставщиков.

Цены на GeForce RTX 3080 Ti в России стартуют от 116 900 рублей, в Украине – от 43 500 гривен, в Казахстане – от 679 900 тенге.

Цены на GeForce RTX 3070 Ti стартуют от 57 900 рублей, в Украине – от 21 590 гривен, в Казахстане – от 336900 тенге.

MSI GF65 Thin: Мой первый ноутбук с RTX 3060

Наконец-то, у нас получилось достать новейшую графику от NVIDIA. Правда в ноутбуке, зато по цене полноразмерной. Давайте посмотрим что и как.
vedensky 22 апреля 2021 в 07:30

Странные времена настали. Новое поколение видеокарт NVIDIA представили полгода назад, но купить что-то по-прежнему невозможно. По крайней мере, по адекватной цене.

Но вот парадокс — отдельно видеокарту не купить, зато можно купить целый ноутбук с новенькой RTX 3060 практически по цене видеокарты. И такой ноутбук есть у нас. Это MSI GF65 Thin — ноутбук, в котором есть NVIDIA GeForce RTX 3060 и нет ничего лишнего.

Так давайте посмотрим, стоит ли покупать один из самых доступных ноутбуков с графикой нового поколения.

Железо

Сразу начнем с главного достоинства этого ноутбука — железо:

  • Intel Core i7-10750H
  • Comet Lake-H, 14 нм++
  • Базовая частота: 2.6 ГГц
  • Максимальная частота: 5 ГГц (в режиме Turbo)
  • 6 ядер / 12 потоков
  • TDP: 35-45 W

Процессор тут от Intel с архитектурой Comet Lake-H, модель Core i7-10750H. Это 10-е поколение. Он правда на 14нм, а не 10 нм. Но сейчас все процессоры Intel, которые сделаны по 10 нм стандарту — максимум четырехъядерные. А тут у нас 6 ядер, 12 потоков, да и тактовая частота не маленькая — вплоть до 5 ГГц.

В итоге, процессор, конечно, не топовый и выбран он скорее из экономии. Но судя по стоимости ноутбука, в этом плане с задачей он справляется. Так как на остальном железе явно не экономили.

Тут вам и быстрая память DDR4 с частотой 3200 МГц. В моей комплектации установлено две планки по 8 ГБ, но при желании можно проапгрейдить до 64 ГБ.

Также установлен быстрый SSD от Micron на 512 ГБ + есть слот под второй SSD.

RTX 30

А самая королевская железка — это конечно графика NVIDIA GeForce RTX 3060.

Почему вообще все охотятся за RTX 30-й серии?

Ну смотрите. 20-я серия карточек от Nvidia на архитектуре Turing, безусловна стала прорывной. Эти карточки позволили впервые в реальном времени просчитывать фотореалистичное освещение в играх благодаря технологии трассировки лучей. И это далеко не единственная инновация RTX 20-й серии. Мы подробно рассказывали об этом в ролике про видеокарты, посмотрите если интересно.

Но при всех достоинствах у прошлого поколения было два огромных недостатка. И первый — они просто были недостаточно мощные. Мы не получили особого прироста производительности в стандартных шейдерных вычислениях, да и с рейтрейсингом карточки не особо справлялись.

А во-вторых, карточки получились уж очень дорогие.

И обе эти проблемы были решены в 30-й серии.

Благодаря переходу на новую архитектуру Ampere производительность выросла примерно в два раза.

В новых карточках обновили все типы ядер:

  • Новые шейдерные ядра, стали обрабатывать две операции за один такт вместо одной.
  • Новые рейтрейсинг ядра разогнались в 1,7 раза
  • Новые тензорные ядра, которые отвечают за технологию DLSS и прочие нейронные вычисления так вообще стали в 2.7 раза быстрее.

При этом за счет перехода на 8 нм техпроцесс от Samsung видеокарты стали в 2 раза более энергоэффективные.

Вот только с ценами вопрос до конца решить не получилось. С одной стороны — официальные цены, они вполне себе норм. Но из-за дефицита такие цены мы увидели только один раз, во время их анонса.

Также NVIDIA серьезно прокачали мобильные версии карточек, которые получили свои уникальные технологии.

Например, технология Dynamic Boost 2.0. При помощи ИИ, NVIDIA научились автоматически распределять питание между видеокартой, графической памятью и процессором, что нехило прокачало производительность.

Следующая крутая штука Resizable BAR — это технология, которая позволяет процессору получить прямой доступ к видеопамяти и использовать её как обычную оперативку.

Ну и конечно прокачали DLSS, который стал работать в 2 раза быстрее.

Но вместе с этим в этом году, NVIDIA довольно сильно порезала нотбучные версии видеокарт. Наша 3060 в дизайне Max-Q может иметь на борту только 6 ГБ памяти, а не 12 ГБ, как в десктопной технологиии, а процессорная мощность сокращена на 15%. Но это еще не плохо: RTX 3070 и RTX 3080 порезали куда сильнее.

Тем не менее мобильная RTX 3060 — это мощная видеокарта. Она на 28% быстрее мобильной RTX 2060, и даже быстрее RTX 2070.

А такой мощности должно хватить с головой для большинства AAA-тайтлов в разрешении FHD. Впрочем, мы это еще проверим.

Ну и напоследок, в ноутбуке установлена царская система охлаждения Cooler Boost 5, которая состоит из двух вентиляторов, трёх радиаторов и целых шести медных теплотрубок.

Источник: 3DNews — Обзор игрового ноутбука MSI GF65 Thin 9SEXR: четырехъядерные процессоры все еще в деле

С точки зрения охлаждения ноутбук ведет себя отлично. В стресс-тестах и играх температура процессора и видеокарты редко поднимается выше 80 градусов. Уровень шума тоже не очень высокий, при полной нагрузке в режиме Extreme Performance вентиляторы набирают в районе 38 дБ.

Корпус и порты

С внутренностями разобрались, что снаружи?

Название модели GF65 Thin намекает, что для игрового ноутбука он достаточно компактный и тонкий. Так и есть.

Размеры: 359 x 254 x 21,7 мм

Вес: 1,86 кг

Обратите внимание на толщину — всего 21,7 мм

Во многом так получилось потому, что в основном корпус пластиковый, причем пластик довольно тонкий, что ощущается.

Зато крышка и палмрест — металлические, это приятно. Правда металл тут получился уж очень маркий. В общем, с точки зрения эстетики, есть вопросы.

Зато с точки зрения практичности, всё здорово. Уровень сборки хороший: ничего не болтается, нет зазоров, дисплей уверенно держит заданное положение и раскрывается примерно на 160°.

Клавиатура и тачпад нареканий не вызывают. Есть все необходимые порты, плюс есть поддержка поддержка Wi-Fi 6 и Bluetooth 5.1.

А вот все разъёмы, порты и стандарты:

  • 2 x Type-C USB 3.2 gen.1
  • 2 x Type-A USB 3.2 gen.1
  • 1x RJ45
  • 1 x HDMI
  • 1x Audio combo разъем
  • Wi-Fi 6, Bluetooth 5.1

Звук из динамиков для ноутбука тоже вполне приличный. Веб-камера присутствует, в правильном месте над дисплеем.

Дисплей

А вот к самому дисплею есть вопросы.

Это 15,6-дюймовая панель IPS уровня, с хорошими углами обзора и частотой развертки 144 Гц. Дисплей не очень яркий, примерно 260 нит, но для игр в помещении — этого абсолютно достаточно. Поэтому для игр дисплей шикарно подходит.

А вот для работы с цветом — нет. Охват sRGB тут всего 56%. Поэтому если хотите работать с графикой, смотрите модели подороже, либо подключайте внешний монитор.

Игры

Но нас то с вами интересуют игры! Давайте посмотрим на что способен этот ноутбук.

Я запустил на нём сначала Counter Strike: Global Offensive. В Full HD разрешении получилось от 150 до 300 FPS.

Следующим мы запустили Doom Eternal и внезапно снова стабильные 144 кадра в секунду, то есть на пределе частоты дисплея.

А в Cyberpunk 2077 с RTX и автоматическим DLSS получилось 60 кадров в секунду, ниже почти не падает…

Да, кстати, все тесты я проводил в режиме Extreme Performance, что был выставлен в Dragon Center.

Выводы

В целом у MSI получилось сделать ноутбук без компромиссов, в котором с одной стороны нет ничего лишнего, с другой — грамотно расставлены приоритеты. Надо подчеркнуть, что это максимально доступная модель на рынке с GeForce RTX 3060.

А что важно для игрового ноутбука:

  1. Высокая производительность в играх
  2. Хорошое охлаждение
  3. Быстрый дисплей.

Тут всё это есть. И при этом в достаточно компактном корпусе, а сам ноутбук можно даже назвать доступным.

NVIDIA DLSS появится в Nintendo Switch 2

Одна из главных технологий NVIDIA появится в новой версии консоли. Что улучшится и для чего она будет нужна?
a.chuyashov 24 марта 2021 в 06:54

Новая версия Switch будет поддерживать NVIDIA Deep Learning Super Sampling (сглаживание с алгоритмами глубокого обучения) или DLSS. Это новая технология рендеринга, которая использует искусственный интеллект для более эффективной отрисовки графики с высокой точностью её отображения в играх.

«Это позволит Nintendo Switch 2, в котором также будет обновлён и дисплей, воспроизводить игровые визуальные эффекты с качеством 4K при подключении к телевизору», — сказали люди, которые попросили не называть их имен.

Про другие новшества консоли и примерную дату её выпуска мы писали ранее.

Новый набор микросхем NVIDIA также обеспечит улучшенный процессор и увеличенный объем памяти. Поддержка DLSS потребует добавления нового кода в игры, поэтому он будет в первую очередь использоваться для улучшения графики в будущих играх, о чём заверили несколько разработчиков игр для Nintendo Switch.

DLSS была впервые представлена ​​как функция масштабирования изображения в 2018 году и остаётся эксклюзивной для видеокарт NVIDIA. Но теперь она ещё будет представлена и в новом поколении Switch’а!

Доступная GeForce 3060 и RTX30 на ноутбуках: NVIDIA на CES 2021

aka_opex 13 января 2021 в 10:00

Компания NVIDIA в рамках CES 2021 объявила о старте продаж ещё одной видеокарты на архитектуре NVIDIA Ampere — самой доступной GeForce RTX 3060. Новая видеокарта появится в продаже в России по цене от 32 990 рублей.

Графические процессоры с цифрой 60 на конце традиционно становятся популярными у массового пользователя. По данным Steam именно такие видеокарты использует большинство.

GeForce RTX 3060 — это полноценная видеокарта, которая поддерживает технологию трассировки лучей, а также DLSS. В сравнении с GeForce 1060 она обладает вдвое большей производительностью и десятикратной скоростью трассировки лучей. Пк с такой видеокартой справится с современными играми, такими как Cyberpunk 2077 и Fortnite даже с включенной технологией RTX. Производитель завялет о возможности играть в 60 fps.

Ключевые особенности GeForce RTX 3060:

  • 13 TFLOPs в шейдерных операциях
  • 25 TFLOPs в трассировке лучей
  • 101 TFLOPs в операциях тензорных ядер для технологии NVIDIA DLSS (Deep Learning Super Sampling)
  • 192-битный интерфейс памяти
  • 12ГБ памяти GDDR6

Также здесь будет доступна технология Resizable BAR, которая поддерживается во всей серии GeForce RTX 30, начиная с RTX 3060. Совместимая материнская плата и PCI Express способны обеспечить быстрый доступ CPU ко всей памяти графического процессора и обеспечивает прирост производительности во многих играх.

Также RTX 3060 поддерживает инновации GeForce, длоступные в 30 серии: NVIDIA DLSS, NVIDIA Reflex и NVIDIA Broadcast. Все эти технологии повышают производительность и качество изображения. Также поддерживается технология трассировки лучей.

Заодно NVIDIA объявила о старте продаж более 70 ноутбуков с поддержкой архитектуры NVIDIA Ampere. Ноутбуки со встроенной графикой GeForce RTX 30 будут стоить от 99 999 рублей. Такие ноутбуки поддерживают технологию Max-Q третьего поколения.

Первые ноутбуки с GPU на базе архитектуры Ampere поступят в продажу уже с 26 января от ведущих производителей: Acer, Alienware, ASUS, Dell, HP, Lenovo, MSI, Gigabyte. Сначала в продаже появятся ноутбуки GeForce RTX на базе GPU GeForce RTX 3080 и GeForce RTX 3070, затем станут доступны ноутбуки с GPU GeForce RTX 3060.

Ноутбуки с RTX 3060 стартуют по цене от 99 999 рублей для России и являются производительнее ноутбуков с предыдущим флагманом NVIDIA — GeForce RTX 2080 SUPER, которые обычно стоили более, чем в 2 раза дороже.

Ноутбуки с RTX 3070 стартуют по цене от 139 999 рублей для России и их производительность на 50% быстрее моделей на базе RTX 2070.

Системы с RTX 3080 стартуют от 199 999 рублей для России.

Как работает видеокарта NVIDIA? Разбор

Рейтрейсинг, тензорные ядра, Тьюринг и Паскаль — все это про видеокарты. Сегодня мы досконально разберёмся — как они работают.
vedensky 29 декабря 2020 в 06:01

Мы привыкли воспринимать видеокарты как дополнение к основному процессору. А бывают даже интегрированные видюхи. Но на самом деле. Видеокарта — это компьютер в компьютере, который выполняет намного больше операций, чем остальные компоненты системы. Смотрите сами:

  • В центральном процессоре — 4, 8, ну может 16 ядер. В видеокарте вычислительных блоков — тысячи!
  • В ней миллиарды транзисторов, гигабайты своей видеопамяти с пропускной способностью до терабайта в секунду.
  • И всё это потребляет мощности, весит и стоит как отдельный комп!

Вот например характеристики GeForce RTX 3090:

  • Ядра CUDA: 10496 | Тензорные ядра : 328 | Ядра трассировки лучей: 82
  • 28 млрд. транзисторов
  • Видеопамять: 24 ГБ GDDR6X
  • Пропускная системной памяти: > 1 ТБ/с
  • Цена: от 136 990 руб.

Но раз видюхи такие производительные, зачем нам вообще центральный процессор? И в чем всё-таки отличия CPU от GPU?

А чем видеокарты отличаются между собой? Как такая бандура помещается в ноутбук? И главное выясним, можно ли в играть в Cyberpunk 2077 на ноутбуке на ультра-настройках. Поговорим об этом и о многом другом в большом разборе!

Сейчас видеокарты много чего умеют делать и часто делают некоторые задачи куда быстрее и эффективнее CPU? Но к такому положению вещей мы пришли не сразу. Первые видеокарты было бы справедливо назвать ASIC-ками (Application-Specific Integrated Circuit), то есть интегральными схемами специального назначения. Что это значит?

Центральный процессор — это универсальный чип. Он может выполнять совершенно разного рода задачи. Всё потому, что каждое ядро центрального процессора — это много разных блоков, каждый из которых умеет делать свой тип вычислений.

Это удобно, потому как на центральном процессоре мы можем сделать любое вычисление. И в принципе, один огромный ЦП может заменить собой вообще все остальные чипы. Но естественно, это будет неэффективно. Поэтому для специфических задач на помощь центральному процессору часто приходят сопроцессоры или ASIC-ки то есть отдельные чипы, заточенные под эффективное решение какой-то конкретной задачи.

Так в середине 90-х такой конкретной задачей стало ускорение первых 3D-игр вроде Quake!

Первые видеокарты

Без ускорения Quake выглядел достаточно постредсвенно. Всё очень пиксельное и тормозное.

Но стоило прикупить себе волшебный 3D-акселератор. Подключить его к вашей основной 2D-видеокарте снаружи коротким VGA кабелем. Да-да, раньше это делалось так. И Quake превращался в нечто запредельное. Игра становилась, плавной, красочной, а главное работала в высоком для того времени разрешении и соответственно никаких пикселей.

Тогда это воспринималось практически как магия. Но за счет чего происходило такое кардинальное улучшение картинки? Чтобы ответить на этот вопрос, давайте разберемся как работает видеокарта поэтапно.

Как работает видеокарта?

Этап 1. Растеризация.

Трёхмерный объект изначально векторный. Он состоит из треугольников, которые можно описать вершинами. То есть, по сути, объект — это набор вершин, со своими координатами в трехмерном пространстве.

Но ваш экран двумерный, да ещё и состоит из пикселей. Так как нам отобразить векторный 3D объект в двухмерном пространстве? Правильно — спроецировать его!

Мы переносим координаты вершин на плоскую поверхность соединяем их при помощи уравнений прямых на плоскости и заполняем пикселями плоскости треугольников. На этом этапе мы получаем двухмерную проекцию объекта на экране.

Этап 2. Текстурирование

Дальше нам нужно как-то раскрасить модельку. Поэтому на растрированный объект по текстурным координатам натягивается текстура.

Но просто натянуть текстуру недостаточно, ее нужно как-то сгладить. Иначе при приближении к объекту вы просто будите видеть сетку текселей. Прям как в первых 3D-играх типа DOOM. Поэтому дальше к текстуре применяются различные алгоритмы фильтрации.

На первых видеокартах применялась билинейная интерполяция. Её вы и видели на примере с Quake. Всё, что она делает — это линейно интерполирует промежуточные цвета между четырьмя текселями, а полученное значение становится цветом пикселя на экране.

Такую интерполяцию активно используют используют и сейчас. Но в дополнении к ней также делают трилинейную интерполяцию — это еще более продвинутая версия сглаживания, но используют её только на стыках разных уровней детализации текстур, чтобы их замаскировать.

А вот чтобы вернуть четкости текстурам под углами к камере используют анизотропную интерполяцию. Чем выше её коэффициент тем четче получается картинка, так как для получения цвета каждого пикселя делается до 16 выборок. Особенно это заметно на поверхностях, находящихся под острым углом к камере. То есть, к примеру, на полу.

Окей, теперь мы получили цветное изображение. Но этого всё ещё недостаточно, потому как в сцене нет освещения. Поэтому переходим к следующему этапу с интригующим названием пиксельный шейдер или затенение пикселей.

Этап 3. Пиксельный шейдер.

Вообще шейдер — это штука, которая позволяет программисту что-то делать с вершинами, треугольниками и пикселями на программном уровне. В случае Пиксельных Шейдеров — это даёт разработчикам разработчиком возможность динамически менять цвет каждого пикселя экрана по программе.

Кстати, впервые поддержка простых шейдеров появились в 2001 году, когда появилась NVIDIA GeForce 3. До этого освещение тоже делалось, но аппаратными средствами и разработчики особо не могли влиять на результат. Так вот сегодня это самый ресурсоемкий этап, на котором для каждого пикселя нужно просчитать как он отражает, рассеивает и пропускает свет. Как ложатся тени по поверхности модели и прочее. То есть иными словами рассчитывается финальный цвет пикселя.

Каждый объект сцены описывается при помощи нескольких текстур:

  • Карта нормалей, текстура, в которой хранятся векторы нормалей для каждой точки поверхности. При помощи этих векторов рассчитывается попиксельное освещение.
  • Карта зеркальности, которая описывает сколько света отражается от поверхности.
  • Карта шероховатостей (roughness mapbump map), которая описывает микрорельеф поверхности или то, как поверхность будет рассеивать свет.
  • Альбедо карта, то есть карта диффузии или естественный цвет объекта.
  • И прочие.

Этап 4. Сохранение

После кучи вычислений при помощи информации из всех вышеперечисленных текстур наступает последний этап. Мы получили финальный цвет пикселя и сохраняем его в видеопамять. А после обработки всей сцены мы уже можем выводить картинку на экран.

Мощность

Все эти вычисления нужно проводить очень быстро и главное параллельно. Например, чтобы вывести 60 раз в секунду 4К-изображение нужно посчитать цвет примерно полумиллиарда пикселей. А если мы хотим 120 FPS — то целый миллиард. Именно поэтому видеокарты отличаются по структуре от центрального процессора.

Центральный процессор заточен под последовательное, но очень быстрое выполнение множества разнообразных вычислений. Поэтому ядер в центральном процессоре мало, но зато они умеют быстро щелкать любые задачи. А вот в GPU вычислительных блоков тысячи, они не умеют максимально быстро выполнять задачи с небольшим количеством данных последовательно как процессор, но очень быстро делают параллельные вычисления с большим количеством данных. Например, NVIDIA GeForce RTX 3090 в пике может делать до 38 триллионов операций с плавающей точкой в секунду.

Так как видеокартам нужно постоянно загружать и выгружать огромное количество данных в память, то у них используется и свой тип памяти — GDDR. У неё выше задержки, чем в обычной DDR, поэтому такую память не имеет смысла использовать в качестве оперативной. Но у GDDR существенно выше ширина канала и пропускная способность, которая уже сейчас доходит до 1 ТБ в секунду.

Это позволяет видеокартам обрабатывать сотни миллиардов пикселей в секунду.

CUDA

Вся эта мощь нужна только для того чтобы в игры играть? На самом деле — нет. Видеокарты уже давно используется для профессиональных задач.

Но стало это возможно только в 2006 году, когда вышла карточка GeForce 8800, в которой впервые появились ядра CUDA — Compute Unified Device Architecture. Это унифицированные ядра, которые впервые позволяли использовать видеокарту не только для игр, но и для любых массивных параллельных вычислений: типа рендеринга видео, симуляции воды, дыма, ну или майнинга крипты, если вдруг это еще актуально.

А в 2018 году, произошла другая революция — появилась архитектура Turing, а вместе с ней новые типы ядер и, конечно же, технологии трассировки лучей. Поговорим сначала о ней.

Трассировка лучей

Что такое трассировка лучей? Несмотря, на то что видеокарты за годы своей эволюции обросли поддержкой кучи эффектов. Игры действительно стали выглядеть впечатляюще круто. Но всё равно, остались выглядеть как игры. Почему?

Дело в том, что до появления технологии трассировки лучей, в играх не было настоящего глобального освещения. Оно рассчитывалось для каждого объекта по отдельности, причем поочередно. Соответственно, мы не могли рассчитать как объекты влияют друг на друга, как преломляется и отражается свет между разными объектами. А всё глобальное освещение сцены просто заранее «запекалось» в текстуру в графическом редакторе игры. Есть еще зонды и куча других техник, которые позволяют получить грубую имитацию глобального освещения с кучей недостатков — протеканием света сквозь объекты, повышенными требованиями к объему видеопамяти, отсутствием физики, так как если изменится положение объектов в сцене, то и освещение придется заново считать, а с использованием заранее подготовленных ресурсов — это невозможно.

А вот трассировка лучей впервые позволила, построить освещение по законам природы и сняла кучу ограничений. Ну практически. Как это работает?

Вместо того, чтобы поочередно считать освещение для каждого объекта Сначала выводится вся трехмерная сцена и упаковывается в BVH коробки для ускорения трассировки. После чего из камеры в упакованную 3D-сцену запускается луч и мы смотрим с какой поверхностью он пересечется. А дальше от этой точки строится по одному лучу до каждого источника освещения. Так мы понимаем где свет, а где тень.

А если луч попал на отражающий объект, то строится еще один отраженный луч и так мы можем считать переотражения. Чем больше переотражений мы считаем, тем сложнее просчет, но реалистичнее результат.

Всё практически как в жизни, но для экономии ресурсов, лучи запускаются не от источника света а из камеры. Иначе бы пришлось просчитывать много лучей, которые не попадают в поле зрения игрока, то есть делать бесполезные, отнимающие ресурсы GPU вычисления.

Новые ядра

Для реализации трассировки лучей, помимо ядер CUDA пришлось придумать ядра нового типа. Это RT-ядра, что собственно и значит ядра трассировки лучей и тензорные ядра.

RT-ядра выполняют тот самый поиск пересечений между лучом и полигонами сцены. И делают это очень эффективно для благодаря алгоритму BVH — Bounding Volume Hierarchy.

Суть алгоритма: Каждый полигон вкладывается в несколько коробок разного размера, как в матрешку. И вместо того, чтобы проверять пересечения с каждым полигоном сцены, коих миллионы, сначала проверяется попал ли луч в небольшое количесчтво коробок, в которые упакованы треугольники сцены, На последнем уровне BVH матрешки содержится коробка с несколькими треугольниками сцены. Коробок намного меньше, чем треугольников, поэтому на тестирование сцены уходит намного меньше времени, чем если бы мы перебирали каждый треугольник сцены.

Тензорные ядра — это вообще необычная вещь для видеокарты. Такие ядра используется для операций матричного перемножения. То есть могут умножать много чисел одновременно. Это очень полезно для обучения глубоких нейронных сетей. Поэтому как правило, нейросети сейчас обучают и используют именно на видеокартах.

Но и в играх тензорные ядра имеют высокий вес. Во-первых, очищение рейтрейснутой картинки от шума в профессиональных пакетах с поддержкой OptiX.

Но в первую очередь, для реализации фирменной технологии DLSS — Deep Learning Super Sampling. Это технология сглаживания и апскейлинга картинки при помощи нейросетей. Например, у вас 4K-монитор, но видеокарта не тянет 4К на ультрах. Что в этом случае делает DLSS. Картинка рендерится в более низком разрешении 1440P или 1080P, а потом несколько соседних кадров объединяются нейросетью в новый кадр более высокого разрешенияи. Да так, что часто выглядит даже лучше чем в нативном разрешении. При этом мы получаем огромный прирост фреймрейта.

Многовато технологий! В таком можно и запутаться, поэтому чтобы упорядочить мысли давайте пройдёмся по этапам того как работает видеокарта.

Чем отличаются видеокарты?

Окей, кажется с принципом работы видеокарты разобрались. Теперь давайте поговорим почему одни видеокарты работают быстрее, а другие медленнее.

Во-первых, на скорость и возможности видеокарты влияет поколение. Например, до появления серии GeForce RTX 20-серии вообще не было трассировки лучей и прочих плюшек. Но если говорить о производительности в рамках одного поколения, то нас интересуют 4 параметра:

  • Количество ядер и прочих исполнительных блоков
  • Скорость и объём памяти
  • Частота ядра
  • Дизайн

Допустим, сравним 20-ю серию.

В RTX 2060 — 1920 ядер CUDA , а в 2080 Ti — 4352. Соответственно в общих задачах мы можем рассчитывать на производительность примерно в 2 раза выше. С частотой ядра и объёмом памяти думаю тоже всё понятно. Чем больше, тем лучше.

Дизайн

Но причем тут дизайн?

Дело в том, что NVIDIA производит только чипы и показывает референсный дизайн видеокарты. А дальше каждый производитель сам решает какую систему охлаждения поставить и в каком размере сделать видеокарту. Соответственно, чем лучше охлаждение, тем выше будет частота работы, и больше производительность.

Но также под дизайном имеется ввиду формфактор. Дело в том что большие видеокарты, например, просто физически не влезут в ноутбук. А если даже влезут, энергопотребление в них будет запредельным. Поэтому существуют мобильные модификации видеокарт, которые просто распаиваются на материнской плате. Мобильные модификации карточек отличаются сниженными частотами и энергопотреблением.

Существуют две разновидности мобильных дизайнов:

  1. Просто Mobile. Это версии для жирных игровых ноутов. они не сильно отличаются по производительности от десктопных версий. Иногда такие карточки называют Max-P, типа performance. А иногда вообще ничего не приписывают. Но не обольщайтесь в ноутбуке не может стоять не мобильная версия.
  2. А бывает дизайн Max-Q. Такие карточки ставя в тонкие игровые ноуты. В них существенно ниже энергопотребление, но и частоты сильнее порезаны.
RTX 2080 Super RTX 2080 Super Mobile (Max-P) RTX 2080 Super Max-Q
CUDA ядра 3072 3072 3072
Частота яда 1650 МГц 1365 МГц 975 МГц
Частота в режиме Boost 1815 МГц 1560 МГц 1230 МГц
Энергопотребление (TDP) 250 Вт 150 Вт 80 Вт

Проверим на практике

Производительность игровых лэптопов приблизилась к десктопной. Но ноутбуки более удобны в силу форм-фактора. GeForce GTX — это ок, нормальный начальный уровень. RTX — оптимальный выбор для любителей игр. Кроме того, RTX GPU — это еще и ускорение более 50 рабочих приложений. Рптимальный выбор для работы и игр. Но хватит теории. Давайте проверим на практике, чем отличаются по производительности разные карточки.

У нас есть 3 ноутбука. Вот с таким железом.

ASUS ROG Zephyrus G15
Ryzen 7 4800HS
NVIDIA GeForce GTX 1650 Ti 4ГБ

ASUS ROG Zephyrus G14
Ryzen 9 4900HS
NVIDIA GeForce RTX 2060 Max-Q 6ГБ

ASUS ROG Zephirus DUO
Intel Core i9-10980HK
GeForce RTX 2080 SUPER Max-Q 8ГБ

Во всех трёх вариантах установлены разные процессоры, но они все мощные, поэтому не должны сильно повлиять на результат тестов. По крайней мере бутылочным горлышком они точно не будут.

GTX 1650 Ti Mobile RTX 2060 Max-Q RTX 2080 Super Max-Q
CUDA ядра 1024 1920 3072
Частота ядра 1350 МГц 975 МГц 975 МГц
Частота в режиме Boost 1485 МГц 1185 МГц 1230 МГц
Тензорные ядра 240 384
RT-ядра 30 48
Объем видеопамяти 4 ГБ 6 ГБ 8 ГБ
Энергопотребление (TDP) 65 Вт 50 Вт 80 Вт

И, для начала, немного синтетических тестов. Судя по тесту 3DMark Time Spy, 2080 Super в дизайне Max-Q опережает 2060 на 25%, а 1650 Ti на 51%. А значит мы ожидаем, что 2080 будет выдавать примерно в 2 раза больший фреймрейт. Посмотрим так ли это на практике.

  • GTX 1650 Ti Mobile — 3948 (-51.7%)
  • RTX 2060 Max-Q — 6090 (-25.5%)
  • RTX 2080 Super Max-Q — 8170

Тест Cyberpunk 2077

Мы всё проверяли на Cyberpunk 2077 с версией 1.04 на не самой загруженной сцене, в закрытой локации. Тем не менее с наличием экшэна. Все ноутбуки работали в режиме производительности турбо.

Итак, в Cyberpunk 2077 есть 6 стандартных пресетов графики: низкие, средние, высокие, впечатляющие. И еще две настройки с трассировкой лучей: это впечатляющие настройки + среднее качество трассировки или ультра качество. В пресетах с трассировкой сразу же включен DLSS в режиме Авто. Это стоит учитывать.

Итак, на что способны наши видеокарты?

Во-первых, 1650 Ti показала себя очень неплохо, потому, что выдала супер играбельный фреймрейт на высоких настройках графики — стабильные 30+ FPS с редкими просадками до 25. А уж совсем играбельными оказались средние настройки — это уже 35-40 FPS.

Full HD, стандартные настройки

Настройки графики GTX 1650 Ti Mobile RTX 2060 Max-Q RTX 2080 Super Max-Q
Впечатляющее + RT: ультра + DLSS Auto ~34 FPS ~ 49 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 43 FPS ~ 63 FPS
Впечатляющее ~29 FPS ~48 FPS ~68 FPS
Высокое ~34 FPS ~ 55 FPS
Среднее ~38 FPS ~ 65 FPS
Низкое ~45 FPS

В этой карточке нет тензорных и RT-ядер, поэтому трассировка не поддерживается. GeForce GTX — это графика начального уровня. Но на удивление тут работает технология DLSS. Она дает не очень большой прирост, примерно +4 FPS. Но этого вполне достаточно чтобы комфортно играть на высоких настройках в разрешении FHD. Считаю, это победа.

GTX 1650 Ti Mobile FHD

Настройки графики 1080P GTX 1650 Ti Mobile
Впечатляющее + RT: ультра + DLSS Auto
Впечатляющее + RT: средне + DLSS Auto
Впечатляющее ~29 FPS
Высокое ~34 FPS
Среднее ~38 FPS
Низкое ~43 FPS
Впечатляющее + DLSS Качество ~32 FPS
Впечатляющее + DLSS Ультрапроизводительность ~40 FPS
Высокое + DLSS Сбалансированное ~38 FPS
Среднее + DLSS Сбалансированное ~42 FPS

На 2060 можно играть вообще на всех настройках. На ультрах с рей трейсингом получаем стабильные 30 кадров. А на средних настройках уже больше 60 FPS без просадок.

А при включении DLSS мы получаем огромный прирост. Тут стабильные 60 кадров на впечатляющих настройках, но без трассировки лучей.

RTX 2060 Max-Q FHD

Настройки графики RTX 2080 Super Max-Q
Впечатляющее + RT: ультра (без DLSS) ~8 FPS
Впечатляющее + RT: ультра + DLSS Auto ~47 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 60 FPS
Впечатляющее ~ 21 FPS

RTX 2080 вообще особо не напрягается в разрешении FHD и выдает 60 FPS почти на максимальных настройках, а если отключить трассировку лучей и того выше. RTX 2080 и даже если отключить DLSS vs получаем играбельный фремрейт в районе 40 FPS на среднем качестве трассировки лучей.

RTX 2080 Super Max-Q FHD

Настройки графики RTX 2080 Super Max-Q
Впечатляющее + RT: ультра (без DLSS) ~8 FPS
Впечатляющее + RT: ультра + DLSS Auto ~47 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 60 FPS
Впечатляющее ~ 21 FPS

Поэтому для такой мощной карточки мы также запустили игру в 4K-разрешении и вот тут DLSS выступил во всейкрасе. Потому как без него мы получили слайдшоу меньше 10 FPS. А вот с DLSS 60 стабильных кадров на средних настройках трассировки. Отсюда делаем вывод что без DLSS в 4К-разрешении вообще играть нельзя.

RTX 2080 Super Max-Q 4K

Настройки графики RTX 2080 Super Max-Q
Впечатляющее + RT: ультра (без DLSS) ~8 FPS
Впечатляющее + RT: ультра + DLSS Auto ~47 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 60 FPS
Впечатляющее ~ 21 FPS

Итоги

Что в итоге? Несколько выводов. Во-первых Cyberpunk 2077 для ПК вполне играбелен даже на ноутбуках на железе позапрошлого поколения. Во-вторых, DLSS очень крутая технология. Раньше нам приходилось понижать разрешение или отрубать эффекты, чтобы поднять фреймрейт. Теперь же можно просто поменять режим DLSS и радоваться.

А сегодняшний тест мы подготовили в том числе благодаря магазину Ситилинк. Главные преимущества Ситилинк – приятные цены и широкий ассортимент. Выбирайте свой ноутбук мечты на базе Nvidia на Ситилинк.

NVIDIA объявила о покупке Arm за 40 миллиардов долларов

Слухи об этой сделке ходили довольно давно, но поскольку речь идёт о миллиардах долларов, она должна пройти еще несколько инстанций по регулированию.
aka_opex 14 сентября 2020 в 01:52

Шутка про невидимую руку капитализма может войти в моду. Можно сказать, что у NVIDIA теперь появилась рука, ведь сегодня компания объявила о приобретении Arm за 40 миллиардов долларов.

Основная идея покупки заключается в развитии экосистемных решений с искусственным интеллектом. При этом Arm останется работать в Кембридже, где создаст центр исследования и обучения ИИ, а заодно создаст суперкомпьютер на базе решений обоих компаний.

При этом NVIDIA будет сохранять нейтралитет, а Arm продолжит модель лицензирования процессоров.

Важно заметить, что совместная деятельность компаний будет направлена в первую очередь не на B2C-сегмент, а на B2D, ведь в планах NVIDIA создание мощных дата-центров для клиентов, которые будут сочетать в себе решения и идеи NVIDIA и Arm.

В рамках продажи бывший владелец Arm — японский Softbank получит 21,5 миллиард долларов в виде акций NVIDIA, а также 12 миллиардов кэшем, включая 2 миллиарда подписного бонуса. Полная сделка займёт 18 месяцев в случае ее принятия со стороны Великобритании, Китая, Европейского Союза и США.

NVIDIA GeForce RTX 30: Новая вершина гейминга — 8K 60FPS

8K 60FPS — новая вершина для игровых ПК. NVIDIA официально представила новую серию видеокарт с поддержкой рейтрейсинга на архитектуре NVIDIA Ampere.
aka_opex 1 сентября 2020 в 08:31

Компания NVIDIA представила графические карты серии GeForce RTX 30 на базе новой архитектуры NVIDIA Ampere. Это самый большой в истории GeForce прорыв в производительности от предыдущего поколения. Графические процессоры GeForce RTX 3090, 3080 и 3070 до двух раз мощнее и в 1.9 раза энергоэффективнее предыдущего поколения на базе архитектуры Turing. Представленные графические процессоры обладают преимуществами второго поколения NVIDIA RTX — самой мощной в мире игровой платформы для ПК — и обеспечивают беспрецедентный уровень производительности в операциях трассировки лучей в реальном времени и гейминге с применением ИИ.

Также компания представила новые мощные инструменты для геймеров, включая NVIDIA Reflex для улучшения скорости реакции в соревновательных играх, Omniverse Machinima для сторителлинга на базе ресурсов видеоигр с использованием графических движков в реальном времени и NVIDIA Broadcast, который с помощью ИИ превращает любую комнату в настоящую студию для трансляций.

 

Ну и конечно новые карты получили очень красивые Founders Edition, в дизайне от самой NVIDIA:

  • GeForce RTX 3080 — стартует по цене от $699, RTX 3080 становится топовым игровым GPU — до двух раз быстрее RTX 2080. Оснащенный 10ГБ новой памяти GDDR6X со скоростью 19Gbps, графический процессор RTX 3080 может стабильно выдавать 60 fps в 4K-играх.

 

  • GeForce RTX 3070 — доступный по цене от $499, графический процессор RTX 3070 по производительности соответствует RTX 2080 Ti при вдвое меньшей стоимости и в среднем на 60% быстрее RTX 2070. Он оснащен 8ГБ памяти GDDR6 и является отличным выбором для игр в 4K и 1440p.

  • GeForce RTX 3090 — Венчает линейку графический процессор RTX 3090 по цене от $1499, получивший прозвище BFGPU (Big Ferocious GPU – Большой Свирепый GPU). Он идет в комплекте с трехслотовым, двухосевым, продуваемым кулером, до 10 раз тише, чем TITAN RTX, и до 30 градусов холоднее. 24ГБ памяти GDDR6X способны справиться с самыми сложными ИИ-алгоритмами и большими объемами контента. RTX 3090 до 50% быстрее лучшей на сегодня видеокарты TITAN RTX, позволяя геймерам наслаждаться 60 fps в 8K во многих играх.

Рекомендованные цены для России:

  • GeForce RTX 3070 — 45 490 рублей;
  • GeForce RTX 3080 — 63 490 рублей;
  • GeForce RTX 3090 — 136 990 рублей.

Графические процессоры GeForce RTX 3090, 3080 и 3070 будут доступны в видеокартах со стандартными и повышенными частотами от ведущих производителей, включая ASUS, EVGA, Galaxy, Gigabyte, Innovision 3D, MSI, Palit, Zotac, а также в версии Founders Edition на сайте NVIDIA, начиная с 6 октября.

Qualcomm анонсировала процессор Snapdragon 821

Илья Рябов 12 июля 2016 в 04:25

К счастью, производители мобильных процессоров представляют новинки реже, чем производители смартфонов. Однако даже в этой сфере модели быстро сменяют друг друга.

Snapdragon 821

Флагманский процессор Snapdragon 821 на 10% мощнее Snapdragon 820. Но новинка не вытеснит предшественника, а лишь дополнит модельный ряд.
(далее…)

Топ-10 мобильных процессоров по версии AnTuTu

Илья Рябов 7 марта 2016 в 01:38

В свободное время от оценки смартфонов виртуальными «попугаями», разработчики AnTuTu подсчитывают и преобразуют интересную статистику.

Antutu

В официальном блоге появились данные о 10 самых производительных мобильных процессоров начала 2016 года.
(далее…)