Far Cry 6 выйдет 7 октября с восьмимесячной задержкой

Игра получит бесплатный апгрейд для современных консолей, что безусловно приятно. Больше всего нам понравился ручной крокодил.
aka_opex 31 мая 2021 в 05:16

Far Cry 6 выйдет 7 октября на ПК, Xbox One, Xbox Series X и Series S, PlayStation 4, PlayStation 5, а также в сервисе Google Stadia. При этом, если вы приобрели версию для PS4 или Xbox One вам будет доступен бесплатный апгрейд для каррент-гена.

Изначально игру планировали выпустить в феврале 2021 года, но планы скорректировала пандемия коронавирус, которая повлияла на работу над проектом, хоть и на финальной стадии разработки.

Игру покажут в рамках E3, но на днях в сеть выложили кадры геймплея. События Far Cry 6 развернуться в выдуманной стране Яра, которая является версией Кубы. Вам предстоит играть за Дэни Рохаса, при этом пол протагониста можно выбирать, имя при этом останется прежним. А еще у персонажа есть свой ручной крокодил и возможность создавать транспорт, ну и конечно куча крутого DIY-оружия, включая «дископушку», убивающую Макареной от Los Del Rio. Нельзя не отметить и милого персонажа поддержки — крутой таксы с тележкой! В общем, выглядит красиво и многообещающе…

 

Обновление Game Pass: FIFA 21, Red Dead Online и Psychonauts

Новый месяц и новое обновление подписки Xbox Game Pass: новые игры появляются, старые потихоньку исчезают. Держим в курсе, что к чему…
aka_opex 4 мая 2021 в 08:25

С сегодняшнего дня начинается обновление игр в подписке Xbox Game Pass. Так на ПК и консоли Xbox наконец доберуться FIFA 21, Red Dead Online, Psychonauts, Final Fantasy и многие другие игры.

Полный список с датами доступности ниже:

  • Dragon Quest Builders 2 (ПК и консоли) — 4 мая
  • FIFA 21 (ПК и консоли) — 6 мая
  • Outlast 2 (ПК и консоли) – 6 мая
  • Steep (Консоли) – 6 мая
  • Final Fantasy X/X-2 HD Remaster (ПК и консоли) – 13 мая
  • Just Cause 4: Reloaded (ПК и консоли) – 13 мая
  • Psychonauts (ПК и консоли) – 13 мая
  • Red Dead Online (Консоли) – 13 мая
  • Remnant: From the Ashes (ПК) – 13 мая

При этом с 15 мая покинут каталог игры (можно купить с 20% скидкой):

  • Alan Wake (Консоли и ПК)
  • Battlefleet Gothic: Armada 2 (ПК)
  • Dungeon of the Endless (Консоли и ПК)
  • Final Fantasy IX (Консоли и ПК)
  • Hotline Miami (ПК)
  • Plebby Quest: The Crusades (ПК)

Qualcomm готовит среднебюджетный Snapdragon для ПК?

Кажется, Qualcomm всерьёз озаботился созданием ARM-процессоров для ПК и ноутбуков. Кроме чипа 8-й серии, бренд готовит более доступный Snapdragon 7c.
aka_opex 16 марта 2021 в 03:17

Qualcomm работает над новым более мощным чипсетом для персональных компьютеров. Судя по отчёту WinFuture речь может идти о втором поколении процессора Snapdragon 8cx. Но возможно, что это не единственный чип, который компания готовит. Есть вероятность, что Qualcomm хочет создать для ПК ещё один чип на основе восьмиядерного Snapdragon 7.

Как и в смартфонах, цифра 7 скорее всего будет обозначать средний ценовой сегмент и не флагманское железо. Речь идёт о Snapdragon 7c, который вероятно стоит ожидать в Хромбуках и ARM-ноутбуках с Windows 10.

SC7295 — таково техническое название модели. Чип очень похож на SM7350, который появится в Xiaomi и получит более красивое и привычное наименование Snapdragon 775.

Новый SC7295 получит 8 ядер с максимальной тактовой частотой 2,7 ГГц, до которой будет «разгоняться» лишь одно из так называемых Gold-ядер. Всего таких ядра будет четыре и работать они будут на стандартной частоте 2,4 ГГц. Остальные четыре ядра — энергоэффективные, их частота — 1,8 ГГц.

Также в Qualcomm сообщают о работе над мощным процессором без энергоэффективных ядер. В нём будет два кластера мощных ядер, которые будут работать на разных скоростях. Речь идёт о SC8280XP. Один из двух вариантов такого процессора уже тестируется: четыре «золотых» ядра тут работает на частоте до 2,7 ГГц, а другие четыре «золотых» ядра работают на частоте 2,43 ГГц.

В Xbox Game Pass появились 20 культовых игр от Bethesda

Подарок фанатам Bethesda на Xbox и PC. Сразу 20 игр доступны в Xbox Game Pass: Dishonored, Doom, The Elder Scrolls, Fallout и Wolfenstein.
aka_opex 12 марта 2021 в 09:02

На этой неделе Microsoft объявил о завершении сделки по приобретению Zenimax Media. Напомним, что в итоге копилка Microsoft пополнилась сразу на 8 игровых студий, включая легендарную Bethesda Softworks и id Software.

https://youtu.be/Z41PFI6KVKk

Один из плюсов для геймеров — доступ к играм этих студий в Xbox Game Pass и это стартует уже сегодня.

Обладатели Xbox Games Pass получиют доступ сразу к 20 культовым играм, причем 16 из них будут доступны и на Xbox, и на ПК. Часть проектов будет доступна в некст-ген версиях.

Что касается будущего, то все команды компании Bethesda уже трудятся не покладая рук и поделятся планами позднее в текущем году. Интересно, что во время выступления на круглом столе глава Xbox Фил Спенсер сообщил, что большая часть новых игр, от студий компании станет эксклюзивами Xbox или платформ с поддержкой Xbox Game Pass. При этом будут и исключения. Также Фил Спенсер заверил, что временная эксклюзивность игр Deathloop и GhostWire: Tokyo для PlayStation 5 останется таковой — договорённости будут соблюдены.

Игры компании Bethesda, доступные по подписке Xbox Game Pass с 12 марта:

  • Dishonored Definitive Edition (консоль, ПК)
  • Dishonored 2 (консоль, ПК)
  • DOOM (1993) (консоль, ПК)
  • DOOM II (консоль, ПК)
  • DOOM 3 (консоль, ПК)
  • DOOM 64 (консоль, ПК)
  • DOOM Eternal (консоль, ПК)
  • The Elder Scrolls III: Morrowind (консоль, ПК)
  • The Elder Scrolls IV: Oblivion (консоль, ПК)
  • The Elder Scrolls V: Skyrim Special Edition (консоль, ПК)
  • The Elder Scrolls Online (консоль)
  • The Evil Within (консоль, ПК)
  • Fallout 4 (консоль, ПК)
  • Fallout 76 (консоль, ПК)
  • Fallout: New Vegas (консоль)
  • Prey (консоль, ПК)
  • RAGE 2 (консоль, ПК)
  • Wolfenstein: The New Order (консоль, ПК)
  • Wolfenstein: The Old Blood (консоль, ПК)
  • Wolfenstein: Youngblood (консоль, ПК)

2020 год стал самым успешным для ПК-рынка за десятилетие

Лишь в четвертом квартале было поставлено более 90 миллионов персональных компьютеров.
aka_opex 12 января 2021 в 07:24

2020 год стал самым успешным для ПК-индустрии годом в десятилетии, а также одним из лучших за последнее время. Согласно исследованиям Canalys отгрузки ПК выросли более чем на 25 процентов в четвёртом квартале 2020 года. В итоге было поставлено более 90 миллионов компьютеров, ноутбуков и рабочих станций. В итоге общий годовой рост составил 11 процентов в сравнении с прошлым годом и преодолел отметку в 300 миллионов устройств.

В итоге мы видим самый высокий рост рынка с 2010 года и самые высокие объёмы поставок с 2014 года.

Ноутбуки стали абсолютными лидерами — на них приходится почти 80 процентов поставок.

Lenovo оказался абсолютным лидером, который поставил 23 миллиона компьютеров в 4 квартале и 72 миллиона устройств в 2020 году. Таким образом, бренд продолжает доминирование на ПК-рынке. В то же время серьезно заявили о себе Apple и Acer, которые продемонстрировали самые высокие показатели роста.

Объемы Apple выросли на 45% в квартале (запуск устройств на Apple M1), а по году рост составил 16,6%. В следующем году с увеличением количества предложений на Apple M1 нас скорее всего ожидает нечто подобное.

 

Epic Games показали несколько AAA-игр на Unreal Engine

Внутри этой новости содержится крутая нарезка игр, которые построены на движке Unreal Engine. Кажется, их не стоит пропускать…
aka_opex 6 января 2021 в 03:43

Компания Epic Games, главной разработкой которой является популярный игровой движок Unreal Engine 31 декабря 2020 года выпустила нарезку самых крутых игр, которые увидят свет в 2021 году. НЕ секрет, что игры на Unreal Engine выйдут как на ПК, так и на консолях нового поколения — Sony PlayStation 5 и Xbox Series X, так что в ролике речь идёт как об эксклюзивах, так и о мультиплатформенных AAA-проектах.

https://youtu.be/O6j-FZEEovg

В ролике можно увидеть Outriders от Square Enix, Godfall от Gearbox, Ghostwire Tokyo от Bethesda, Pro Evolution Soccer 2022 от Konami и Scarlet Nexus от Bandai Namco. Но это ещё не все: в ролике нашлось место играм Ride 4, Kena: Bridge of Spirits, ARK II, Returnal и Sackboy: A Big Adventure.

Самый большой процессор в мире — Cerebras CS-1. Разбор

Сегодня мы расскажем вам про действительно большой процессор — самую большоую однокристалльную систему в мире. Почему это круто и как он работает?
Валерий Истишев 4 января 2021 в 02:43

Наверняка вы подумали, что это какой-то очередной кликбейт. Что это за самый большой процессор в мире? Похоже сейчас нам будут рассказывать о процессоре, который на 5 процентов больше других, и то если рассматривать этот процессор только с определенной стороны. И да просмотры и прочтения мы хотим собрать, но…

Сегодня мы расскажем вам о процессоре компании Церебро, под названием Cerebras CS-1. И он действительно огромный!

Например GPU, который считался самым большим раньше — это процессор Nvidia V100, а вот новый процессор Церебро. Он почти в 57 раз больше! Площадь самого чипа — 462 квадратных сантиметра — это почти столько же сколько площадь всей Nvidia 3090, вместе с системой охлаждения и разъемами.

А что вы скажете на то, что этот монстр способен симулировать некоторые физические модели быстрее самих законов физики? Заинтриговали? Что ж тогда присаживайтесь, наливайте чаек. Сегодня будет разбор по-настоящему огромного однокристального процессора!

Итак, что же это за монстр такой и зачем он нужен? Давайте сразу ответим на второй вопрос — этот процессор создан для машинного обучения и искусственного интеллекта. Кроме того он сильно расширит возможности для различного сложного моделирования и сможет заглядывать в будущее. Вообще, искусственный интеллект — это невероятно интересная и актуальная тема, а ее главные ограничения — это слабые вычислительные мощности. А если хотите узнать о реальных проектах с использованием искусственного интеллекта — у Илона Маска есть такой в запасе — Open UI.

Если вы думали, что закон Мура со своим увеличением количества транзисторов в процессоре каждые 1,5 года — это быстро, то посмотрите на потребности в области ИИ, ведь спрос на эти вычисления удваивается каждые 3,5 месяца!

Классический подход — это напихать кучу процессоров в серверные стойки, к каждому подвести систему охлаждения и питания, при этом каждый отдельный процессор еще надо связать друг с другом, а это, кстати, неизбежно вызывает задержки.

Скажем так — если вы возьмете двигатель от Ferrari и запихнете ее в старые Жигули, то машина конечно поедет быстрее, но как Ferrari все равно не поедет. Поэтому тут нужен принципиально иной подход, ведь для того? чтобы получить настоящий гиперкар надо взять хорошие тормоза, подвеску, рассчитать аэродинамику; с компьютерами точно также.

Компания Церебро это и сделала — они решили разработать свою систему с нуля, то есть вообще все — от архитектуры самих процессоров, до системы охлаждения и питания.

Это огромная машина, потребляющая 20 килоВатт, и занимающая треть стандартной серверной стойки, то есть можно размещать по три таких компьютера в одной стойке! А сам чип, по своей сути и предназначению, напоминает серверные GPU от NVIDIA, так что давайте их и сравним. Возьмем Nvidia Tesla V100.

Цифр много, приготовьтесь! Кроме размеров самого кристалла, процессор Церебро обладает четырьмя сотнями тысяч ядер, что в 78 раз больше, чем число ядер на NVIDIA Tesla V100! Количество транзисторов взрывает мозг — 1,2 триллиона, против 21 миллиарда у NVIDIA.

А сколько там памяти? 18 гигабайт l2 cash memory прямо на чипе! Это в три тысячи раз больше, чем у V100. Кстати у 3090 от той же NVIDIA, памяти на чипе тоже 6 мегабайт, прямо как у V100. Ну а про ширину полосы пропускания даже говорить страшно — у V100 это 300 Гигабит в секунду, а у Церебро — 100 ПЕТАбит в секунду. То есть разница в 33 тысячи раз!

А чтобы достичь схожей вычислительной мощности они заявляют, что нужна тысяча 100 карт NVIDIA, что суммарно будет потреблять в 50 раз больше мощности и занимать в 40 раз больше места — это очень значительная экономия электроэнергии и свободного пространства.

Это конечно прекрасно — цифры поражают. Но как удалось их достичь?

Суть именно в размере. Чип — большой, нет, даже огромный. Именнр это позволяет разместить столько всего на одном кристалле. И главное, что связь между элементами мгновенная, потому что не нужно заниматься сбором данных с разных чипов.

Однако, размер — это одновременно и главный недостаток Церебро.

Давайте по-порядку. Первое и главное — нагрев. Разработчики этого монстра прекрасно понимали, что они создают и какая система охлаждения нужна, поэтому она, как и сам процессор, были разработаны с нуля. Она представляет из себя комбинацию жидкостного охлаждения, которое направляется к охлаждаемым медным блокам! Охлаждающая жидкость проходя через мощный насос попадает в радиатор, где с помощью вентилятора происходит ее охлаждение, а горячий воздух уже выдувается наружу четырьмя дополнительными вентиляторами.

При потреблении 20 кВт, которые подаются через двенадцать разъемов питания, четыре уходит только на питание вентиляторов и насосов для системы охлаждения. Но в результате они достигли того, что чип работает при вдвое меньших температурах, чем стандартные GPU, что в конце концов повышает надежность всей системы.

Ну и конечно отдельно хочется сказать, что инженеры создали систему так, что она позволяет быстро менять почти любой компонент, что очень круто, так как в случае поломки — это уменьшает время возможного простоя.

Сам же чип собирает TSMC по, вы не поверите, 16 нанометровому техпроцессу. И тут вы можете справедливо возмутится. Как же так? Все уже делают чипы на 5 нм, какой смысл делать на древних 16 нм?

Тут то и скрывается вторая проблема. При производстве классических чипов, неизбежно бывает брак, который приводит к тому, что несколько чипов оказываются негодными и выкидываются или используются для других задач, и чем мельче тех процесс, тем выше процент брака. Но когда у тебя вся кремниевая подложка — это один чип, то любая ошибка в производстве приводит к тому, что всю пластину можно выкидывать. А при условии что одна пластина может изготавливаться несколько месяцев и стоит около миллиона долларов, что ж….

Суть в том, что ребята решили, как бы, подстраховаться. Ведь 16 нм техпроцессу уже почти семь лет: детали и тонкости при его производстве отлично изучены. Так сказать — уменьшают риски! Но стоит сказать, что уже ведется разработка и тестирование такого чипа на 7 нм, но его выход конечно будет зависеть от спроса на первое поколение! И там цифры просто огромные, только посмотрите на таблицу.

И тут вы можете справедливо заметить, что мы пока что ни слова не сказали о результатах, которых можно достичь с помощью этого монстра. Тут сложно, так как информация, в основном, закрытая, однако какие-то детали все равно просачиваются в медийное пространство.

Национальная лаборатория энергетических технологий Министерства энергетики США заявила, что CS-1 — первая система, которая смоделировала работу более миллиона топливных ячеек быстрее, чем в режиме реального времени.

Это означает, что когда CS-1 используется для моделирования, например, электростанции на основе данных о ее текущем состоянии, она может сказать, что произойдет в будущем быстрее, чем законы физики дадут такой же результат. Вы поняли? С помощью этого ПК можно заглянуть в будущее с высокой точностью, и если нужно подкорректировать и изменить его. И еще, например, в симуляции с 500 миллионами переменных Cerebras CS-1 уже обогнал суперкомпьютер Joule, занимающий 69-е место в рейтинге самых мощных суперкомпьютеров мира. Так что похоже со спросом проблем не ожидается.

Церебро планируется использовать для прогнозирования погоды или температуры внутри ядерного реактора или, например, проектирования крыльев самолета. Несомненно, лаборатории и различные исследовательские центры по всему миру найдут для Церебро области применени. Как вы понимаете, компьютер будет дорогим, но точная цена неизвестна.

Из открытых источников мы нашли только что в 2020 году в суперкомпьютерном центре Питтсбурга было куплено 2 компьютера Cerebras CS-1 за 5 миллионов долларов. Но система делается только под заказ и под каждого конкретного клиента, так что цена может варьироваться.

Выводы

Это явно уникальная система. И такого раньше никто не делал! Большинство производителей считают, что гораздо выгоднее и эффективнее наштамповать кучу маленьких процессоров, так как вероятность брака или поломки сильно падает и каждая ошибка сильно дешевле. Разработчики Церебро же решили пойти рискованным путем и, судя по тому, что процессор Cerebras CS-2 уже тестируют, их путь успешен.

И если все что они заявили — сбудется, то нас ждет абсолютно новая эра серверных вычислений, невероятные возможности для создания компьютерных моделей, новые мощности искусственного интеллекта. Нет сомнений, что и гиганты рынка, такие как Nvidia, Intel, Google, посмотрев на удачный опыт Церебро займутся разработкой своих огромных однокристальных систем. А вы только представьте, что будет если совместить это с квантовыми вычислениями, о которых мы недавно делали разбор? Ух!

Будем следить за развитием технологий, и продолжим дальше делать для вас такие интересные обзорные материалы про самые современные достижения!

PS. Кстати, лайк если поняли пасхалку в Церебро — ведь решетка радиатора выполнена в форме специальной сетки, которая используется в компьютерном моделировании для расчетов. Отсылка к предназначению Церебро!

Как работает видеокарта NVIDIA? Разбор

Рейтрейсинг, тензорные ядра, Тьюринг и Паскаль — все это про видеокарты. Сегодня мы досконально разберёмся — как они работают.
vedensky 29 декабря 2020 в 06:01

Мы привыкли воспринимать видеокарты как дополнение к основному процессору. А бывают даже интегрированные видюхи. Но на самом деле. Видеокарта — это компьютер в компьютере, который выполняет намного больше операций, чем остальные компоненты системы. Смотрите сами:

  • В центральном процессоре — 4, 8, ну может 16 ядер. В видеокарте вычислительных блоков — тысячи!
  • В ней миллиарды транзисторов, гигабайты своей видеопамяти с пропускной способностью до терабайта в секунду.
  • И всё это потребляет мощности, весит и стоит как отдельный комп!

Вот например характеристики GeForce RTX 3090:

  • Ядра CUDA: 10496 | Тензорные ядра : 328 | Ядра трассировки лучей: 82
  • 28 млрд. транзисторов
  • Видеопамять: 24 ГБ GDDR6X
  • Пропускная системной памяти: > 1 ТБ/с
  • Цена: от 136 990 руб.

Но раз видюхи такие производительные, зачем нам вообще центральный процессор? И в чем всё-таки отличия CPU от GPU?

А чем видеокарты отличаются между собой? Как такая бандура помещается в ноутбук? И главное выясним, можно ли в играть в Cyberpunk 2077 на ноутбуке на ультра-настройках. Поговорим об этом и о многом другом в большом разборе!

Сейчас видеокарты много чего умеют делать и часто делают некоторые задачи куда быстрее и эффективнее CPU? Но к такому положению вещей мы пришли не сразу. Первые видеокарты было бы справедливо назвать ASIC-ками (Application-Specific Integrated Circuit), то есть интегральными схемами специального назначения. Что это значит?

Центральный процессор — это универсальный чип. Он может выполнять совершенно разного рода задачи. Всё потому, что каждое ядро центрального процессора — это много разных блоков, каждый из которых умеет делать свой тип вычислений.

Это удобно, потому как на центральном процессоре мы можем сделать любое вычисление. И в принципе, один огромный ЦП может заменить собой вообще все остальные чипы. Но естественно, это будет неэффективно. Поэтому для специфических задач на помощь центральному процессору часто приходят сопроцессоры или ASIC-ки то есть отдельные чипы, заточенные под эффективное решение какой-то конкретной задачи.

Так в середине 90-х такой конкретной задачей стало ускорение первых 3D-игр вроде Quake!

Первые видеокарты

Без ускорения Quake выглядел достаточно постредсвенно. Всё очень пиксельное и тормозное.

Но стоило прикупить себе волшебный 3D-акселератор. Подключить его к вашей основной 2D-видеокарте снаружи коротким VGA кабелем. Да-да, раньше это делалось так. И Quake превращался в нечто запредельное. Игра становилась, плавной, красочной, а главное работала в высоком для того времени разрешении и соответственно никаких пикселей.

Тогда это воспринималось практически как магия. Но за счет чего происходило такое кардинальное улучшение картинки? Чтобы ответить на этот вопрос, давайте разберемся как работает видеокарта поэтапно.

Как работает видеокарта?

Этап 1. Растеризация.

Трёхмерный объект изначально векторный. Он состоит из треугольников, которые можно описать вершинами. То есть, по сути, объект — это набор вершин, со своими координатами в трехмерном пространстве.

Но ваш экран двумерный, да ещё и состоит из пикселей. Так как нам отобразить векторный 3D объект в двухмерном пространстве? Правильно — спроецировать его!

Мы переносим координаты вершин на плоскую поверхность соединяем их при помощи уравнений прямых на плоскости и заполняем пикселями плоскости треугольников. На этом этапе мы получаем двухмерную проекцию объекта на экране.

Этап 2. Текстурирование

Дальше нам нужно как-то раскрасить модельку. Поэтому на растрированный объект по текстурным координатам натягивается текстура.

Но просто натянуть текстуру недостаточно, ее нужно как-то сгладить. Иначе при приближении к объекту вы просто будите видеть сетку текселей. Прям как в первых 3D-играх типа DOOM. Поэтому дальше к текстуре применяются различные алгоритмы фильтрации.

На первых видеокартах применялась билинейная интерполяция. Её вы и видели на примере с Quake. Всё, что она делает — это линейно интерполирует промежуточные цвета между четырьмя текселями, а полученное значение становится цветом пикселя на экране.

Такую интерполяцию активно используют используют и сейчас. Но в дополнении к ней также делают трилинейную интерполяцию — это еще более продвинутая версия сглаживания, но используют её только на стыках разных уровней детализации текстур, чтобы их замаскировать.

А вот чтобы вернуть четкости текстурам под углами к камере используют анизотропную интерполяцию. Чем выше её коэффициент тем четче получается картинка, так как для получения цвета каждого пикселя делается до 16 выборок. Особенно это заметно на поверхностях, находящихся под острым углом к камере. То есть, к примеру, на полу.

Окей, теперь мы получили цветное изображение. Но этого всё ещё недостаточно, потому как в сцене нет освещения. Поэтому переходим к следующему этапу с интригующим названием пиксельный шейдер или затенение пикселей.

Этап 3. Пиксельный шейдер.

Вообще шейдер — это штука, которая позволяет программисту что-то делать с вершинами, треугольниками и пикселями на программном уровне. В случае Пиксельных Шейдеров — это даёт разработчикам разработчиком возможность динамически менять цвет каждого пикселя экрана по программе.

Кстати, впервые поддержка простых шейдеров появились в 2001 году, когда появилась NVIDIA GeForce 3. До этого освещение тоже делалось, но аппаратными средствами и разработчики особо не могли влиять на результат. Так вот сегодня это самый ресурсоемкий этап, на котором для каждого пикселя нужно просчитать как он отражает, рассеивает и пропускает свет. Как ложатся тени по поверхности модели и прочее. То есть иными словами рассчитывается финальный цвет пикселя.

Каждый объект сцены описывается при помощи нескольких текстур:

  • Карта нормалей, текстура, в которой хранятся векторы нормалей для каждой точки поверхности. При помощи этих векторов рассчитывается попиксельное освещение.
  • Карта зеркальности, которая описывает сколько света отражается от поверхности.
  • Карта шероховатостей (roughness mapbump map), которая описывает микрорельеф поверхности или то, как поверхность будет рассеивать свет.
  • Альбедо карта, то есть карта диффузии или естественный цвет объекта.
  • И прочие.

Этап 4. Сохранение

После кучи вычислений при помощи информации из всех вышеперечисленных текстур наступает последний этап. Мы получили финальный цвет пикселя и сохраняем его в видеопамять. А после обработки всей сцены мы уже можем выводить картинку на экран.

Мощность

Все эти вычисления нужно проводить очень быстро и главное параллельно. Например, чтобы вывести 60 раз в секунду 4К-изображение нужно посчитать цвет примерно полумиллиарда пикселей. А если мы хотим 120 FPS — то целый миллиард. Именно поэтому видеокарты отличаются по структуре от центрального процессора.

Центральный процессор заточен под последовательное, но очень быстрое выполнение множества разнообразных вычислений. Поэтому ядер в центральном процессоре мало, но зато они умеют быстро щелкать любые задачи. А вот в GPU вычислительных блоков тысячи, они не умеют максимально быстро выполнять задачи с небольшим количеством данных последовательно как процессор, но очень быстро делают параллельные вычисления с большим количеством данных. Например, NVIDIA GeForce RTX 3090 в пике может делать до 38 триллионов операций с плавающей точкой в секунду.

Так как видеокартам нужно постоянно загружать и выгружать огромное количество данных в память, то у них используется и свой тип памяти — GDDR. У неё выше задержки, чем в обычной DDR, поэтому такую память не имеет смысла использовать в качестве оперативной. Но у GDDR существенно выше ширина канала и пропускная способность, которая уже сейчас доходит до 1 ТБ в секунду.

Это позволяет видеокартам обрабатывать сотни миллиардов пикселей в секунду.

CUDA

Вся эта мощь нужна только для того чтобы в игры играть? На самом деле — нет. Видеокарты уже давно используется для профессиональных задач.

Но стало это возможно только в 2006 году, когда вышла карточка GeForce 8800, в которой впервые появились ядра CUDA — Compute Unified Device Architecture. Это унифицированные ядра, которые впервые позволяли использовать видеокарту не только для игр, но и для любых массивных параллельных вычислений: типа рендеринга видео, симуляции воды, дыма, ну или майнинга крипты, если вдруг это еще актуально.

А в 2018 году, произошла другая революция — появилась архитектура Turing, а вместе с ней новые типы ядер и, конечно же, технологии трассировки лучей. Поговорим сначала о ней.

Трассировка лучей

Что такое трассировка лучей? Несмотря, на то что видеокарты за годы своей эволюции обросли поддержкой кучи эффектов. Игры действительно стали выглядеть впечатляюще круто. Но всё равно, остались выглядеть как игры. Почему?

Дело в том, что до появления технологии трассировки лучей, в играх не было настоящего глобального освещения. Оно рассчитывалось для каждого объекта по отдельности, причем поочередно. Соответственно, мы не могли рассчитать как объекты влияют друг на друга, как преломляется и отражается свет между разными объектами. А всё глобальное освещение сцены просто заранее «запекалось» в текстуру в графическом редакторе игры. Есть еще зонды и куча других техник, которые позволяют получить грубую имитацию глобального освещения с кучей недостатков — протеканием света сквозь объекты, повышенными требованиями к объему видеопамяти, отсутствием физики, так как если изменится положение объектов в сцене, то и освещение придется заново считать, а с использованием заранее подготовленных ресурсов — это невозможно.

А вот трассировка лучей впервые позволила, построить освещение по законам природы и сняла кучу ограничений. Ну практически. Как это работает?

Вместо того, чтобы поочередно считать освещение для каждого объекта Сначала выводится вся трехмерная сцена и упаковывается в BVH коробки для ускорения трассировки. После чего из камеры в упакованную 3D-сцену запускается луч и мы смотрим с какой поверхностью он пересечется. А дальше от этой точки строится по одному лучу до каждого источника освещения. Так мы понимаем где свет, а где тень.

А если луч попал на отражающий объект, то строится еще один отраженный луч и так мы можем считать переотражения. Чем больше переотражений мы считаем, тем сложнее просчет, но реалистичнее результат.

Всё практически как в жизни, но для экономии ресурсов, лучи запускаются не от источника света а из камеры. Иначе бы пришлось просчитывать много лучей, которые не попадают в поле зрения игрока, то есть делать бесполезные, отнимающие ресурсы GPU вычисления.

Новые ядра

Для реализации трассировки лучей, помимо ядер CUDA пришлось придумать ядра нового типа. Это RT-ядра, что собственно и значит ядра трассировки лучей и тензорные ядра.

RT-ядра выполняют тот самый поиск пересечений между лучом и полигонами сцены. И делают это очень эффективно для благодаря алгоритму BVH — Bounding Volume Hierarchy.

Суть алгоритма: Каждый полигон вкладывается в несколько коробок разного размера, как в матрешку. И вместо того, чтобы проверять пересечения с каждым полигоном сцены, коих миллионы, сначала проверяется попал ли луч в небольшое количесчтво коробок, в которые упакованы треугольники сцены, На последнем уровне BVH матрешки содержится коробка с несколькими треугольниками сцены. Коробок намного меньше, чем треугольников, поэтому на тестирование сцены уходит намного меньше времени, чем если бы мы перебирали каждый треугольник сцены.

Тензорные ядра — это вообще необычная вещь для видеокарты. Такие ядра используется для операций матричного перемножения. То есть могут умножать много чисел одновременно. Это очень полезно для обучения глубоких нейронных сетей. Поэтому как правило, нейросети сейчас обучают и используют именно на видеокартах.

Но и в играх тензорные ядра имеют высокий вес. Во-первых, очищение рейтрейснутой картинки от шума в профессиональных пакетах с поддержкой OptiX.

Но в первую очередь, для реализации фирменной технологии DLSS — Deep Learning Super Sampling. Это технология сглаживания и апскейлинга картинки при помощи нейросетей. Например, у вас 4K-монитор, но видеокарта не тянет 4К на ультрах. Что в этом случае делает DLSS. Картинка рендерится в более низком разрешении 1440P или 1080P, а потом несколько соседних кадров объединяются нейросетью в новый кадр более высокого разрешенияи. Да так, что часто выглядит даже лучше чем в нативном разрешении. При этом мы получаем огромный прирост фреймрейта.

Многовато технологий! В таком можно и запутаться, поэтому чтобы упорядочить мысли давайте пройдёмся по этапам того как работает видеокарта.

Чем отличаются видеокарты?

Окей, кажется с принципом работы видеокарты разобрались. Теперь давайте поговорим почему одни видеокарты работают быстрее, а другие медленнее.

Во-первых, на скорость и возможности видеокарты влияет поколение. Например, до появления серии GeForce RTX 20-серии вообще не было трассировки лучей и прочих плюшек. Но если говорить о производительности в рамках одного поколения, то нас интересуют 4 параметра:

  • Количество ядер и прочих исполнительных блоков
  • Скорость и объём памяти
  • Частота ядра
  • Дизайн

Допустим, сравним 20-ю серию.

В RTX 2060 — 1920 ядер CUDA , а в 2080 Ti — 4352. Соответственно в общих задачах мы можем рассчитывать на производительность примерно в 2 раза выше. С частотой ядра и объёмом памяти думаю тоже всё понятно. Чем больше, тем лучше.

Дизайн

Но причем тут дизайн?

Дело в том, что NVIDIA производит только чипы и показывает референсный дизайн видеокарты. А дальше каждый производитель сам решает какую систему охлаждения поставить и в каком размере сделать видеокарту. Соответственно, чем лучше охлаждение, тем выше будет частота работы, и больше производительность.

Но также под дизайном имеется ввиду формфактор. Дело в том что большие видеокарты, например, просто физически не влезут в ноутбук. А если даже влезут, энергопотребление в них будет запредельным. Поэтому существуют мобильные модификации видеокарт, которые просто распаиваются на материнской плате. Мобильные модификации карточек отличаются сниженными частотами и энергопотреблением.

Существуют две разновидности мобильных дизайнов:

  1. Просто Mobile. Это версии для жирных игровых ноутов. они не сильно отличаются по производительности от десктопных версий. Иногда такие карточки называют Max-P, типа performance. А иногда вообще ничего не приписывают. Но не обольщайтесь в ноутбуке не может стоять не мобильная версия.
  2. А бывает дизайн Max-Q. Такие карточки ставя в тонкие игровые ноуты. В них существенно ниже энергопотребление, но и частоты сильнее порезаны.
RTX 2080 Super RTX 2080 Super Mobile (Max-P) RTX 2080 Super Max-Q
CUDA ядра 3072 3072 3072
Частота яда 1650 МГц 1365 МГц 975 МГц
Частота в режиме Boost 1815 МГц 1560 МГц 1230 МГц
Энергопотребление (TDP) 250 Вт 150 Вт 80 Вт

Проверим на практике

Производительность игровых лэптопов приблизилась к десктопной. Но ноутбуки более удобны в силу форм-фактора. GeForce GTX — это ок, нормальный начальный уровень. RTX — оптимальный выбор для любителей игр. Кроме того, RTX GPU — это еще и ускорение более 50 рабочих приложений. Рптимальный выбор для работы и игр. Но хватит теории. Давайте проверим на практике, чем отличаются по производительности разные карточки.

У нас есть 3 ноутбука. Вот с таким железом.

ASUS ROG Zephyrus G15
Ryzen 7 4800HS
NVIDIA GeForce GTX 1650 Ti 4ГБ

ASUS ROG Zephyrus G14
Ryzen 9 4900HS
NVIDIA GeForce RTX 2060 Max-Q 6ГБ

ASUS ROG Zephirus DUO
Intel Core i9-10980HK
GeForce RTX 2080 SUPER Max-Q 8ГБ

Во всех трёх вариантах установлены разные процессоры, но они все мощные, поэтому не должны сильно повлиять на результат тестов. По крайней мере бутылочным горлышком они точно не будут.

GTX 1650 Ti Mobile RTX 2060 Max-Q RTX 2080 Super Max-Q
CUDA ядра 1024 1920 3072
Частота ядра 1350 МГц 975 МГц 975 МГц
Частота в режиме Boost 1485 МГц 1185 МГц 1230 МГц
Тензорные ядра 240 384
RT-ядра 30 48
Объем видеопамяти 4 ГБ 6 ГБ 8 ГБ
Энергопотребление (TDP) 65 Вт 50 Вт 80 Вт

И, для начала, немного синтетических тестов. Судя по тесту 3DMark Time Spy, 2080 Super в дизайне Max-Q опережает 2060 на 25%, а 1650 Ti на 51%. А значит мы ожидаем, что 2080 будет выдавать примерно в 2 раза больший фреймрейт. Посмотрим так ли это на практике.

  • GTX 1650 Ti Mobile — 3948 (-51.7%)
  • RTX 2060 Max-Q — 6090 (-25.5%)
  • RTX 2080 Super Max-Q — 8170

Тест Cyberpunk 2077

Мы всё проверяли на Cyberpunk 2077 с версией 1.04 на не самой загруженной сцене, в закрытой локации. Тем не менее с наличием экшэна. Все ноутбуки работали в режиме производительности турбо.

Итак, в Cyberpunk 2077 есть 6 стандартных пресетов графики: низкие, средние, высокие, впечатляющие. И еще две настройки с трассировкой лучей: это впечатляющие настройки + среднее качество трассировки или ультра качество. В пресетах с трассировкой сразу же включен DLSS в режиме Авто. Это стоит учитывать.

Итак, на что способны наши видеокарты?

Во-первых, 1650 Ti показала себя очень неплохо, потому, что выдала супер играбельный фреймрейт на высоких настройках графики — стабильные 30+ FPS с редкими просадками до 25. А уж совсем играбельными оказались средние настройки — это уже 35-40 FPS.

Full HD, стандартные настройки

Настройки графики GTX 1650 Ti Mobile RTX 2060 Max-Q RTX 2080 Super Max-Q
Впечатляющее + RT: ультра + DLSS Auto ~34 FPS ~ 49 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 43 FPS ~ 63 FPS
Впечатляющее ~29 FPS ~48 FPS ~68 FPS
Высокое ~34 FPS ~ 55 FPS
Среднее ~38 FPS ~ 65 FPS
Низкое ~45 FPS

В этой карточке нет тензорных и RT-ядер, поэтому трассировка не поддерживается. GeForce GTX — это графика начального уровня. Но на удивление тут работает технология DLSS. Она дает не очень большой прирост, примерно +4 FPS. Но этого вполне достаточно чтобы комфортно играть на высоких настройках в разрешении FHD. Считаю, это победа.

GTX 1650 Ti Mobile FHD

Настройки графики 1080P GTX 1650 Ti Mobile
Впечатляющее + RT: ультра + DLSS Auto
Впечатляющее + RT: средне + DLSS Auto
Впечатляющее ~29 FPS
Высокое ~34 FPS
Среднее ~38 FPS
Низкое ~43 FPS
Впечатляющее + DLSS Качество ~32 FPS
Впечатляющее + DLSS Ультрапроизводительность ~40 FPS
Высокое + DLSS Сбалансированное ~38 FPS
Среднее + DLSS Сбалансированное ~42 FPS

На 2060 можно играть вообще на всех настройках. На ультрах с рей трейсингом получаем стабильные 30 кадров. А на средних настройках уже больше 60 FPS без просадок.

А при включении DLSS мы получаем огромный прирост. Тут стабильные 60 кадров на впечатляющих настройках, но без трассировки лучей.

RTX 2060 Max-Q FHD

Настройки графики RTX 2080 Super Max-Q
Впечатляющее + RT: ультра (без DLSS) ~8 FPS
Впечатляющее + RT: ультра + DLSS Auto ~47 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 60 FPS
Впечатляющее ~ 21 FPS

RTX 2080 вообще особо не напрягается в разрешении FHD и выдает 60 FPS почти на максимальных настройках, а если отключить трассировку лучей и того выше. RTX 2080 и даже если отключить DLSS vs получаем играбельный фремрейт в районе 40 FPS на среднем качестве трассировки лучей.

RTX 2080 Super Max-Q FHD

Настройки графики RTX 2080 Super Max-Q
Впечатляющее + RT: ультра (без DLSS) ~8 FPS
Впечатляющее + RT: ультра + DLSS Auto ~47 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 60 FPS
Впечатляющее ~ 21 FPS

Поэтому для такой мощной карточки мы также запустили игру в 4K-разрешении и вот тут DLSS выступил во всейкрасе. Потому как без него мы получили слайдшоу меньше 10 FPS. А вот с DLSS 60 стабильных кадров на средних настройках трассировки. Отсюда делаем вывод что без DLSS в 4К-разрешении вообще играть нельзя.

RTX 2080 Super Max-Q 4K

Настройки графики RTX 2080 Super Max-Q
Впечатляющее + RT: ультра (без DLSS) ~8 FPS
Впечатляющее + RT: ультра + DLSS Auto ~47 FPS
Впечатляющее + RT: средне + DLSS Auto ~ 60 FPS
Впечатляющее ~ 21 FPS

Итоги

Что в итоге? Несколько выводов. Во-первых Cyberpunk 2077 для ПК вполне играбелен даже на ноутбуках на железе позапрошлого поколения. Во-вторых, DLSS очень крутая технология. Раньше нам приходилось понижать разрешение или отрубать эффекты, чтобы поднять фреймрейт. Теперь же можно просто поменять режим DLSS и радоваться.

А сегодняшний тест мы подготовили в том числе благодаря магазину Ситилинк. Главные преимущества Ситилинк – приятные цены и широкий ассортимент. Выбирайте свой ноутбук мечты на базе Nvidia на Ситилинк.

KFConsole от Cooler Master: Кажется, это не шутка

Пекари будут довольны. KFC и Cooler Master не шутили и представили настоящую игровую печь с поддержкой 4K и VR, траасировки лучей и 240 FPS.
aka_opex 23 декабря 2020 в 03:28

Вчера в сеть просочились кадры KFConsole, которая кроме гейминга предлагает разогреть куриные закуски из ресторанов быстрого питания KFC. Сама консоль выполнена в форме ведра.

И казалось, что это шутка, ваедь технические характеристики выглядели как один большой фейк, но оказалось, что на самом деле внутри ведра скрывается Cooler Master PC с Intel Nuc9 Extreme Compute Element, графикой NVIDIA от ASUS и некий процессор Intel CPU — нее уточнаяется какой.

Также тут есть твердотельный накопитель Seagate на 1 ТБ. В итоге получается миникомпьютер, который поддержкий VR, 4K и держит до 240 кадров в секунду.

https://twitter.com/kfcgaming/status/1341428570388901891

И главная его фишка — он может нагреть курочку в специальном отделении. Правда речь идёт о паре небольших куриных крылышек, который будут подогреваться и обдуваться. При этом конечно обычный ПК — также может разогревать курочку.

Сколько стоит игровая печь от KFC неизвестно, но стоит знать, что Nuc9 Extreme стоит порядка 3100 долларов.

NVIDIA GeForce RTX 3060 Ti: Кто на новенького?

NVIDIA GeForce RTX 3060 Ti — новый представитель линейки RTX 30, который получился очень мощным и при этом поддерживает передовые технологии.
aka_opex 1 декабря 2020 в 04:22

Компания NVIDIA представила сегодня новинку в линейке видеокарт RTX 30 и это NVIDIA GeForce RTX 3060 Ti.

Цена на новую графическую карту составит 399 долларов США и при этом пользователи получат поддержку технологии трассировки лучей и DLSS на базе искусственного интеллекта. В NVIDIA отмечают, что новая видеокарта работает быстрее чем прошлогодний GeForce RTX 2080 Super и стоит при этом почти вдвое дешевле — 399 долларов против 699 долларов. Новая карта поддерживает работу в разрешениях 1080p и 1440p.

DLSS, основанная на тензорных ядрах, способна повышать частоту кадров, генерировать красивые и четкие игровые изображения, а также благодаря этой технологии можно выставить настройки трассировки лучей и разрешение на максимум. Число игр с поддержкой DLSS постоянно растёт, сейчас технология доступна в 25 проектах.

Также в карте есть технология NVIDIA Reflex, которая сокращает задержки ввода в играх, делая управление более отзывчивым, и NVIDIA Broadcast — набор улучшений для аудио и видео с помощью ИИ, которая включает виртуальный фон, захват движения и улучшенное удаление шума. Всё это особенно актуально в последнее время, когда большинство людей работают из дома и при этом нуждаются в высоком качестве.

Карты серии NVIDIA GeForce поддерживают приложение GeForce Experience, которое уже используют десятки миллионов геймеров для оптимизации настроек игры, записи и загрузки в сеть игрового процесса, стриминга геймплея, создания снимков экрана, а также загрузки и установки драйверов Game Ready. В последних обновлениях появилась: автоматическая настройка GPU в один клик — GPU Tuning, а также усовершенствованный оверлей мониторинга в игре: в и без того надежный внутриигровой оверлей GeForce Experience теперь добавлена статистика производительности, показатели температуры и задержек.

Видеокарты GeForce RTX 3060 Ti будут доступны начиная с 2 декабря. Российские цены стартуют от 39 990 рублей.