Цифровой клон Земли от NVIDIA. Разбор

Сегодня мы расскажем об одном из самых амбициозных проектов компании NVIDIA, для которой они создают новый суперкомпьютер — цифровой копии Земли.
aka_opex 20 ноября 2021 в 10:42

Насколько сложно что-либо смоделировать? Ну вот допустим – воду, текущую по трубе, сложно смоделировать? Или воду, которую наливают в стакан?

Вообще, не очень. В современном мире такую компьютерную, и в целом довольно реалистичную физическую модель, может построить даже школьник на практически любом компьютере!

Установил себе какой-нибудь специальный пакет, типа 3D Studio MAX или SolidWorks, и моделируй себе сколько захочешь. 3D Studio Max выдаст тебе красивую картинку, а SolidWorks позволит рассчитать скорость потока, давление и прочие физические параметры. А ведь в реальности задачка то не самая простая, за каждой такой моделью стоит сложная математика!

Еще 25 лет назад такое моделирование казалось на грани фантастики! Не хватало ни вычислительных мощностей, ни просто программных решений. А что сейчас?

А сейчас NVIDIA анонсирует, что хочет создать модель всей Земли! Да именно так — просто смоделировать всю нашу планету! По сути, создать ее цифрового клона! Зачем? Сейчас расскажем!

Зачем моделировать?

Моделирование уже давно стало отдельной областью исследований и разработки. Оно само по себе подразделяется на целую кучу разных областей, начиная от молекулярной динамики, которая занимается моделированием систем на атомарном уровне и заканчивая моделированием погоды или например структуры зданий! Сегодня просто невозможно недооценивать важность моделирования.

Причем я сейчас говорю даже не о создании 3D-модельки танка для какой-нибудь популярной игры, что кстати само по себе сложная и кропотливая работа 3D-дизайнеров, а например о моделировании крыльев и фюзеляжа для современных самолетов.

Только вдумайтесь насколько сложные задачи человечество научилось решать с помощью создания компьютерных моделей.

Необходимо точно рассчитать потоки воздуха, влияние температур, нагрузки, вес самолета, и многое-многое другое.

Это бесконечно сложная задача с огромным количеством тонкостей и нюансов, при этом каждый параметр очень важен и все они влияют друг на друга. А еще надо симулировать все очень точно, ведь от этого зависят жизни людей.

И при этом даже такие сложные вычисления все равно позволяют, во-первых, сильно экономить при производстве, а во-вторых находить новые интересные решения для различных задач.

Возвращаясь к примеру того же самолета — например Boeing при создании своего знаменитого 787 Dreamliner создал его точную 3D-модель с каждым винтиком и проводом! И не просто создали 3D-модель, а также провели целую гору симуляций, которые позволили 787-му стать самым современным и продвинутым самолетов в истории!

Любой девайс, который вы сейчас держите в руках – телефон, ноутбук, ваш телевизор или стиральная машина! Изначально 3D-модели создаются для всего и при необходимости создается симуляция, которая способна оценить, например, насколько сильно нагреется ваш процессор и какое нужно охлаждение, и только потом, если все расчеты сходятся, устройство собирается в железе!

Метод конечных элементов

Как же происходит симуляция? Как научили компьютер моделировать практически любое физическое явление? И главное как научили эти физические явления дружить и влиять друг на друга?

Честно говоря, это невероятно сложная задача, но главным оружием тут стал так называемый метод конечных элементов!

Этот метод как супермен в мире комиксов, если есть проблемы — решай что-то методом конечных элементов! Сейчас мы не будем вдаваться в подробности о том как он работает, но вкратце объясню.

Каждая модель разбивается на целую кучу элементов, но самое главное то, что их число конечно, что собственно и отражено в названии метода.

Выглядит как сеточка! И сразу вспоминается компьютер Cerebras, про который мы сделали отдельный ролик — там внешняя сетка на решетке охлаждения была стилизована именно под метод конечных элементов!

Дальше для каждой отдельной ячейки решается своя система дифференциальных уравнений в частных производных, а эти уравнения известны заранее и основаны на физических законах — например, для жидкости надо решить уравнение Навье-Стокса, а для нахождения поля температуры уравнение Пуассона!

И чем больше этих отдельных ячеек тем сложнее становится система и тем больше уравнений надо решить. И одно дело если вам надо смоделировать просто жидкость, текущую в трубе, и совсем другое если вам нужно посчитать поток этой жидкости с препятствиями, в трубе с разными входами и выходами, которую одновременно греют с одной стороны и охлаждают с другой, и все это в изгибающемся под нагрузкой крыле самолета!

Соответственно, тут уже обычный компьютер не справится, да и необычный тоже. Тут нужны огромные вычислительные мощности! Опять же вспоминаем Cerebras CS-1 или суперкомпьютер Tesla — Dojo!

Кстати, недавно Tesla анонсировала, что они моделируют краш-тесты своих автомобилей и это помогает им улучшать структуру и делать свои машины безопаснее! Ну и еще не надо лишний раз разбивать свои тачки, конечно же.

NVIDIA

Но есть одна компания, которая является чемпионом по поставке чипов и сборке суперкомпьютеров для абсолютно разных задач — и это NVIDIA!

Ребята действительно лидеры в своей области и вот буквально в июле они объявили о создании суперкомпьютера Cambridge-1. Сделали они это в партнерстве с ведущими медицинскими научно-исследовательскими группами, например, известной нам теперь всем AstraZeneca.

Компьютер состоит из 80 систем DGX A100, интегрирующими графические процессоры NVIDIA A100 и кучу других систем, а стоит он более 100 миллионов долларов! И нужен он для изучения новых лекарств! Точнее для моделирования влияния лекарств на организм человека! Но на этом они не останавливаются.

Судя по всему, NVIDIA собирает самый мощный компьютер в истории и нужен для очень благородной цели.

Земля-2

Человек действительно влияет на экологию и влияет, мягко говоря, так себе. Температура планеты относительно медленно, но уверенно растет, а приводит это уже сейчас к плачевным последствиям. Климат меняется — больше ураганов, наводнений, стихийных бедствий.

Но точного понимания того, что и как именно влияет на экологию и что является критическим сейчас, у нас нет. На этот вопрос и призван ответить новый компьютер под названием Earth-2 или по-русски – Земля Два.

Основная идея в том, что NVIDIA совместно с научно-исследовательскими группами планирует создать цифрового двойника всей нашей планеты. Это позволит заглянуть нам в будущее, и понять насколько сильно состояние планеты ухудшится в ближайшие 10 или 100 лет, например.

В отличие от прогноза обычной погоды, который в первую очередь моделирует физику атмосферы, такие большие климатические модели это симуляция физики, химии и биологии атмосферы. Вода, лед, поведение самой земли и главное — деятельность человека. Все это влияет

Обычные симуляции такого рода сегодня имеют разрешение от 10 до 100 километров.

Но для новой модели требуется гораздо большее разрешение. Например, для моделирования круговорота воды в природе: движения воды океана, морского льда, поверхности суши и грунтовых вод через атмосферу и облака.

А например для моделирования тех же облаков, которые отражают, как зеркало, солнечный свет обратно в космос, необходимо разрешение в метрическом масштабе! По оценкам ученых, такие разрешения потребуют увеличение вычислительной мощности в миллионы раз.

И откуда же брать такие невероятные мощности?


NVIDIA говорит, что в целом уже все готово, главное правильно использовать и оптимизировать ресурсы! Объединение в машинном обучении, создание и обучение нейронных сетей, ускоренные вычисления прямо на GPU и разработка новых систем искусственного интеллекта – все это должно помочь достичь невиданных ранее мощностей!

Это невероятно амбициозный проект! Только представьте модель Земли в метровом разрешении с полностью просчитанным влиянием практически всего, начиная от коров и заканчивая солнечным ветром! Может быть такая машина времени нас ждет.

Посмотрим, что из этого получится и главное сколько потребуется времени на создание такого компьютера!

Чем хорош чип Google Tensor? Разбор

Сегодня мы разберемся с тем, что является сердцем нового Pixel 6 — процессором Google Tensor. Что же это такое и чем он лучше других?
aka_opex 11 ноября 2021 в 10:16

Что ж вышел Pixel 6: появились обзоры, мы всё поняли, хайп прошел. Или нет?

Не пугайтесь про Pixel 6 и Pixel 6 Pro еще будет куча контента! В любом случае, теперь мы можем спокойно поговорить про самую главную и наверное самую недооцененную фишку нового смартфона Google — процессор Tensor.

Это необычный чип. Google Tensor не похож на, то что делает Samsung, Qualcomm, даже Apple и на то что делал HUAWEI тоже. Tensor — это нечто особенное.

В своё время Google показал, как делать вычислительную фотографию. И судя по тому, что мы узнали про Tensor, теперь Google показывает всей индустрии как делать процессоры.

Поэтому сегодня подробно разберем по полочкам, что есть Google Tensor. Поясним за странные инженерные решения. Расскажем про секретное оружие Google и раскроем пару секретов про Google Tensor 2.

Чем Google Tensor не является…

Вступление было достаточно пафосным. Поэтому давайте чуть вернёмся на землю и посмотрим правде в глаза: Google Tensor – не идеальный процессор. Он не самый быстрый, не самый энергоэффективный и далеко не такой вертикально интегрированный, как А15 Bionic. Ведь в процессорах Apple, в отличие от Google, свой дизайн ядер, своя графика, и вообще все свое, кроме модема, но и это вопрос времени.

Но есть в Google Tensor такое, что выделяет его среди всех конкурентов. И речь идет про уникальные инженерные решения, до которых кроме Google никто не додумался. И начнем мы с такого решения, как компоновка.

Компоновка

Такой вопрос. Кто у нас в мире главный модельер? Или скажем так, самый влиятельный модельер? Как думаете? Кто-нибудь из дома Gucci? Armani? Prada? Может Канье Уэст?

Нет! Это компания ARM, которая, как положено хорошему модельеру, каждый год выпускает новую коллекцию дизайнов ядер Cortex. Дальше эти дизайны лицензируют вендоры: Qualcomm, Samsung, MediaTek и теперь Google. Они и воплощают их в виде процессоров для наших смартфонов.

Поэтому именно компания ARM определяет, что именно вы будете носить в карманах джинс и сумочках в этом году. Более того, помимо дизайна ядер, ARM еще дает рекомендации — как именно, оптимальнее всего эти ядра компоновать.

Например, в этом году на пике моды трёхкластерная компоновка 1+3+4, где есть одно огромное ядро Cortex-X1, три мощных ядра Cortex-A78, и четыре энергоэффективных Cortex-A55.

Такая компоновка используется в Snapdragon 888, Exynos 2100, да и остальные делают примерно то же самое, танцуя в ритме 1+3+4.

Но только не Google! Эти ребята делают какую-то особую дичь. В Google Tensor в качестве энергоэффективных ядер, как и у всех используется четыре ядра Cortex A55. Но вместо одного альфа ядра, тут сразу два Cortex-X1. А вместо актуальных на текущий момент Cortex-A78, они используют два ядра Cortex-A76.

А это даже не прошлый, а позапрошлый дизайн, который вышел еще в 2018 году. Это времена Snapdragon 855. Например, Pixel 4 работал на таком процессоре.

Зачем Google так делает? Ведь в использовании старых ядер нет ни экономической выгоды, ни технических причин. А всё дело вот в этой картинке.

Здесь вы видите сравнение ядер Cortex A76, A77 и A78 по производительности, потребляемой энергии и площади при использовании одинакового техпроцесса 7 нм.

И тут мы видим, что Cortex A76 из этой троицы — это самые компактные и энергоэффективные ядра и разница тут огромная. То есть смотрите, если Google уже влепил два огромных мощных ядра X1, они просто не могут поставить им в пару практически такие же мощные A78. Процессор будет тупо перегреваться. А мы знаем как перегревается Snapdragon 888 с одним ядром X1.

Поэтому Google взяли Cortex-A76 — как самые оптимальные средние ядра. И тем самым у них получилась куда более честная и логичная трёхкластерная компоновка 2+2+4.

Более того, Cortex-A76 в Google Tensor — это не те же самые ядра, что были 3 года назад и стоят в Pixel 4. Ведь тогда процессоры разрабатывалась по техпроцессу 7 нм, а Google перенёс старый дизайн на новый техпроцесс 5 нм, что позволило сделать ядра еще меньше и энергоэффективнее. И скорее всего, так сделать было сложнее, чем просто использовать актуальные A78 изначально заточенные под 5 нм.

Круто! Но зачем нужно было создавать себе сложности, и брать два ядра X1? Так процессор будет работать быстрее? Нет!

По одноядерной производительности мы вполне логично получаем паритет с Qualcomm Snapdragon 888 и Samsung Exynos 2100. А вот в многопотоке Tensor по полной сливает всем актуальным чипам.

Тогда зачем Google пришлось экспериментировать с компоновкой? А ответ кроется в понятии гетерогенные вычисления. Смотрите.

Гетерогенные вычисления

Да, процессор Google в бенчмарках – не чемпион, хотя и не аутсайдер, это тоже стоит признать, но Snapdragon 888 объективно в бенчмарках быстрее. По крайней мере в тестах CPU.

Но дело в том, что бенчмарки не показывают как процессор будет работать в реальной жизни.

Бенчмарк – это как упражнение в спортзале, когда изолированно нагружаешь какую-то группу мышц. Но в реальной жизни, когда нужно перетащить шкаф, хорошо прокаченный трицепс может и не пригодиться.

Тоже самое и с процессорами, очень редко бывает когда нагружается какой-то отдельный вычислительный блок, например, только одно мощное ядро.

Поэтому реальный тест на прочность процессора происходит когда одновременно происходят вычисления совершенно разного типа, и соответственно нагрузка идет на всю систему на кристалле, а не только на CPU или GPU. Это и называется гетерогенными вычислениями.

Яркий пример таких вычислений — это работа приложения “камера”. В этом случае нагрузка на центральный процессор не максимальная, а средняя. Но одновременно с ЦП тут на полную трудится сигнальный сопроцессор ISP, постоянно считая и обрабатывая данные с матрицы. Трудится графический процессор, особенно, если запустить AR. Нейронный движок постоянно распознаёт, сегментирует изображение. И всё это в реальном времени со скоростью 60 кадров в секунду. И вот именно под такие средние гетерогенные нагрузки и спроектирован Google Tensor.

Одни из руководителей команды Google Silicon Фил Кармак описывает это так:

“В задачах с довольно высокой нагрузкой, мы используем два ядра X1 на пониженных частотах, что делает их ультраэффективными. При условиях, в которых вы бы привычно использовали пару Cortex A76, выжатых на максимум, пара Cortex X1 будет едва напрягаться.”

К примеру, если предыдущий Pixel 5 перегревался при записи 4К видео. То в Pixel 6 такой проблемы нет, несмотря на то, что «шестерка» пишет видео в HDR.

Также по словам Кармака два ядра Cortex X1 позволяют быстрее щелкать кратковременные быстрые задачи, типа открытия приложения или подгрузки страницы, чтобы быстрее переходить в энергоэффективное состояние.

По крайней мере, именно такая была идея по словам Google. На практике же, судя по тестам авторитетного ресурса Anandtech, именно реализация идей подкачала. Средние ядра А76 и мелкие А55 в реализации Google, тупо отстают от конкурентов как по энергоэффективности, так и по мощности.

Tensor

Но не об этом, на самом деле нам хотелось поговорить, рассказывая про Google Tensor. Давайте уже обратим внимание на слона в комнате, имя этого слона «Искусственный интеллект».

Главная инновация мобильного процессора Google — это собственный нейронный движок TPU. Собственно TPU расшифровывается Tensor Processing Unit. Весь процессор, назван в честь этого компонента и построен вокруг этого компонента.

И вот, по тем же данным Anandtech, нейромодулятор в Google Tensor, просто уничтожает всех. Например, в области обработки естественного языка, превосходство над конкурентами трехкратное. И это разница в несколько поколений.

Да, не во всех тестах нейромодуль Google доминирует, но везде цифры очень хорошие. И это говорит, что нейропроцессор Google – один из самых мощных, а может и самый мощный на рынке.

Но зачем Google понадобилась такая мощность?

Дело в том, что у Google есть особое оружие — подразделение Google Research, в котором трудятся масса ученых умов и они постоянно публикуют кучу научных работ с бешеными алгоритмами.

И вот наконец-то настал их звёздный час, потому, что теперь появилось железо на котором их алгоритмы можно воплотить в жизнь. Давайте посмотрим, что уже реализовали.

HDRnet

В 2017 году ребята научили нейросеть, в реальном времени имитировать работу их фирменного алгоритма HDR+.

Сначала эту наработку стали использовать в Pixel 4 в виде функции Live HDR+. В приложении камера появились HDR превью и слайдеры регулировки тени и света.

А в Pixel 6 этот же алгоритм встроили прямо в ISP-модуль и поэтому смогли масштабировать для записи HDR видео. И теперь этот алгоритм называют HDRnet.

Кстати, обратили внимание как Google прокачал стабилизацию в видео? Еще бы, ведь они использовали алгоритм Deep Online Fused Video Stabilization из публикации этого года.

И видимо алгоритм Steadiface 2019 года для фронталки.

Synthesize Motion Blur

Погнали дальше. В Pixel 6 появился режим, имитирующий длинную выдержку? Так публикация ждала своей реализации с 2019 года!

Face Unblur

Или наоборот, Pixel 6 научился убирать размытие движение с лиц? Скорее всего им помогла вот эта работа 2021 года по исправлению размытия. Кстати, вы знали, что на фотках со сверхширокоугольной камеры Google исправляет геометрию лиц? И так далее…

В камере реализовано огромное количество алгоритмов, а сколько всего стоит на очереди даже сложно представить.

Не нравятся блики на фотках нового пикселя? Не проблема, скорее всего в будущем мы от них избавимся, потому как есть алгоритм, удаляющий блики.

Context HUB

А ведь все эти сложные алгоритмы из мира вычислительной фотографии – это только малая часть, того чем занимается Google Research.

В Google Tensor встроен потрясающий движок распознавания речи и перевода, который работает с 52 языками, насколько я помню, и всё это целиком устройстве, без подключения к сети.

Так в системе на кристалле есть отдельный вычислительный блок Context Hub, который по словам Google приносит «машинное обучение в область сверхнизкого энергопотребления».

Это блок, который постоянно трудится и что-то анализирует в фоне. Например, он отвечает за функцию, “Что сейчас играет?” и бог знает чем он еще занимается? Может, предлагает варианты ответа на сообщения в gBoard, может оптимизирует энергопотребление. Мы точно не знаем. Но что мы знаем наверняка: Google Tensor — это первый процессор, в котором настолько обширно используются возможности машинного обучения. И это только начало…

Tensor 2 и выводы

В сеть уже потихоньку начинают утекать данные про Google Tensor 2, который будет в Pixel 7.

Если первый Tensor имел кодовое имя Whitechapel и номер модели GS101, Tensor 2, судя по утечкам, получил крутое кодовое имя Cloudripper и номер GS201.

Данных по характеристикам нового Tensor пока нет, но очевидно что Google в этой игре всерьез и надолго.

Разработка первого Tensor шла на протяжении четырех лет. И хоть у них получился не самый быстрый и энергоэффективный процессор, первый блин вышел точно не комом.

Да, Pixel в общих мировых продажах телефонв занимают ничтожно малою долю. Да, Пиксели всегда в чем-то отстают от конкурентов. Но влияние этих телефонов на всю индустрию огромное!

В свое время Google задал тренд на вычислительную фотографию. Теперь же мы очень надеемся Google задаст новый тренд в мире процессоров.

Ведь Google Tensor — это процессор, созданный не маркетологами, а инженерами. И в наше время это большая редкость.

Что такое PCIe? Разбор

Сегодня мы расскажем вам про скоростную шину PCIexpress. Что это такое, как она работает и зачем нужна?
aka_opex 8 ноября 2021 в 06:39

Все мы постоянно слышим про линии PCI-Express. Тут их 8, там их 16. Тут PCI-Express 3.0, тут 4.0 и т.д. Но что всё это значит? И почему сейчас наличие свежего PCI Express почти так же важно как и мощный процессор или видеокарта?

Поэтому сегодня разберемся в технологии? Узнаем, что такое шина.

Сравним гигатранзакции и гигабайты. А также выясним почему PCI Express быстрее всех доставить вас до работы.

Что такое?

Для начала давайте разберемся, что такое PCI-Express и зачем он нужен?

И для этого давайте решим логическую задачку.

Перед вами 4К монитор, мощная видеокарта и быстрый SSD-диск. Что объединяет все эти устройства? Кроме того, что всё это сейчас стоит невероятных денег.

Давайте порассуждаем. Всем этим устройствам для нормальной работы нужно обмениваться данными с центральным процессором, причем в огромных объемах и на высоких скоростях. Поэтому все эти устройства могут подключаться к центральному процессору через высокоскоростную шину PCI-Express.

PCI Express (Peripheral Component Interconnect Express)

Что еще за шина и почему она высокоскоростная?

Ну смотрите, чтобы что-то с чем-то объединить внутри компьютера нам во-первых нужно физическое соединение, а во-вторых какой-то протокол, то есть правила, по которым данные будут передаваться.

Так вот и то и другое в одном флаконе – это и есть шина. А PCI-Express — одна из самых быстрых шин. Но насколько быстрая?

Вот у меня есть ноутбук, это MSI GP66 Leopard 11UH-229RU. Тут поддерживается актуальный PCIe версии 4.0.

Теоретически, если поставить сюда быстрый SSD с поддержкой PCIe 4-го поколения, то можно получить скорость 7, может даже 7,5 Гбайт/с. Представляете 7 ГБ в секунду! И такие цифры я уже видел на практике!

А так как тут есть слот под второй диск, если объединить два диска в RAID, то можно удвоить этот показатель.

Но в моей комплектации установлен не самый быстрый SSD от Kingston с памятью QLC и поддержкой только PCIe 3.0. Поэтому на нём возможности шины протестировать не получиться.

Но откуда такие скорости? Что это это за линии? И на что реально способен PCIe, об этом и поговорим.

Как работает PCIe?

Так почему же PCIe такой быстрый. В первую очередь, дело в архитектуре.

Представьте, что вам нужно доехать на машине от дома до офиса, который находится в 10 км от вас. При каких условиях дорога займет меньше всего времени? Она должна быть прямой, без ограничения скорости и желательно вообще без других машин.

Так вот, просто PCI (без express) работал похоже на обычную городскую дорожную сеть, все устройства подключались параллельно к общей шине, то есть их данные бегали по одним и тем же дорогам. Поэтому скорость работы могла варьироваться в зависимости от трафика.

А вот стандарт PCIe проложил индивидуальную дорогу для каждого устройства, которая напрямую соединяет его с центральным хабом, расположенным либо на одном кристалле с центральным процессором, либо отдельно на чипсете. Поэтому PCIe гарантирует стабильно максимальную скорость соединения для каждого устройства.

Причем такая индивидуальная дорога – двусторонняя. Поэтому данные могут передаваться и в одну, и в другую сторону одновременно на полной скорости. Такой режим передачи данных называется дуплексным.

Каждая такая дорога от устройства к коммутатору называется линией PCIe. И таких линий к каждому устройству можно провести несколько: 1, 2, 4, 8 или 16 в зависимости от потребностей. Потому, чем больше линий, тем больше скорость, то есть 2 линии в 2 раза быстрее, чем одна, а 16 линий в 16 раз быстрее. И никаких потерь.

Думаю, что общий принцип понятен, но теперь давайте немного углубимся и разберем как именно передаются данные.

Гигатранзакции

На скорость влияет не только архитектура, но и способ передачи данных.

На электрическом уровне каждое соединение использует низковольтную дифференциальную передачу сигнала или LVDS — low-voltage differential signaling.

В это сильно углубляться не будем. Но в общих чертах, в LVDS сигнал кодируется при помощи подачи разных уровней напряжения очень маленькой амплитудой сигнала.

Такой подход позволяет избежать помех во вне и передавать данные на высоких частотах при помощи дешевой медной витой пары. В общем, преимуществ масса.

Данные в компьютерных шинах передаются пакетами. Каждый пакет переданных данных называется транзакцией. Поэтому скорость передачи данных в шинах измеряется не в гигабитах или гигабайтах в секунду а в гигатранзакциях в секунду (ну или гигатрансферах, так тоже говорят). Что это такое?

Фактически транзакция в секунду, это не объём переданных данных, а частота с которой эти данные передаются. И чем эта частота выше, тем выше пропускная способность.

Тут похоже на ЦП, чем больше гигагерц, тем теоретически быстрее.

Так например например, в PCI-e 1.0 каждая линия работает с частотой 2,5 ГТ/с, то есть 2,5 миллиарда транзакций в секунду. А в версии 2.0. частота в 2 раза выше 5 ГТ/с, поэтому и пропускная способность интерфейса в 2 раза выше.

Одна линия PCIe 1.0 передавала 0,25 Гбайт/с, а 2.0 уже 0,5 Гбайт/с.

Но не только частота шины влияет на пропускную способность.

В PCIe 3.0 частота подросла с 5 ГТ/с до 8, и кажется это не много. Но при этом пропускная способность выросла практически в два раза! Как так?

Дело в том, что на скорость работы шины также влияет способ кодирования информации.

При передаче данных нам важно быть уверенными, что всё долетело в целости и сохранности. Поэтому в каждый пакет с данными добавляются специальные коды проверки целостности и прочая служебная информация, которые тоже занимают место.

Например, в первой и второй версиях PCIe на каждые 8 бит полезной информации приходилось 2 служебных бита. Такая кодировка обозначается как 8 бит поделить на 10 бит. или 8b/10b.

Это значит, что 20% пропускной способности шины тратилось на передачу служебной информации.

Начиная с 3-й версии интерфейса стали использовать кодировку 128b/130b. Это значит что на каждые 2 бита служебной информации приходится 128 бит полезной инфы. А это всего 1.5% потерь. Поэтому, несмотря на не сильно подросшие частоты с 5 до 8 Гигатрансферах, в третьей версии PCIe пропускная способность увеличилась практически в 2 раза.

Кстати, если хотите точно рассчитать пропускную способность каждой версии PCIe вы можете сделать это по вот такой формуле. Ну, либо просто загляните в табличку на википедии.

Формула расчета пропускной способности PCIe:

  • BW (МБ/с) = FR (МТ/с) * EN * 1B/8b
  • BW – искомая скорость передачи в МБ/с
  • FR – частота шины в ГТ/с
  • EN – тип кодирования
  • Пример, для PCIe 2.0:
  • BW = 5000 * 8/10 * 1/8 = 5000 * 0.8 * 0.125
  • BW = 500 МБ/с

Зачем нужен PCIe 4.0?

На текущий момент актуальна версия PCI Express 4.0. В отличие от прошлой версии 3.0, новая шина в 2 раза быстрее, частота передачи данных по шине тут достигает 16 миллиардов пересылок в секунду. А пропускная способность одной линии тут достигать почти 2 ГБ/с (1969 Мбайт/с). И целых 31,5 Гбайт/с для 16 линий!

Вы только представьте – 31 ГБ в секунду!!! Но зачем это нужно и вообще как влияет на производительность?

Ну смотрите, 3-е поколение шины появилось аж в 2010 году и до сих пор почти везде используется. А 4-е поколение было готово еще в 2017 году, но только щас начинает становиться мейнстримом.

Всё так медленно развивается потому, что до текущего момента было очень мало задач, для которых были бы нужны такие скорости передачи данных. То есть обновляться раньше не было смысла.

Но теперь появились доступные и супер быстрые SSD-диски, которым мало стандартных 4х линий PCI 3.0 со скоростью 3,9 ГБ/с. А также появились мощные видеокарты и мониторы с высоким разрешением, которым тоже нужна серьезно пропускная способность.

Поэтому в первую очередь PCI-e 4.0 нужен для современных игр и поддержки технологии DirectStorage от Майкрософт.

Если вы хотите, чтобы игры быстро загружались, быстро подгружались текстуры и были в высоком фотореалистичном разрешением, а переходы в другие уровни и смены локаций были бесшовными, быстрый SSD и PCIe 4.0 просто необходим.

Все эти вещи уже стандарт для консолей нового поколения, и поэтому все будущие игры также будет разрабатываться с учетом этих новых возможностей быстрого стриминга данных.

Во-вторых, если у вас несколько 4К и 5К мониторов с которыми вы одновременно работаете, наличие PCI Express 4-й версии тоже может стать необходимостью. Но это уже более профессиональные кейсы и тут люди сами знают, что им нужно.

Как влияет на производительность?

Окей, перейдём к практике и нашем тестовому ноутбуку MSI GP66 Leopard

MSI GP66 Leopard 11UH-229RU

  • Процессор Intel Core i7-11800H
  • Оперативная память 16 (2×8) ГБ DDR4-3200
  • Видеоподсистема Nvidia GeForce RTX 3080
  • Экран 15,6, 1920×1080, 144 Гц, IPS
  • Накопитель SSD 512 ГБ + свободный слот M.2 2280
  • Батарея 65 Вт·ч
  • Габариты 358×271×34 мм (максимум, измерено нами)
  • Масса без блока питания 2,32 кг (измерено нами)

Сильные стороны этого ноутбука: мощный процессор Intel 11-го поколения 11800H, к которому походят 20 линий PCIe 4.0, что позволит лучше раскрыть видеокарту Nvidia RTX 3080.
Плюс в ноутбуке довольно толстый корпус и фирменная система охлаждения CoolerBoost 5. А также прекрасный IPS дисплей от LG с частотой обновления 144 Гц.

Ну а главный недостаток — это комплектный SSD, который явно не раскрывает возможностей железа. Тем не менее всегда можно поставить второй SSD, если этого недостаточно.

Этот ноутбук не позиционируется как игровой, типа это ноут для вычислений. Но судя по характеристикам, а также RGB подсветке клавиатуры. Мы кажется поняли какие именно вычисления вы имеете ввиду MSI, поэтому запустил на нём Cyberpunk 2077.

И ноутбук проявил себя в игровом тесте великолепно. В Cyberpunk 2077 я выставил ультра настройки а в ноуте режим экстремальной производительности.

Также посмотрите результаты тестов в других играх в сравнении с конкурентами:

(Источник ixbt.com)

Насколько сильно повлияло наличие PCI Express 4.0 на эти результаты сказать сложно. Но интерфейс точно не был бутылочным горлышком, и полностью его потенциал может раскрыться в будущем, когда в Windows появится поддержка технологии DirectStorage и если поставить новый SSD.

В остальном, ноутбук очень хорош для ресурсоемких вычислений и просто идеален для игр.

Чего ждать в будущем?

Чего же нам ждать в будущем? Нас ждёт PCI Express 5.0 и 6.0, каждый из которых в два раза быстрее своего предшественника.

Спецификация 5-го поколения была финализирована еще в 2019 году, а первые процессоры с поддержкой новой шины появился в продаже уже очень скоро в ноябре 2021 года, это будут процессоры Intel 12-го поколения Alder Lake.

Потребности в скоростях 5-го поколения шины пока нет. Почти всем вполне хватит 4-й версии еще на долгие годы. Разве что теперь те же скорости будут доступны при вдвое меньшем количестве линий, что позволит сэкономить немного места.

Что же касается 6-го поколения. Спецификацию должны были утвердить в этом году, но перенесли на 22-й, а появление первых девайсов раньше 25-го года можно не ждать.

Но что можно точно сказать, что в этом году время PCIe 3.0, который прослужил нам больше 10 лет уже точно сочтено. Поэтому если уж брать комп или ноутбук, то минимум с 4-й версией.

Процессоры в ноутбуках и ПК — в чем разница? Разбор

Сегодня мы попробуем разобраться есть ли разница в процессорах для ПК и ноутбуках и в чем она выражается! Просто и понятно — как всегда.
aka_opex 3 ноября 2021 в 08:18

Вот часто смотришь на характеристики десктопных и ноутбучных процессоров и впадаешь в ступор. Вроде бы характеристики у них очень похожи: одинаковое количество ядер, почти одинаковые частоты и вроде бы похожая производительность.

Но на деле всё совсем не так. Поэтому сегодня постараемся разобраться в путанице и ответим на самый главный вопрос. Чем же всё-таки отличаются ноутбучные процессоры от десктопных.

Архитектура

Что вообще такое центральный процессор? Это очень сложное устройство, которое состоит из множества компонентов, каждый из которых отвечает за свой круг задач.

Ядра, кэш память, блоки ввода/вывода информации, дополнительные сопроцессоры, типа нейронного или сигнального, блок кодирования-декодирования разных кодеков и так далее. Компонентов очень много и все они должны идеально взаимодействовать друг с другом.

Поэтому каждый из производителей в поисках идеала, с каждым новом поколением процессоров меняет характеристики компонентов, их компоновку и так далее, совершенствуя формулу взаимодействия компонентов. И называется это всё архитектурой. Например, архитектура Zen, которая используется в процессорах AMD Ryzen.

Небольшая ремарка, еще существует понятие микроархитектура. В чем разница? Если архитектура — это просто свод правил, то микроархитектура — это ее физическое воплощение на кристалле. То есть все процессоры Ryzen работают на одной одной архитектуре Zen, но при этом каждое новое поколение работает на новой микроархитектуре: Zen 1, Zen 2, Zen 3. Но чтобы не усложнять, в этом материале я буду всё называть архитектурой.

С одной стороны, архитектура — это строгий и очень подробный свод правил, который объясняет как именно должен работать процессор.

С другой стороны, одно из важнейших требований к современным архитектурам — это способность масштабироваться. Хорошая архитектура позволяет работать с процессорами как с конструктором, добавляя и убирая элементы, чтобы собирать совершенно разные конфигурации под разные требования.

Для десктопных процессоров основное требование — это высокая производительность, высокие тактовые частоты, поддержка большого количества ядер, возможность оверклокинга и прочие радости ПК-бояр.

Например, десктопные AMD Ryzen могут масштабироваться до 64 ядер. Но естественно такие процессоры занимают много места, жрут много энергии и сильно греются. Соответственно, для ноутбучных процессоров требования совершенно другие. Какие же это требования?

Бюджеты

В процессорах для ноутбуков всё упирается в ряд ограничений. Поэтому одно из ключевых понятий для ноутбучных процессоров — это бюджет. Хотя речь тут не про деньги, но и про них тоже: имеются в виду несколько иного рода бюджеты. Главные из них — два.

Первый — это кремниевый бюджет. Процессоры для ноутбуков должны быть компактными, потому как в ноутбуках тупо мало место. Поэтому в мобильных процессорах нужно умудриться разместить все необходимые компоненты на меньшем по площади куске кремния.

Кстати, именно из-за экономии места, ноутбучные процессоры распаиваются прямо на материнской плате и их нельзя заменить (в отличие от десктопных процессоров, которые спокойно вставляются в специальный сокет). Такой тип установки называется BGA, что расшифровывается как Ball grid array — массив шариков. А всё потому что BGA выводы на материнской плате выглядят как массив шариков из припоя.

Также для ноутбуков и особенно ультрабуков важно наличие встроенной графики на одном кристалле с центральным процессором. Поэтому чаще всего мобильные процессоры являются гибридными, то есть содержат в себе и графический, и центральный процессор. AMD такие процессоры называет APU — accelerated processor unit.

В десктопах APU встречается гораздо реже, но иногда выпускаются небольшими партиями специально для компактных сборок. У AMD это процессоры серии G. И конечно же XBOX и PlayStation работают на APU.

А десктопные процессоры, могут наоборот располагаться сразу на нескольких кусках кремния. Например, классическая компоновка для процессоров Ryzen — это один большой чип с блоком ввода-вывода и один или два так назваемых чиплета, на каждом из которых расположено по 8 ядер.

И это всё мы говорили про кремниевый бюджет. Но естественно, это не основное ограничение для ноутбучных процессоров.

Ключевой момент в доступном термальном и электрическом бюджетах. То есть в нагреве и доступной для потребления электроэнергии. И это второй важный вид бюджета.

Чаще всего оба этих требования выражаются в одной единственной аббревиатуре и это TDP или thermal design power, что переводится на русский как конструктивные требования по теплоотводу. Этот параметр измеряется в Вт тепла. Он указывает на отвод какой тепловой мощности должна быть рассчитана система охлаждения ноутбука или ПК, чтобы процессор мог нормально работать. Естественно в ноутбук нельзя установить такую же мощную систему охлаждения, как и в большую рабочую станцию.

Например, 64-ядерный AMD Ryzen Threadripper 3990X расчитан на отвод 280 Вт тепла. А 8-ядерный процессор Ryzen 7 4700U для тонких профессиональных ноутбуков готов довольствоваться теплоотводом в 10-25 Вт. Как видите, разница более чем десятикратная.

Также в ноутбуках есть еще ограничение на общее энергопотребление. Например, ноутбук с довольно мощной дискретной графикой будет потреблять больше энергии, чем может выдать встроенный в ноутбук аккумулятор. В связи с этим такие ноутбуки будут работать на полную мощность только при подключении к электросети.

Итого, несмотря на то, что многие мобильные процессоры на бумаге могут выглядеть очень похоже на десктопные: они могут иметь тоже количество ядер, быть построены на той же архитектуре и даже работать примерно на той же тактовой частоте. Всё равно процессоры для ноутбуков и ПК сильно отличаются в силу того, что они сконфигурированы под работу в совершенно разных условиях.

Думаю, мысль простая и понятная, но на практике всё куда сложнее, чем в теории. Поэтому давайте попробуем сравнить максимально похожие процессоры для ноутбуков и ПК, и поймем в чем там конкретно разница.

Практика

Итак, наши кандидаты для сравнения. В качестве ноутбучного представителя у меня есть ASUS VivoBook S15 с процессором AMD Ryzen 7 4700U. Сравнивать мы его будем с AMD Ryzen 7 PRO 3700. И сразу видим некоторые сложности с именованием. Почему это мы сравниваем 4000-серию в мобильных процессоров с 3000-й десктопной?

Дело в том, что в последние годы AMD, при переходе на новую архитектуру, сначала выпускает десктопные процессоры, а потом на следующий год мобильные. К примеру, десктопные процессоры Ryzen 3000 серии на архитектуре Zen 2 вышли летом-осенью 2019-го. А мобильные процессоры на той же архитектуре Zen 2 вышли позже зимой 2020-го и уже были 4000 серии, хотя по сути десктопные 3000-ки и мобильные 4000-ки — это одно поколение. Такая же логика справедлива и для следующих поколений на архитектуре Zen 3.

Более того, мобильные и десктопные процессоры отличаются сериями. У мобильных процессоров бывает U-серия. Это процессоры для быстрых ультрабуков с TDP районе 15 Вт. И H-серия для ноутбуков.

Думаю, разобрались. Чем же отличаются эти процессоры? По сути, кроме архитектуры Zen 2 и количества ядер — всем!

У мобильного процессора TDP -15 Вт, а у десктопа — 65 Вт

У мобильного — 8 МБ кэш памяти, а у десктопа — 32 МБ

У мобильного процессора есть встроенная графика, у десктопа — нет. И так далее…

У десктопа в 4 раза больше транзисторов. Но при этом у процессоров по тестам одинаковая одноядерная производительность, а многопоточная уже отличается вдвое. Что крайне важно для профессиональных ресурсоемких задач: рендеринг 3D-видео, серьёзная цветокоррекция, различные математические симуляции. Ну и в играх тоже немного полезно, но не сильно.

Но главное тут даже не сколько попугаев выбивает процессор, а как долго он сможет держать максимальную производительность. И в этом плане десктопы с серьезными системами охлаждения вне конкуренции.

Processor AMD Ryzen 7 4700U AMD Ryzen 7 PRO 3700
Microarchitecture Zen 2 Zen 2
Transistors 4,940,000,000 19,200,000,000
Cores / Threads 8/16 8/16
Base frequency 2.0 GHz 3.6 GHz
Turbo frequency 4.1 GHz 4.4 GHz
Cache memory 8 MB 32 MB
Max memory capacity 32 GB 128 GB
Memory types DDR4-3200 DDR4-3200
Max # of memory channels 4 2
Max memory bandwidth 68.27 GB/s 47.68 GB/s
TDP 15 W 65 W
GPU integrated graphics AMD Radeon Graphics 448SP None
Maximum temperature 105°C 95°C
CPU-Z single thread 485 486
CPU-Z multi thread 2411 5308
PassMark single thread 2554 2670
PassMark CPU Mark 13726 22559

Но все же. Важно, что каждый из этих процессов хорошо справляется своей задачей. При этом нельзя не отметить, что в последние годы мобильные процессоры настолько подросли по производительности, что стали справляться с огромным рядом профессиональных задач. И сейчас даже тонкого ноутбука достаточно почти для всего, даже для монтажа.

Например, на ASUS VivoBook S15 в Adobe Premiere Pro я запустил 4К-проект фильма и он его совершенно спокойно прожевал.

Вакуум при производстве CPU. Зачем он нужен? Разбор

Сегодня мы расскажем о вакууме. Причём тут технологии? Чтобы создать вакуум нужны технологии, но главное — для создания технологий нужен тоже вакуум!
aka_opex 1 ноября 2021 в 09:27

Сложно ли наклеить пленку на экран телефона? В целом, процедура то довольно простая — протер экран и быстро наклеил пленку! Но как же много пленок оказалось в помойке из-за маленьких частичек пыли, которые оказались между экраном и пленкой, при этом образовав отвратительный маленький пузырик воздуха!

Уверен, что такая ситуация знакома очень многим зрителям нашего канала. И мы тут говорим о том, чтобы просто наклеить пленку на телефон.

А теперь представьте, что вам надо нанести слой всего в несколько нанометров! Или нанести на кремниевую пластину рисунок будущего процессора с помощью экстремальной УФ литографии! Тут дело уже не только в пыли: любая неточность уже критична!

Чтобы не было дефектов должна быть идеальная чистота и абсолютно контролируемые условия. Как же это достигается? Как сделать условия осаждения контролируемыми? Это действительно сложная задача и частично ей занимается область под названием Вакуумная техника!

Что такое вакуум?

Давайте для начала поймем, что такое вакуум, что такое давление газа и как они связаны?

Представим себе стеклянную камеру идеально изолированную от внешней среды, где давление воздуха внутри такое же как снаружи, то есть 1 атмосфера. Что это значит?

Газ — это такое состояние вещества, когда молекулы движутся в каком-то объеме свободно, при этом занимая весь доступный объем. Эти молекулы газа находятся в постоянном и хаотичном движении — они как бешенные летают туда-сюда и сталкиваются друг с другом.

Но не только между собой — они еще и сталкиваются со стенками нашего стеклянного сосуда! Когда одна молекула стукается о стенку, то ничего особенного не происходит, но вот когда этих молекул много, то эти триллионы столкновений становятся уже существенными! Это и есть давление газа.

Я просто напоминаю что в одном кубическом метре газа при атмосферном давлении примерно 1 атм — это 2 на 10 в 25 степени молекул газа!

Вот столько: ≈ 26 875 000 000 000 000 000 000 000

Но когда эти столкновения внутри сосуда и снаружи равны, то это и значит что давление одинаковое! Столкновения снаружи и внутри друг друга компенсируют!

Но вот мы начинаем этот газ откачивать из нашей колбы и в идеальном случае, в идеальном вакууме, откачиваем до тех пор, пока газа в этом сосуде совсем не остается, то есть убрали все молекулы из объема.

При этом давление внутри стало равно нулю, а снаружи молекулы все также стукаются о внешние стенки нашей колбы, то есть наше стекло начинает сжиматься, потому что разница давления стала равна 1 атмосфере! Или равно примерно 1 кг на 1 квадратный сантиметр!

И если этот сосуд достаточно крепкий, то он выдержит это давление, а если нет, то происходит взрыв…

Также справедливо и обратное — если накачать слишком много газа в объем, то он может не выдержать, прямо как воздушный шарик с гелием, который надули слишком сильно. В общем, тут то мы и приходим к тому, что такое вакуум — это среда, где газа сильно меньше чем в атмосфере, то есть давление сильно меньше, чем атмосферное!

Зачем нужен вакуум?

Ну а зачем вакуум вообще нужен и при чем тут производство процессоров?

Дело в том, что при производстве нужны минимальные загрязнения и максимальный контроль. Да и для того, чтобы вообще многие процессы из нашей святой троицы осаждения, травления и литографии работали — необходимы низкие давления.

Если вы помните, то вакуум нужен для электронных микроскопов и для гигантских установок экстремальной ультрафиолетовой литографии, ведь ультрафиолетовое излучение рассеивается в воздухе, как и луч электронов в электронном микроскопе.

Не говоря уж о научном оборудовании, которое может выглядеть как-то так. Внутри всех этих железяк нужно создать очень низкое давление.

Вообще идеальным примером тут может служить обычная лампа накаливания. Внутри первых ламп был вакуум! То есть инженеры пытались максимально продлить срок службы вольфрамовой нити, максимально избавив ее от любого газа, с которым она может взаимодействовать!

Современные же лампы накаливания заполнятся избыточным инертным газом, то есть таким газом, который с Вольфрамовой нитью не взаимодействует.

Поняли к чему я клоню?

Это и есть создание контролируемых условий для проведения определенных процессов. Сначала из колбы убрали воздух со всей той гадостью, которую он в себе несет: с грязью, пылью и самое главное — убрали кислород. Ведь именно он реагирует с Вольфрамом, и при нагреве нить просто сгорит.

Так вот при производстве процессоров надо сделать тоже самое — надо либо полностью убрать любой газ, а в особенности кислород из объема, либо сначала убрать, а потом заполнить рабочий объем специальным газом!

Просто представьте, когда мы говорим о транзисторах размером в пару десятков нанометров — любая, даже самая маленькая частичка пыли, может испортить тысячи транзисторов.

Тут кстати вакуум играет не самую важную роль, гораздо лучше в этом помогает сделать так называемые «чистые комнаты»!

А кислород вообще главный враг! Ведь при осаждении различных материалов используются пары и активные ионы различных металлов, а они только и мечтают как бы с этим кислородом связаться, то есть как бы им окислиться!

Вот осаждаете вы алюминий, а он бац и стал оксидом алюминия, и уже вместо проводника он стал изолятором, тем самым испортив вам контакт транзистора! В общем, надо максимально избавиться от воздуха в установках на производстве, а как?

Как создается вакуум?

Ну вот наконец-то мы и переходим к самому интересному. Как создать вакуум?

Тут то вы очевидно ответите, что все очень просто — надо просто откачать газ: подключил насос и выкачивай свой воздух сколько влезет! Частично вы правы, но все, как обычно, чуть-чуть сложнее.

Мы не зря тут вам напоминали, что такое газ и давление, и что газ занимает весь объем, доступный ему. Если у нас полностью изолированная колба, чтобы уменьшить в ней давление надо увеличить ее объем! Тогда образовавшийся новый объем мгновенно занимает газ, равномерно распределялась. Соответственно на единицу площади стенки в среднем попадает меньше молекул газа!

Вы ровно так и дышите между прочим! Грудные мышцы расширяют ваши легкие — увеличивая их объем, давление в легких понижается и воздух через нос или рот заполняет легкие. Потом мышцы сжимают легкие, давление повышается и газ выходит наружу.

А попробуйте зажать нос и закрыть рот, а потом вдохнуть или выдохнуть — вот поздравляю — вы создали изолированную колбу, о которой мы вам тут рассказываем!

То есть для откачки или иначе говоря для создания вакуума надо сначала увеличить объем, а потом этот объем просто изолировать!

И на производствах для этого используются специальные вакуумные насосы, которые ровно так и работают — посмотрите на пример так называемого мембранного насоса.

Мембрана выгибается в одну сторону и объем увеличивается, заполняется газом из той области, которую мы откачиваем, потом мембрана выгибается в другую сторону, и газ выталкивается уже наружу, так как доступ обратно в камеру уже перекрыт.

По такому же принципу работают и так называемые роторные насосы. Они более мощные и могут создавать более глубокий вакуум, чем мембранные!

Есть целая куча различных роторных насосов, но в целом принцип у них один и тот же — увеличили объем, отсекли его и выбросили газ с другой стороны!

Но тут мы сталкиваемся с новой проблемой!

Глубокий вакуум

Такие насосы могут откачать газ только до определенных давлений, а они, мягко говоря, все еще великоваты. Слишком много всякой ненужной гадости будет у вас в камере. Примерно в десять тысяч раз больше, чем хотелось бы! Надо создать более глубокий или иначе говоря высокий вакуум.

Кстати, оцените таблицу типов вакуума — в производстве обычно используется высокий вакуум, а например для детектора гравитационных волн LIGO надо было создать Экстремальный вакуум!

И тут человечество пошло на много разных хитростей, но сейчас мы расскажем вам о двух самых классных для создания высокого вакуума.

Первые — это так называемые турбомолекулярные насосы! Они не создают новый объем, как это было с роторными насосами. Объем остается таким же!

Но как же он тогда качает?

А дело все в том, что он работает как вентилятор! Молекулы газа стукаются о его лопасти и отскакивают от них только в определенных направлениях, то есть их просто как шарики выбивают из рабочей камеры!

Только для того, чтобы это начало работать — лопасти этого вентилятора надо раскрутить очень быстро.

Современные турбины крутятся со скоростями до полутора тысяч оборотов в секунду! Их даже стали делать на специальном магнитном подвесе, то есть лопасти просто висят на магнитной подушке и крутятся на бешеной скорости.

И самое интересное, что для корректной работы таких турбин необходимо производить откачку уже из выхлопа самой турбины. То есть получается такая своеобразная двухэтапная откачка рабочей камеры.

Использование турбин — это самый популярный метод откачки до высокого вакуума — именно он и используется в установках ASML для литографии! Мы такую турбину можем даже увидеть на рендере.

А какой же второй способ? Это так называемый крионасос. Иногда это специальный насос, а иногда это в общем-то даже не совсем насос как таковой.

Работает по принципу бокала с пивом, о котором мы вам уже рассказывали в материале о магии создания процессоров! На холодной поверхности водяной пар конденсируется! А если поверхность охладить очень сильно, то конденсироваться будет уже не только вода, но и все остальные газы из воздуха, в том числе и кислород. Он будет просто застревать на стенках!

Для этого часто применяют обычно жидкий азот у которого температура почти -200 градусов по цельсию, который закачивают в стенки специальной камеры. Молекулы газа, которые летают в объеме долетая до этой стенки просто на ней застревают и все.

Вот такое вот элегантное и простое решение! Но само собой, что если перестать охлаждать, то весь газ вернется обратно в объем.

Выводы

И конечно есть еще другие типы насосов — есть ионные и диффузионные насосы. Но они уже не такие популярные в целом, хотя выполняют все ту же функцию — понижают давление в камере.

При этом как и с лампочкой накаливания, зачастую после откачки рабочий объем в камере потом заполняется так называемым рабочим газом, то есть газом который необходим для проведения определенного технологического процесса! И иногда это кислород! Тот самый кислород, от которого мы изначально хотели избавиться. Просто первичная откачка позволяет добиться правильных условий процесса, ведь мы можем контролировать давление, концентрацию и поток кислорода. Все ради контроля процесса! И так на каждом этапе производства!

И без этих сложных и крутых технологических решений, о которых мы вам рассказываем в этой серии разборов, современный мир, которым мы его знаем сейчас, был бы совсем невозможен. Никаких процессоров и экранов!

Что такое Dolby Atmos и как он работает? Разбор

Сейчас везде говорят — Dolby Atmos. А что это такое? Что это за стандарт звука, который есть в кино, наушниках, телевизорах и даже смартфонах…
aka_opex 21 октября 2021 в 06:24

Dolby Atmos сейчас повсюду — в телефонах, телевизорах, наушниках и в огромных кинотеатрах. И очевидно, что звук в кинотеатре и в наушниках не может быть одинаковым, но называется он одинаково. Нет ли тут подвоха?

Вот и нам стало интересно. Поэтому, мы решили разобраться можно ли Dolby Atmos запихнуть в телефон, наушники и телевизор или это просто маркетинг?

Сегодня расскажем много интересного про человеческих слух. Расскажем про технологии объемного звучания. И протестируем Dolby Atmos на телевизоре Hisense.

Для того, чтобы ответить на вопрос — где настоящий Dolby Atmos, а где нет, для начала мы должны определиться, что такое Dolby Atmos, понять принцип работы этой технологии и чем она отличается от других технологий объемного звука. А технологии объемного звука бывают разными. И в целом, их можно разделить на три типа.

Канальный звук

Первая разновидность — это канальный звук, а точнее многоканальный. Тут всё привычно и понятно. Вот у нас есть две колонки. Одну ставим слева от себя, другую справа от себя. И вот мы получили идеальный сетап для стереозвука.

Что такое стере? Это две независимые аудиодорожки, одна для левого канала, другая для правого, которые талантливый звукорежиссер уровня SLAVA MARLOW не меньше, заранее подготовил для вас на студии. То есть он сделал для вас двухканальный звук, чтобы раскрыть потенциал ваших двух колонок и у вас всё было прекрасно.

Но допустим, что двух колонок вам мало, вы хотите чтобы звук не просто перемещался в одной плоскости, а окружает вас со всех сторон.

Поэтому вы покупаете себе акустическую систему типа 5.1, где уже целых шесть колонок, которые вы расставляете вокруг себя: одну в центр, четыре — по бокам, и одну куда угодно, потому что это сабвуфер, которые делает вуф.

Теперь для того чтобы раскрыть потенциал вашей системы, звукорежиссеру нужно запариться посерьезней, потому что теперь нужно подготовить 6 аудиодорожек, чтобы сделать многоканальный звук. А еще кучу других конфигураций 7.1, 9.1 или может даже 11.2, с колонками на потолке, двумя сабвуферами, центральными каналами спереди и сзади и так далее. А если мы говорим про кинозал, то там вообще может быть 64 колонки.

  • 5.1 + 2 колонки на потолок;
  • 5.1 + 2 верхние фронтальные колонки;
  • 5.1 + 4 колонки на потолок;
  • 5.1 + 2 верхние фронтальные колонки + 2 колонки на потолок;
  • 7.1 + 2 колонки на потолок;
  • 7.1 + 2 верхние фронтальные колонки;
  • 7.1 + 4 колонки на потолок;
  • 7.1 + 2 верхние фронтальные колонки + 2 колонки на потолок;
  • 9.1 + 2 колонки на потолок;
  • 9.1 + 2 верхние фронтальные колонки;
  • 9.1 + 4 колонки на потолок;
  • 9.1 + 2 верхние фронтальные колонки + 2 колонки на потолок.

Объектно-ориентированный звук

Мастерить разные варианты аудио под все эти конфигурации просто не вариант.

Поэтому ребята из Dolby подумали… А что если вместо того, чтобы заранее мастерить звук под разные конфигурации, мы сделаем формат звука, который будет масштабироваться и правильно звучать как на 64 колонках, так и на двух. Именно так появился объектно-ориентированный звук, также известный как Dolby Atmos. И это совершенно новый способ создания объемного звука.

В Dolby Atmos нет аудиоканалов, а вместо них есть независимые аудиообъекты? распределенные звукорежиссером по виртуальной трехмерной сцене.

То есть, к примеру, в фильме над головой героев пролетает вертолёт, внутри файла Dolby Atmos на полном серьёзе аудиодорожка со звуком вертолета будет летать по трехмерной сцене.

Всего такихаудио объектов может быть 128 штук . Представляете? Это всё равно, что если бы вы находились в лесу, вокруг вас пело 128 птиц, они бы перелетали с ветки на ветку, задевали листву. И весь этот объём звучания можно воплотить при помощи Dolby Atmos.

Но как это возможно?

Если чуть погрузиться в детали, аудиофайл в формате Dolby Atmos содержит в себе независимые дорожки, то есть объекты и метаданные, в которых указано, где именно каждый объект должен находиться внутри трехмерной сцены в каждый конкретный момент времени. А из какой колонки, с какой громкостью, с какой задержкой прозвучит этот объект уже решает специальный алгоритм, который является частью формата Dolby Atmos.

При этом алгоритм будет автоматически подстраиваться именно под вашу конфигурацию, то есть количество колонок, их мощность и расстояние между ними. Иными словами Dolby Atmos, грубо говоря, позволяет делать мастеринг в реальном времени под ваш конкретный сетап.

Главное, чтобы ваше устройство имело поддержку Dolby Atmos, то есть умело в реальном времени декодировать этот формат, а также имело более менее приличную акустику.

Телевизор Hisense 50E76GQ

Все это есть в телевизоре Hisense 50E76GQ. Это 50-дюймовая модель с разрешением 4К. Это QLED с VA матрицей. И это наиболее удачное сочетание технологий в QLED-телевизорах. Почему?

Смотрите, VA-матрицы имеют свои плюсы и минусы. А также тут есть технологии: кристаллы VA-матрицы очень хорошо блокируют подсветку. За счет чего достигается достаточно глубокий уровень черного цвета. Не как OLED конечно, но очень близко. Плюс в отличие от IPS тут нет паразитных засветок и явных ореолов вокруг контрастных объектов.

А минус VA-матриц — средняя цветопередача. Но в сочетании со слоем квантовых точек этот недостаток полностью нивелируется, потому как квантовые точки излучают идеальные по спектру красный, зеленый и синий цвет. Благодаря этому картина раскрашивается в естественные и очень правильные цвета.

Отсюда телевизор Hisense выдаёт 10-битный цвет и 100% охват цветового пространства DCI-P3. И всё это называется Quantum Dot Colour.

И если что — с углами обзора по горизонтали в VA-матрицах давно всё решили, на экран можно смотреть почти под любым углом: картинка заметно не выцветает.

Плюс квантовые точки, это считай дополнительная подсветка, отчего картинка становится ярче. И это хорошо для HDR-контента.

А этот телевизор поддерживает не только Dolby Atmos, то есть объемный звук, но и Dolby Vision.

Напомню, что это самый продвинутый формат HDR-видео. В таком формате распространяет свой контент Netflix и Apple TV+, его поддерживают консоли нового поколения, в конце, концов, iPhone снимает в Dolby Vision. Короче, поддержка Dolby Vision — это жирный плюс. Хотя телевизор поддерживает еще и конкурирующий стандарт HDR10+, то есть тут вообще полный фарш.

Я давно уже охочусь именно за контентом в Dolby Vision, что в ролике сравнить разницу. Но это не получится: он у нас не в HDR пока. Чтобы вы понимали в Dolby Vision можно даже не подстраивать картинку в настройках ТВ, ведь все будет идеально сразу — как хотел показать режиссер, как бы это маркетингово ни звучало!

В играх Dolby Vision тоже добавляет кайфа. Правда, завезли только на Xbox, причем обещают уже сотню тайтлов, но надеюсь и Playstaion об этом думают.

Вообще, с играми тут всё в порядке. В вашем распоряжении HDMI 2.1, низкий инпут лаг — 11 мс, ALLM. 120 Гц и VRR, к сожалению, не завезли: это фишечки для моделей подороже. Зато для спорта довезли режим отрисовки кадров MEMC. Ну и вернёмся к звуку. В телевизоре установлено всего два динамика и есть поддержка Dolby Atmos.

Бинауральный звук

Вот сейчас нужно пояснение. Объектно-ориентированный звук — классная идея. Расставил объекты по трехмерной сцене, а дальше алгоритм всё сам сведёт под разные сетапы. Ну это если очень упростить — звукорежиссеры, не пинайте сильно.

Я прекрасно понимаю, что всё это будет работать если у вас хотя бы акустическая система 5.1. Но если вы смотрите кино на телевизоре или в наушниках. Весь ваш Dolby Atmos превратится в тыкву, то есть деградирует до стереозука.

Ведь объёмное звучание можно получить только если у вас много колонок. Так ведь? А вот и не так! Если вы вдруг не заметили слона в комнате., то прошу обратить внимание, что у людей в базовой комплектации присутствует всего два уха. И при этом мы прекрасно слышим объёмный звук, то есть мы можем определить направление откуда идет звук с достаточно высокой точностью.

Даже могу сказать с какой: в горизонтальной плоскости человек способен уловить смещение источника звука с шагом в 3 градуса, а в вертикальной плоскости на 10-15 градусов.

Всё это называется бинауральная разрешающая способность слуха. И тут мы плавно переходим к третьему способу создать объемное звучание — бинауральное аудио.

Способности достаточно точно локализовать объекты по трехмерной сцене мы обязаны не нашим ушам, а в первую очередь — мозгу. И делает он это при помощи очень хитрых уловок, а точнее вычислений. Разберем несколько таких уловок.

Например, мозг может использовать задержка звука. Наши уши находятся на расстоянии друг от друга. При этом звуковая волна распространяется не очень быстро. Поэтому, если источник смещен относительно центра головы, звуковая волна в одно ухо придет раньше, а в другое позже. Например, если звук пришел в левое ухо позже, значит источник сигнала где-то справа.

А понять — спереди идет звук или сзади, мы можем немного поворачивая голову, тем самым проверяя догадку.

Также для более точной локализации мозг анализирует частоты звука. Например, низкие частоты, способны огибать нашу голову, а более высокие — наоборот глушатся. Поэтому если звук идёт справа наша голова поглотит высокие частоты и они просто не попадут в левое ухо. Ну или поклонники теории большого взрыва, специально для вас: эффект Допплера.

Если слушатель приближается к источнику звука, то тон звука выше, если отдаляется — ниже.

К чему я это всё?

При помощи всего лишь двух источников звука мы можем имитировать многие из этих уловок нашего мозга.

Например, если мы запустим аудио в одном из каналов с небольшой задержкой, для нашего мозга сразу сдвинем мнимый источник звука в бок.

Поэтому принципу создаётся бинауральное аудио, которое звучит пугающе объёмно.

Так вот, за счёт того, что в формате Dolby Atmos аудиодрожки разбиты по объектам, он способен имитировать бинауральное аудио прямо на лету. И это совсем не тоже самое, что простое стерео.

Поэтому прослушивание Dolby Atmos, даже на двух колонках или в наушниках, всё равно даёт дополнительный эффект объемного звучания. Например, Spatial Audio на iPhone это как раз реализация Dolby Atmos. Можете заценить эффект сами в Apple Music.

Я протестировал этот эффект на телевизоре Hisense. Я запустил одно и то же аудио в двух форматах: простое стерео и Dolby Atmos. И всё это записал на микрофон. А вы сами в своих наушниках оцените разницу. Надеюсь, что мой микрофон позволил её уловить.

В записи разница конечно не так слышна, но в жизни эффект определенно есть и он слышен даже через обычные колонки телевизора. Ну а если подключить к ТВ хороший саундбар или даже систему 5.1, то будет вообще сказка. Главное, чтобы ваш телевизор поддерживал формат Dolby Atmos, как его поддерживает телевизор Hisense.

Чем хороши MacBook Pro? Какова реальная мощь у чипов M1 Pro и M1 Max?

Вчера прогремела мощная во всех смыслах презентация Apple и нам надо разобраться с MacBook Pro и чипами M1 Pro и M1 Max. Что же это за «звери» такие?
aka_opex 19 октября 2021 в 11:38

С самого выхода чипа Apple M1 и Маков на нем — все ждали!

Ну скажем так — не все, но те, которым было недостаточно мощи, оперативки или надо было подрубать мониторов побольше. В общем, была интрига где настоящие Pro — заряженные по полной. Какими они будут? Вернутся ли порты? Что там с HDR?

И главное — насколько они будут уделывать текущее поколение, которое и так нам поставило неслабую новую планку! И на все эти вопросы стала ответом октябрьская преза Apple!

Было красиво и насыщенно. Давайте разбиратся!

Дизайн

Что нового в новых MacBook Pro — вот они встречайте Macbook Pro 14 и Macbook Pro 16.  Apple, кстати, полностью избавились от MacBook на Intel из своей линейки — теперь все на собственных ARM чипах Apple Silicon!

Первое — дизайн. И сразу округлые формы отсылают нас к эпохе макбуков до появления угловатого дизайна. Примерно к 2009 году — посмотрите сами.

Я до конца не верил в рендеры, но как ни странно большую часть из этих рендеров мы увидели со сцены. Вообще любопытно, что утечек было мало и поэтому все что нам сказали звучало как удары молотом!

Порты

И первый удар лично для меня был — это карт-ридер. Я честно не верил, что его когда-то вернут, особенно с учетом последней линейки. Даже в том же iMac его ликвидировали!

А тут на тебе карт-ридер, за ним сразу HDMI (версия 2.0) — двойной лайк и разъем миниджек с поддержкой высокоомных наушников. Правда, непонятно, какой импеданс держит новый разъём. В прошлых поколениях MacBook был установлен разъём с импедансом < 24 Ом. Тут стоит отметить, что низкоомные наушники — все с сопротивлением ниже 25 Ом, а высокоомные — все с сопротивлением выше 25 Ом. Вот и вопрос, какой импеданс у разъёма. Ну и опять же, пять лет назад в 3,5 мм разъём можно было вставить оптический кабель и была поддержка SPDIF, которую очень любили многие музыканты. И это пожалуй единственное из того, что не вернули…

Из под другого удара молота улетает Touch Bar. Правильно — в топку его. За пять лет он так и не оправдал себя.

Профессиональные макоюзеры не смотрят на клаву и любят кнопочки. Клавиатуру тоже обновили — теперь это та же клава, что идет отдельно или с iMac- с Touch ID в кнопке с полноценными функциональными клавишами и большим ESC!

А потом еще и Magsafe — та самая легендарная магнитная зарядка, которая была визитной карточкой макбуков долгое время. Мой макбук она лично не раз спасала от падения, когда я спотыкался о провод!

Он вернулся обновленный Magsafe версии 3 и вместе с ним появились адаптеры на 140W которые идут с 16-дюймовой версией. С младшей 14-й в комплекте зарядка мощностью 67W, а в версиях постарше появляется 96-ваттная зарядка, такая же как в прошлом MacBook 16 Pro.

Батареи и зарядка

Батареи, кстати, на 70W на 14-дюймовых версиях и на 100W на MacBook Pro 16.

Также макбуки теперь поддерживают быструю зарядку и набирают 50 процентов заряда за 30 минут, но она работает только для адаптеров мощностью 96W и выше. Но что самое приятное, тут оставили также и зарядку по USB-C — и адаптер идет универсальный к разъемом Type-C. Правда в комплекте провод USB-C — MagSafe, для зарядки по USB-C надо иметь отдельный провод.

Портов USB-c по три штуки в каждой версии и все с поддержкой Thunderbolt 4.

Но что мы все про зарядку — нам же специально сказали, что производительность макбуков не будет меняться с подрубленным адаптером и без, как это бывает в мощных ноутбуках с дискретной графикой. Тут от батареи будет полная производительность.

С учетом заявленного времени жизни: 11 часов серфинга и 17 часов видео у MacBook Pro 14 и 14 серфинга и 21 видео у MacBook Pro 16 — заряжать их надо будет не так часто, но явно чаще, чем MacBook Pro на M1. Она жила существенно дольше — почти на треть. Еще смущает, что тесты проводили только на младших версиях. В общем, это надо будет проверять!

Но с стоит понимать, что машины данного уровня на x86 прожили бы меньше вполовину с такими батареями. И тут конечно главная заслуга энергоэффективности это ARM чипы — в данном случае M1 Pro и M1 Max.

Теперь наверное самое главное — производительность нам как будто слишком много всего пообещали — посмотрите на эти иксы!

Производительность центрального процессора

Apple конечно же в своём стиле — показали кучу графиков, на которых всё красиво, но ничего не понятно. Давайте попробуем их расшифровать.

Начнем с того, что по производительности центрального процессора новые чипы M1 Pro и M1 Max идентичны, а отличаются они только в плане графического процессора. В M1 про может быть до 16 ядер, а в Max — до 32-х. Но об этом позже, а пока что там с мощами ЦП?

Apple нам заявляет, что их новые чипы потребляют на 70% меньше энергии, чем свежий 8-ядерный ноутбучный процессор и при этом их чип еще и в 1,7 раза быстрее, то есть на те же 70%. Но с каким именно процессором сравнивается Apple? Смотрим в нижний правый угол и видим, что сравнение проводилось с ноутбуком MSI GP66 Leopard в комплектации 11UG-018.

Смотрим, что это за комплектация и выясняем, что в ней стоит процессор Intel Core i7-11800H. Это не самый сильный ноутбучный процессор Intel, но один из самых сильных.

К примеру, в мультикоре Geekbench от в среднем выбивает 7360 попугаев. Между прочим, это точь-в-точь уровень Apple M1.

И при этом Apple как раз заявляет, что их новый 10-ядерный проц на 70% быстрее M1. Как видите, цифры сошлись.

Поэтому мы можем предположить, если M1 выбивал в мультикоре в гикбенче в среднем 7400 попугаев, то M1 Pro и M1 Max будут выбивать на 70% больше, и это 12580 попугаев (7400+70% = 12580).

А это уже уровень Mac Pro также известного как тёрка. Ни или какого-нибудь AMD Threadripper. И это конечно всё синтетика: условные единицы, помноженные на догадки. Но всё-таки это кое-что да значит.

Мы предполагали, а Apple располагает. Во время подготовки материала в GeekBench утекли и первые реальные цифры. И что же — у нас математика почти сошлась…

 

По данным Apple, по скорости новые чипы сопоставимы с современными серверными процессорами, а по энергопотреблению процессорами для ультрабуков — всего 30W в пике. И как бы это фантастически ни звучало, в это охотно верится, ведь предыдущий M1 превзошел все, даже самые смелые, ожидания.

Производительность графического процессора

Теперь поговорим про графику. Тут всё ещё интереснее.

Во-первых, Apple говорит нам что 16-ядерный GPU в M1 Pro в 7 раз быстрее интегрированной графики в Intel Core i7-11800H и это уже не плохо. И это совсем не мало.

Производительность ГП в M1 Pro — 5.2 TFLOPS, а это чуть больше чем в мобильном RTX 2060 (там 4.6 TFLOPS), и даже больше чем в Xbox Series S, со своими 4 TFLOPS.

  • M1 Pro (16 ядер) — 5.2 TFLOPS
  • Nvidia RTX 2060 Laptop — 4.6 TFLOPS
  • Xbox Series S — 4 TFLOPS

Но еще интереснее взглянуть на 32-ядерный ГП в M1 Max. Ведь в нём уже 10.6 TFLOPS и это уровень PS5 и Nvidia RTX 3060 для ноутбуков.

  • Xbox Series X —12.1 TFLOPS
  • M1 Max (32 ядра) — 10.6 TFLOPS
  • Nvidia RTX 3060 Laptop — 10.3 TFLOPS
  • PlayStation 5 — 10.3 TFLOPS
  • M1 Pro (16 ядер)— 5.2 TFLOPS
  • Nvidia RTX 2060 Laptop — 4.6 TFLOPS
  • Xbox Series S — 4 TFLOPS

Более того вот в этом и вот в этом графиках Apple сравнивается с ноутбуками, у которых RTX 3080 на борту.

Это Razer Blade 15 Advanced и MSI GE76 Raider. И результаты тестов говорят нам, что производительность сопоставима с NVIDIA GeForce RTX 3080 при существенно меньшем энергопотреблении.

Razer Blade 15 Advanced RZ09-0409CE53-R3U1 15.6

  • 15.6-inch 4K UHD OLED touchscreen
  • 32GB memory/1TB SSD
  • Intel Core i9 11th Gen
  • NVIDIA GeForce RTX 3080

MSI GE76 Raider 11UH-053 17.3″ FHD Gaming

  • Intel Core i9-11980HK 2.6GHz
  • 17.3″ FHD (1920×1080), 360Hz 3ms, IPS-Level
  • NVIDIA GeForce RTX 3080 Laptop GPU 16GB GDDR6
  • 32GB (16G*2) DDR4 3200Hz
  • 1TB NVMe SSD

Опять же это всё данные Apple. Тесты внушают оптимизм и мы по крайней мере знаем, что по графике мы можем рассчитывать на производительность консолей нового поколения и даже немного лучше. Вот правда в играх мы этого проверить не сможем, по крайней мере пока MoltenVK не раскроет свой потенциал.

Также важная ремарка! Все эти сравнения справедливы только в отношении максимальный версий новых процессоров: с 10-ядрами ЦП и 16-я ядрами ГП для M1 Pro и 32-ядрами ГП для M1 Max.

Но минимальная комплектация 14-дюймового макбука продаётся с урезанным 8-ядерными ЦП и 14-ядерным ГП. В этой комплектации производительность, очевидно будет ниже. Но насколько узнаем только из практики.

Чёлка

Но не обошлось и без ложечки дегтя. Вы уже поняли, о чем я — о челке, конечно же! Ну зачем?

Мы уменьшили челку в iPhone 13 и добавили ее в MacBook — вот такие дела. Причем — объяснили это тем, что рамки стали супертонкие.

Но при этом в эту самую челку Face ID не завезли хватит с вас Touch ID подумали в Купертино!

Приятно что камеру прокачали: нет, 4K не дали, но зато 1080p со всеми алгоритмами вычислительного видео от Apple и с поддержкой HDR.

Дисплей

Что стало с дисплеями? Как я не раз вещал в подкасте — завезли HDR посредством miniLED. Apple это называет Liquid Retina XDR!

И такую яркость у ноутбуков я вообще не помню — 1000 нит рабочая, 1600 в пике! Контраст 1 000 000:1! Наконец, можно сидеть с ноутом в парке под палящим солнцем!

Разрешение тоже подняли 3024 х 1964 пикселей у версии на 14 дюймов. Если быть точным, то размер экрана чуть больше — 14,2 дюйма. В итоге получается 254 ppi.

Что же касается MacBook Pro 16 — 3456 х 2234 пикселей и тот же PPI. Точный размер экрана составляет — 16,2 дюйма.

И вишенка на торте — теперь в MacBook Pro есть ProMotion с адаптивной частотой до 120 Гц. Так что вся эта красота еще и будет работать в 120 Гц. Этот параметр даже уделывает дорогущий монитор Pro Display XDR — так что вскоре ждем и его обновления!

Подключение внешних мониторов

Кстати, о мониторах — одна из больших проблем MacBook на M1 была в подключении всего одного монитора! Ну теперь заживём: M1 Pro поддерживает 2 внешних монитора а M1 Max — 4 или, как сказали со сцены, 3 Pro Display XDR и один 4K-телевизор — всё потянет!

Звук

На этом праздник не закончился. Нам показали прокаченный звук в новых ноутбуках. И казалось бы — куда? Я кайфовал от динамиков своего старого MacBook Pro 16. Но тут нам завезли систему из шести динамиков, с сабвуферами, которым дали больше воздуха и в итоге получили на 80 процентов больше баса. Честно говоря, я не понял, как они посчитали бас, но вот так! И вместе с этим завезли Spatial audio и Dolby Atmos.

Сюда же добавим массив из трех направленных микрофонов, на 60 процентов ниже порог шума, и конечно WiFi 6 и Bluetooth 5.

Чуть не забыл про One More Thing — вот она новинка которую мы заслужили.

Теперь живите с этим супертряпочка за 2к!

Цены

Вот такие дела, друзья! По ценам правда история — не такая радостная! Смотрите, будем говорить об официальных ценах в России.

Начинаются они от 190 тысяч рублей за младший MacBook Pro 14 на 8-ядерном M1 Pro с 14-ядерной графикой, 16 Гб оперативки и 512 SSD. Следующая версия уже стоит 235 тысяч рублей с M1 Pro (10 ядер CPU + 16 ядер GPU), 16 ОЗУ и 1Тб накопитель.

MacBook Pro 16 начинается с отметки в 235 тысяч рублей и это с M1 Pro (10 ядер CPU + 16 ядер GPU), 16 ОЗУ и накопителем на 512 ГБ. За 256 тысяч рублей та же версия, по сути, но с накопителем в 1 ТБ.

И топовый MacBook Pro 16 на 10-ядерном M1 MAX с 32 графическиит ядрами, 32 ГБ оперативной памяти и накопителем на 1 ТБ стартует с отметки в 335 тысяч рублей. В кастоме по максимуму можно сделать вот такого убийцу: 64 ГБ оперативной памяти и накопитель на 8 ТБ, но эта конфигурация уже перевалит за полмиллиона рублей — 595 тысяч, если быть точным.

Как работает автофокус? Разбор

Сегодня мы разберемся с технологией автофокуса в камерах: зачем она нужна, как развивалась и как работает?
aka_opex 15 октября 2021 в 08:39

Представьте, вы идете по улице и вдруг видите что-то невероятно красивое или что-то забавное. Что вы будете делать?

Скорее всего вы достанете камеру и сделаете снимок или видео, просто нажав одну кнопку. И вне зависимости от того на что вы снимаете – телефон или профессиональный фотоаппарат – вы вряд ли будете париться по поводу фокуса.

А всё потому что современные системы автофокуса работают настолько хорошо, что мы вообще перестали это замечать.

Но знаете ли вы, как работает автофокус? Как фокусировались раньше и как фокусируются сейчас? Сегодня это и обсудим.

А также протестируем одну из самых продвинутых систем автофокуса на примере камеры Canon EOS R5. Приготовьтесь, разбор будет очень подробный.

Дальномер

Скажу сразу, современные системы автофокуса работают довольно хитро. Поэтому, чтобы понять всю физику процесса, мы посмотрим как системы фокусировки развивались во времени.

Вернёмся в 1917 год. Тогда вышел удивительный фотоаппарат No. 3A Kodak Autographic Special, в котором конечно же не было автофокуса, но была другая волшебная технология — дальномер. А точнее оптический дальномер. Эта штука позволяла вам сфокусироваться вручную с достаточно высокой точностью при помощи одной хитрой визуальной подсказки.

В видоискателе дальномерного фотоаппарата в центре кадра была особая область, в виде круга или прямоугольника в котором изображение двоилось. А для того, чтобы сфокусироваться, нужно было повернуть кольцо фокусировки так, чтобы двоящееся изображение слилось в одно.

Как эта штука работает?

Вообще оптический дальномер позволяет рассчитывать расстояние до объекта. И делает он это при помощи простой геометрии и принципа параллакса.

Смотрите, дальномер состоит из двух объективов, расположенных на определенном расстоянии друг от друга, которое мы знаем.

За каждым объективом скрываются два зеркала. Одно зеркало находится напротив видоискателя, и оно полупрозрачное, поэтому через него мы видим свет, который напрямую проходит через первый объектив. А также мы видим отраженный свет от второго зеркальца, которое расположено напротив второго объектива. Поэтому в видоискателе мы видим наложение двух картинок друг на друга.

Первое зеркальце зафиксировано и не вращается, а второе зеркальце можно вращать. И вот собственно тут и начинается магия. Прокручивая фокус на объективе мы тоже вращаем зеркальце. И когда две картинки сливаются в одну, мы как бы получаем равнобедренный оптический треугольник с вершиной в точке фокусировки, до которой мы можем легко определить расстояние, решив простую геометрическую задачку.

А зная его настроить объектив, чтобы всё было в фокусе тоже не проблема.

Такой метод фокусировки самый примитивный и у него масса недостатков.

Во-первых, чтобы сфокусироваться нужны были четкие вертикальные линии в кадре. Во-вторых, такой способ фокусировки не работает с телеобъективами и вообще есть сложность, как это всё настраивать под сменные объективы.

Поэтому к 1930-м годам дальномерные камеры уступают в популярности однообъективным зеркальным камерам. В которых использовался куда более простой, но при этом абсолютно гениальный метод фокусировки.

Клинья Додена

По фильмам или может из личного опыта, вы наверняка видели, что в старых фотоаппаратах, в центре изображения находится какой-то странный круг.

Как правило он разделен линией по горизонтали или диагонали, а вокруг вообще какой-то калейдоскоп.

При этом поворачивая кольцо фокусировки, всё что вне этого круга уходит в расфокус, а изображение в самом круге раздваивается.

Но, если совместить изображение в центре, то всё становится четким и фотография получается в фокусе.

Отсюда вопрос? Что это за фокусы такие?

Вся магия происходит при помощи вот такой штуки, которая называется фокусировочный экран.

В зеркальных камерах он ставился между зеркалом и видоискателем, на схемке, это номер 5. Можете поставить на паузу и изучить подробнее.

Устройство зеркального видоискателя:

  1. Объектив
  2. Поворотное зеркало (в опущенном положении)
  3. Фокальный затвор
  4. Фотоплёнка или цифровая матрица
  5. Фокусировочный экран
  6. Коллективная линза
  7. Пентапризма или пентазеркало
  8. Окуляр

Так вот в центре фокусировочного экрана находятся так называемые клинья Додена.

Это две полуциллиндрических призмы, расположенные под небольшим наклоном друг к другу, но при этом они пересекаются в плоскости, совпадающей с поверхностью матового стекла.

Теперь смотрите. Для того того, чтобы изображение на фото было в фокусе, нужно чтобы лучи света пересекались ровно в плоскости фокусировочного экрана, который находится на том же расстоянии от линзы, что и пленка или матрица.

Так вот, если мы сфокусированы неправильно и лучи пересекаются чуть перед или после плоскости фокусировочного экрана, клинья Додена, за счет небольшого наклона, вносят свою корректировку и сдвигают изображение в разные стороны.

Но если если мы сфокусированы правильно и плоскость резкого изображения совпадает с поверхностью стекла и точкой пересечения клиньев, изображение выглядит цельным.

В этом случае говорят, что центральная часть изображения находится в одной фазе фокусировки. И это важная ремарка… В будущем поймете почему…

В целом, такой способ ручной фокусировки очень удобный. И даже сейчас во многих современных зеркальных камерах, вы можете использовать такой фокусировочный экран. Если например снимаете на винтажные объективы или просто предпочитаете ручную фокусировку.

Но мы то про автофокус, поэтому переходим к более современным системам фокусировки.

Активный автофокус

Итак, все системы автофокуса можно поделить на два типа: активные и пассивные.

Активная система – это когда камера для того, чтобы сфокусироваться посылает вовне какой-то сигнал. Например, инфракрасный свет или ультразвуковой сигнал или даже лазерный луч. Дальше она получает отраженный сигнал обратно, рассчитывает задержку и тем самым расстояние до объекта.

По такому принципу работают радары, лидары, ToF-камеры и всякие лазерные рулетки.

А среди фотоаппаратов первой камерой с инфракрасным локатором автофокуса был Canon AF-35M, который вышел в 1979 году.

Активные системы были хороши тем, что отлично фокусировались в темноте и на объекты без контрастных деталей. Но были и недостатки: во-первых, нельзя было сфокусироваться через прозрачное препятствие, скажем, окно. А также такие системы могли отпугивать животных.

А если нельзя сфотографировать кошечку, тогда вообще зачем нужен фотоаппарат?

Поэтому от активного автофокуса довольно быстро отказались. И сейчас такие системы используют только в качестве вспомогательного метода фокусировки, например чтобы сфокусироваться в темноте или для AR или 3D сканирования как в Айпедах и Айфонах.

А вот в качество основного решения автофокусировки используют пассивные системы.

Такие системы ничего не излучают во вне, и основаны только на анализе света поступающего внутрь камеры.

Контрастный автофокус

Пассивных систем тоже бывает два типа: фазовые и контрастные.

Самый распространённый метод фокусировки — контрастный. Он основан на очень простом принципе. Изображение в фокусе более контрастно, чем изображение не в фокусе.

Поэтому, чтобы сфокусироваться камера по сути наугад перебирает разные значения фокуса: чуть подкрутит фокус в одну сторону и смотрит какой стала картинка: более контрастной или менее контрастной.

Если более контрастной — камера продолжает двигать фокус в том же направлении. Если менее контрастной в обратном. И так шаг за шагом, пока не найдет положение, в котором картинка самая контрастная. При этом автоматика всегда сначала будет пролетать идеальное значение, для того чтобы понять, что оно было идеальным и вернуться обратно. У этого способа есть ряд преимуществ.

Во-первых, универсальность. Это чисто программный способ фокусировки, который используют только данные с матрицы и не требует никаких дополнительных модулей. Поэтому контрастный автофокус может работать вообще на любой цифровой камере, хоть зеркальной, хоть беззеркальной.

Во-вторых, так как, по сути, это просто алгоритм можно его совершенствовать бесконечно, потому камеры с контрастным автофокусом часто начинают фокусироваться лучше и быстрее с обновлением прошивки.

Тем не менее способ ненадежный. Есть недостатки.

Самые главные – это довольно низкая скорость и эффект рысканья. Это когда фокус елозит туда сюда, чтобы определить идеальное положение. И в фотографии это еще более-менее приемлемо. Но когда фокус играет при видеосъемки — это выглядит как брак.

Также контрастный автофокус плохо работает в темноте и часто ошибается с тем, какой именно объект должен быть в фокусе.

Поэтому самым крутым и надёжным методом фокусировки сейчас читается фазовый автофокус.

Фазовый автофокус

Фазовый автофокус обычно обозначают аббревиатурой PDAF или Phase Detection Autofocus.

Вот такие точки фокусировки в видоискателе знаете? Вот это так обозначены датчики фазовой фокусировки.

Я думаю принцип работы фазового автофокуса вам покажется знакомым.

Свет проходит через специальный разделитель луча, который делит его на две части или точнее фазы. Эти два луча попадают на специальный датчик тоже разделенный на две части.

Если объект в фокусе, то свет прилетает ровно в середину этого датчика. А если мы сфокусированы ближе или дальше то свет попадает ближе к центру или к краю этого датчика.

То есть, по сути, это тоже самое что и клинья Додена, которые тоже разделили лучи и отклоняли их.

Только раньше определять насколько разъехалась фаза приходилось нашим глазам, а теперь это делают специальные датчики.

Вся прелесть фазовой автофокусировки в том, что камера сразу может посчитать на сколько ошибся фокус и в какую сторону его нужно крутить.

Поэтому фазовый автофокус работает молниеносно и очень точно. Фазовая фокусировка считается самой надежной крутой и быстрой системой, например, спортивная фотография была бы вообще невозможно без фазового автофокуса.

Но есть и минусы.

Модуль фазовой фокусировки — это отдельный модуль, который нужно спрятать где-то в камере. Обычно он находится где-то внизу под матрицей. И это в целом довольно сложная и массивная конструкция из дополнительных зеркал и прочих элементов.  И всё это должно быть откалибровано с очень высокой точностью, иначе промахов не избежать.

Во-вторых, точность фокусировки сильно зависит от количества датчиков фокусировки и от их навороченности.

Это бывают горизонтальные датчики: в этом случае фокусировка будет возможно только объектов с вертикальными деталями. Также они могут быть крестообразными или диагональными. В любом случае, чем более навороченный модуль, тем он массивнее и дороже.

При этом как бы много не было датчиков они всё равно не покроют всю площадь кадра.

Ну и самое главное. Так как свет не может одновременно поступать и на матрицу и на модуль автофокуса. Такая штука не работает с видео. И может быть использована только в зеркальных камерах.

Но например, Canon EOS R5 — беззеркальная камера. При этом автофокус тут работает очень круто. Но каким образом?

Dual Pixel

И тут мы переходим к технологии Dual Pixel, которую придумали в Canon и которая просто перевернула представление о том, на что способен автофокус в особенности при съёмке видео.

Первая камера, в которой появилась технология Dual Pixel была Canon EOS 70D, она вышла в 2013 году.

Здесь же в Canon EOS R5 используется вторая усовершенствованная версия технологии – Dual Pixel CMOS AF II.

Как же эта штука работает?

Dual Pixel — это тоже фазовая система фокусировки. Просто вместо дополнительного отдельного модуля с отдельными датчиками фазового автофокуса, для фокусировки используется основная матрица. Для этого в каждом пикселе фотодиод делится на две части. А над каждым пикселем устанавливается микролинза, которая направляет свет на эти два фотодиода. Ну а дальше, также как и в случае с обычным фазовым автофокусом, анализируется насколько съехали лучи относительно идеальной точки фокусировки. И всё. Вот так просто и элегантно.

Эта технологии лишена недостатков стандартного фазового автофокуса:

Не нужны ни дополнительные модули, ни зеркала.

Может работать непрерывно в режиме видео, а не только с фото.

Есть свободный выбор зоны фокусировки. Например, в профессиональной камере EOS-1D X Mark II всего 61 точка фокусировки и это считается много. Но в EOS R5 можно выбрать 5940 положений, а область фокусировки покрывает почти 100% кадра.

При этом Dual Pixel II-го поколения в EOS фокусируется всего за 0,05 секунды и работает при очень низкой освещенности -6,5 EV. Это прямо ночь.

Ну и конечно же тут есть куча умных режимов фокусировки: отслеживания глаз, лица, головы и тела. Режим для съемки животных, предметов и прочее. И всё это работает при помощи глубоких нейросети и процессора DIGIC X.

Кстати, в с iPhone, Google Pixel и некоторых других смартфонах тоже используется аналогичный метод фокусировки.

В общем, за видео с правильным фокусом, по большей части мы обязаны именно технологии Dual Pixel. Сейчас — это вершина эволюции автофокуса.

Объективы

Ну и конечно, не будем забывать про объективы. На скорость фокусировки влияет тип мотора.

Например, Canon свои объективы делит на оптику с STM и USM моторами.

STM — это шаговый мотор. Такие моторы работают плавно, бесшумно и отлично подходят для видеосъёмки, где не требуется сверхвысокая скорость фокусировки.

STM бывает двух типов:

с шестеренчатой передачей

и с винтовой передачей

Объективы с винтовой передачей больше по размерам, на зато тише.

Но в целом для видео и неспешной фотографии любой STM объектив подходит, поэтому не всегда стоит переплачивать и брать более дорогие USM объективы.

USM

В таких объективах установлен ультразвуковой мотор. Он преобразует энергию ультразвуковой вибрации во вращающую силу для управления объективом.

И такие объективы фокусируются очень быстро. Что важно для репортажной/спортивной съемки, или может съёмки животных.

К примеру, если у вас очень резвые коты.

Их бывает три типа:

Ультразвуковой мотор кольцевого типа. Он состоит из ротора и статора. При подаче переменного тока с частотой около 30 000 Гц на статор создаются вибрации, вызывающие непрерывное вращение ротора.

30 000 Гц — это ультразвуковая частота, поэтому мотор называется ультразвуковым.

Второй тип — Micro USM. В принципе тоже самое что и USM, но в более компактном исполнении.

Но еще есть Nano USM. И вот это совсем новый тип фокусировки, представленный в 2016 году.

Nano USM работает также плавно и бесшумно как STM, но со скоростью USM. И это чистый кайф. Получаем идеально плавную и быструю фокусировку.

Еще существуют моторы постоянного тока DC. Если в названии объектива не указано USM или STM, скорее всего это DC. Такие моторы самые шумные и медленные.

Но встречаются не часто, а например, в новой линейке объективов Canon для беззеркалок с байонетом RF таких вообще нет, есть только STM и USM. Можно брать любой не парясь, благо линейка очень большая и постоянно пополняется

Все RF объективы что я держал — пушка, очень советую. Особенно порадовал Canon RF 100mm F2.8L Macro IS USM.

Брекетинг фокусировки

Кстати, для макросъёмки тут есть очень крутая фича — брекетинг фокусировки.

Камера делает серию снимков, начиная с указанного расстояния фокусировки, а затем постепенно двигаясь в сторону бесконечности.

После чего серия кадров склеивается в один снимок, в котором на постпродакшене можно сделать большую глубиной резкости, чтобы всё было в фокусе.

Надеюсь вам, как и нам стало понятнее как работает автофокус.

Темпоральные кристаллы. Вечный двигатель возможен?!

Сегодня мы расскажем вам о самом необычном научном открытии современности — темпоральном кристалле, который сделали для квантового компьютера Google.
aka_opex 13 октября 2021 в 08:07

Давайте начнем с философского вопроса: возможны ли вечные двигатели?

Идеальная картинка: некоторое устройство, которое потребляет меньше энергии, чем производит и при этом совершает работу бесконечно! Но люди, которые интересовались вопросом или помнят школьную физику четко и сразу ответят, что конечно нет. Вечный двигатель невозможен, так как он будет нарушать базовые законы термодинамики!

Ну а можно ли создать систему, которая будет бесконечно делать что-либо без приложенной к нему энергии? И опять же ответ четкий — нет нельзя, потому что опять же нарушаем законы термодинамики! Никакой маятник не будет качаться вечно!

Или все-таки можно?

Можно ли создать такую систему, которая будет идентично повторять саму себя и как бы возвращаться к тому состоянию, в котором она уже была? И причем делать это вечно и самостоятельно. Оказалось, что да! И только что это продемонстрировали не абы кто, а Google!

Сейчас мы вам расскажем, как Google с помощью своего квантового компьютера создали так называемый темпоральный кристалл, который рушит основополагающие физические законы! Его также называют кристаллом времени или Time Crystal. Если хотите узнать что это — устраивайтесь поудобнее.

Введение

Для начала надо понять, при чем тут кристалл и почему он темпоральный! Приготовьтесь, сейчас будет немного теории, но мы, как всегда, постарались объяснить все просто и интересно!

Вы знаете, что есть несколько возможных агрегатных состояний вещества: газ, жидкость, твердое вещество и плазма! Это четыре основных состояния любого вещества во вселенной, но на самом деле их чуть больше. Есть экзотические состояния, которые проявляются, к примеру только при очень низких температурах — например, сверхтекучесть, когда жидкость может течь без сопротивления, и может сама вытекать из колбы просто по стенкам, или Конденсат Бозе — Эйнштейна.

На самом деле ученые определяют больше состояний.

Все эти состояния вещества имеют определенные свойства. В газе, например, атомы и молекулы хаотично заполняют собой весь объем и не связаны друг с другом.

У твердого тела же возможны два различных состояния — аморфное, когда тело сохраняет свою форму и объем, при этом атомы в самом теле расположены практически как угодно. А второе состояние — кристаллическое. Тут то все и становится интересно.

Кристаллическое состояние — это такое состояние твердого тела, при котором атомы располагаются в строго заданных местах. Для твердого тела — это стабильное состояние! То есть твердые тела стремятся к порядку: к тому, чтобы все атомы располагались в своих местах.

При кристаллическом состоянии атомы находятся в узлах решетки, в строго определенном местоположении, и таким образом создают трехмерную структуру.

Представьте себе Кубик Рубика, где все клеточки одного цвета. Вот вы смотрите на одну из граней такого кубика и все девять клеточек расположены в определенных позициях. И вы начинаете его медленно вращать!

При этом для вас, как для наблюдателя, картинка меняется, вы уже начинаете смотреть сразу на 18 клеточек, потому что начинаете видеть другую грань. И так происходит пока вы не повернете его на 90 градусов. В этот момент кубик для вас будет точно таким же как когда вы начали его вращать! Это называется пространственной вращательной симметрией. Есть и другие типы пространственной симметрии, когда вы смещаете кубик в определенные стороны.

Все типы идеальных кристаллических решеток имеют такие пространственные симметрии! При этом природа кристаллов очень красивая и таких трехмерных структур ограниченное количество.

Все кристаллические структуры могут описываться всего четырнадцатью, так называемыми, решетками Бравэ! Это теоретическая группа, которая описывает все трехмерные кристаллические решетки.

Пространство и время

И вот в 2012 году, нобелевский лауреат по физике Франк Вильчек выдвинул теорию о том, что можно создать такой тип материала, который бы повторял себя не в пространстве, а во времени! То есть обладал бы временной симметрией, где через определенные промежутки времени материя возвращалась бы в определенное состояние, в котором она уже была до этого!

Если взять пример вам можете показаться что в этом нет ничего интересного. Самое простое — взять монетку: повернул орлом, потом повернул решкой, потом обратно. И так далее — вот тебе и временная симметрия! И вы частично будете правы!

Но есть одно но… Помните, что я сказал, что кристаллическое состояние — это состояние с наименьшей энергией, так вот тут тоже самое. Во временных, или правильнее будет сказать темпоральных кристаллах, система находится в стабильном состоянии — то есть в состоянии с наименьшей энергией и система эта не взаимодействует и не получает энергию извне. Если совсем просто — сам кристалл не требует энергии вообще… Не считая, что нужно поддерживать определенные условия вокруг! То есть это система, которая также как кристалл в пространстве, меняется но только во времени и при этом не затрачивая энергии!

Представьте себе коробку с монетами, где каждая монетка смотрит орлом вверх, потом вы ее закрыли, открыли, а они уже смотрят решкой вверх. И так далее. Идеальное, бесконечное, повторяющееся изменение!

С тех пор было много дискуссий, в которых ученые пытались понять — возможны ли такие кристаллы в принципе. Дискуссия была оживленной, были доказательства как с одной, так и с другой стороны!

Google и темпоральный кристалл

Но вот тут то и наступает 2021 год, что по меркам фундаментальной науки очень короткий срок. Всего через 9 лет команда, которая работает на квантовом компьютере Google Sycamore вместе с кучей ученых из Стэнфорда, Принстона, MIT и других университетов, выпустили статью в Arxiv, и уже отправили ее на рецензию в один из самых престижных журналов Nature. В ней они говорят, что впервые был получен настоящий темпоральный кристалл, то есть такая система кубитов, которая меняется с определенной периодичностью во времени.

Как же они это сделали?

В их квантовом компьютере они использовали специальную двумерную сетку из 8, 12, 16 и 20 кубитов. Увеличивая количество кубитов они усложняли структуру пытаясь понять стабильность системы.

В общем, к системе из кубитов подавались импульсы, которые начинали переворачивать спины кубитов вверх и вниз. И этот начальный импульс фактически не является передачей энергии, так как даже изменяя частоту импульса или вообще убирая его, кристалл продолжает меняться с определенной периодичностью и если сохранять определенные состояния окружающей среды, то система может делать так бесконечно!

И вот тут то начинается самое интересное! Как раз это и нарушает Второй закон термодинамики, который гласит, что любая система стремиться к равномерному распределению температуры и энергии по всему своему объему. Такое состояние физики еще называют «тепловой смертью». А тут система находится в покое и при этом продолжает постоянно меняться!

Давайте еще раз проговорим, система возвращается в абсолютно исходное состояние, потом снова переходит в другое, и потом обратно! И так она может прыгать бесконечно долго!

И это, мягко говоря удивляет, поэтому в своей статье ученые сами говорят, что пока что не особо понимают действительно ли это настоящий темпоральный кристалл и призывают научное сообщество к дискуссии!

А что дальше?

Ну и что дальше с этим всем делать? Зачем нужен этот кристалл и что вообще это открытие дает? Ну, во-первых, это просто очень круто! Только подумайте — фактически реализована система, нарушающая один из основополагающих законов природы. Вечный двигатель, не иначе! Хотя конечно же это не совсем двигатель, так как такой кристалл не производит энергии.

Во-вторых, как и с многими фундаментальными исследованиями, важность такого открытия, если конечно его подтвердят и повторят другие научные группы, может стать нам ясна через много лет! Просто мы сами еще не понимаем насколько это важное открытие.

Ну и наконец, в-третьих. Уже высказываются предположения, что такие кристаллы могут стать основой для памяти для квантовых компьютеров. Напомним, что у квантовых компьютеров сейчас нет как таковой памяти или накопителя. Квантовые компьютеры для каждой задачи каждый раз программируются заново так как кубиты очень нестабильны и не могут долго сохранять свое квантовое состояние. Ну а темпоральные кристаллы из-за своей идеальной периодичности и повторяемости позволяют создать на их основе гироскопы или сверхточные часы!

Как появились компьютерные шрифты? Разбор

Сегодня мы расскажем вам все про компьютерные шрифты и не только. Разбираемся, как они появились? Что такое засечки? Причем тут Adobe и Стив Джобс?
aka_opex 9 октября 2021 в 07:55

Мы постоянно видим текст на экране. Даже в YouTube вокруг ролика куча разных слов и буковок. Но мы редко задумываемся, как устроен компьютерный текст и почему он такой. Сегодня мы разберемся в компьютерных шрифтах.

Поговорим о том, зачем шрифту засечки? Научимся отличать готический шрифт от готского. Узнаем где Стив Джобс спрятал овцу? Разберемся в шрифтовых форматах и узнаем почему нам стоит отказаться от Times New Roman и Arial?

Введение в шрифты

Для начала давайте немного разберемся какие бывают шрифты и почему они такие.

Вообще классификаций шрифтов много и нет единой признанной, но именно компьютерные шрифты принято делить на две группы: с засечками и без.

Шрифты с засечками это Serif, что так и переводится с французского — засечки. Ну а sans serif — это буквально “без засечек”.

  • sérif с фр. — засечки
  • sans sérif с фр. — без засечек

Возьмем к примеру веб-дизайн. Когда нужно, чтобы текст был написан шрифтом без засечек, в коде указывают не только конкретный шрифт, скажем Arial, но и группу шрифтов sans serif.

Это нужно на случай если, к примеру, вы сидите на свободноом ПО, типа Ubuntu, где Arial или Helvetica у вас в системе нет. В этом случае автоматически подхватится шрифт без засечек, который у вас есть.

Но давайте на секунду отвлечемся и поговорим о том, откуда вообще появились засечки?

Антиква

Вообще, группу шрифтов с засечками в типографической среде называют не Serif, а Антиква и по названию уже чувствуется, что речь пойдёт про древность.

Жили-были финикийцы в 16-м веке до нашей эры. И был у них вот такой алфавит.

Это отец-прародитель всей европейской письменности. Кстати, буква алеф значит бык. Присмотритесь к пиктограмме, это голова быка которую повернули на бок, а потом и вовсе перевернули, и получилась буква А. И так с каждой буквой финикийского алфавита. Почитайте, это интересно.

Так вот, финикийцы писали быстро без всяких засечек и заглавных букв. Видимо, им было не до красоты.

Но потом появились римляне, а у римлян было много свободного времени. И начали они красиво выводить буквы на пергаменте тростниковым пером.

Штрихи получались разной толщины и чтобы как-то визуально сбалансировать форму, на концах букв римляне стали добавлять декоративные штришки, то есть засечки.

А потом еще выяснилось, что это не только красиво, но и удобно. Штришки визуально объединяют строки в линии. Отчего считается, что так удобнее читать большие объемы текста (но это научно не подтверждено). Зато на камне высекать хлесткие римские фразы строго по линиям, точно удобнее.

Но потом случилось Средневековье и появилось готическое письмо. А с украшательствами случился перебор. Выглядит классно, но читать такое невозможно. Вот, например, первая печатная книга — Библия Гутенберга 1455 года.

Поэтому в эпоху Возрождения люди опомнились. Начали переписывать античные тексты и заодно стали имитировать античную манеру писать, выводя красивые буквы с засечками. А называть тип письма стали Антиква, что значит “древний”.

Так что современные шрифты с засечками — это дань памяти древним римлянам, аккуратно выводящим красивые буквы пером на пергаменте.

Гротеск

Но, как говорится, всё идет по кругу. Поэтому в 19 веке от засечек потихонечку стали отказываться. Первым это сделал потомственный типограф с тотальным отсутствием вкуса Уильям Кэзлон IV.

И получилось у него не очень. Поэтому люди стали называть такие шрифты гротескными, то есть нелепыми или готскими, то есть варварскими. Поэтому в типографике шрифты без засечек называют, либо Grotesque, либо Gothic. В смысле готский, а не готический, не путайте.

  • Grotesque — гротескный
  • Gothic — варварский

Впрочем люди быстро заметили, что такие “нелепые” шрифты отлично подходят для крупных надписей в различных рекламах, плакатах, а позже для дорожных знаков, навигации на заводах и, конечно же, для дисплеев компьютеров.

Растровые шрифты

С появлением первых компьютеров шрифты пришлось придумывать заново. Дело в том, что мониторы первых компьютеров не отличались высоким разрешением. Оно даже измерялось не в пикселях (как сейчас), а в символах. При этом, на 1 символ отводилось 8х8 или 8х16 точек. А для нормального отображения векторного шрифта и разрешения нужно было повыше и мощей надо было побольше. Поэтому стали рисовать растровые шрифты, т.е. пиксельные.

Такие шрифты приходилось рисовать по несколько раз для каждого размера. Кстати, несколько начертаний одного и тоже шрифта (жирный, тонкий, курсивный и так далее) называются гарнитурой.

Так вот одна из самых знаковых растровых гарнитур — это Chicago. Системный шрифт Macintosh с 1980-х по 1990-е годы, а также шрифт старых добрых iPod Classic.

Тут стоит отдать должное Apple, Стиву Джобсу и, конечно, дизайнеру Сьюзен Кэр. Буквам из нескольких пикселей сложно придать индивидуальность, поэтому системный шрифт мог получиться совершенно условным, но нет. Чикаго вышел прикольным и узнаваемым.

Да и другие растровые гарнитуры Macintosh, тоже получились прикольные. Более того, среди символов тех шрифтов дизайнеры умудрились разместили пасхалки. Так в шрифте Geneva можно найти символ овечки, а в Athens отпечатки лапок.

Моноширинные шрифты

Также помимо растровых шрифтов, компьютеры породили моноширинные шрифты.

Обычно в шрифтах: разные символы имеют разную ширину. А в таких шрифтах все знаки, а точнее площади, которые занимают знаки, одинаковые по ширине.

Моноширинные шрифты, в первую очередь, используются в текстовых интерфейсах типа, Norton Commander, FAR и так далее. Такие моноширинные шрифты до сих пор используются в Linux в приложении Midnight Commander.

Postscript

Но в мире операционных систем постепенно текстовые интерфейсы стали сменяться графическими, а разрешения дисплеев и вычислительные мощности стали расти. Соответственно, растровые шрифты стали устаревать, ведь они не могли нормально масштабироваться. И поэтому их стали заменять векторными.

Но возникла другая проблема: нужно было разработать такую технологию, которая позволила бы векторному шрифту одинаково хорошо отображаться и на дисплее, и при печати. И такая технология была у компании Adobe и называлась она PostScript. Главной фишкой технологии были “хинтинги” (от слова hint — намёк, подсказка).

Это такие специальные программные инструкции, которые подсказывают, как нужно сгладить контур буквы, чтобы он шикарно отображался и при низком разрешении, и при мелком кегле.

Вот посмотрите, первая строка текста без хинтинга, а вторая с хинтингом. Разница на лицо.

Для своего времени технология была супер прорывной. Но возможно, Adobe так бы и не убедил рынок в том, что такая технология в принципе нужна. Если бы не Стив Джобс… В 1985 году продажи Macintosh начали падать, поэтому Apple нужна была киллер-фича, которую бы имели только компьютеры Apple. Стив Джобс инвестировал 2,5 млн долларов в Adobe и в компанию Aldus. Первая компания на эти деньги сделала PostScript-контроллер для принтера Apple LaserWriter, а вторая — программу PageMaker. Так компьютеры Apple первыми научились печатать рефераты для студентов. А PostScript стал стандартом в области допечатной подготовки. Строго говоря, PostScript — это язык программирования текста.

TrueType

Была только одна проблема. Технология хинтинга держалась в строжайшем секрете и использовалась только Adobe. Поэтому очень долгое время Abobe был единственным производителем высококачественных шрифтов. Тогда Apple и Microsoft объединили усилия и в 1991 году явили миру новую полностью открытую спецификацию спецификацию TrueType, поддержку которой добавили в MacOS и Windows 3.1.

TrueType умел почти всё тоже самое, что и PostScript, но только был полностью свободной и бесплатной технологией.

OpenType

Но и тут не обошлось без проблем: TrueType был безумно ресурсоемкий. Рендерить эти шрифты было мукой для компьютеров того времени. Поэтому в 1996 году Adobe и Microsoft замутили еще более продвинутый открытый шрифтовой формат — OpenType, в который добавили поддержку обеих технологий сглаживания, и TrueType, и PostScript, а также еще кучу фишек, типа поддержки всяких глифов, лигатур, дробей и прочих. Шрифты формата OpenType сегодня мы видим и на Linux, и на Windows, и на macOS.

Итого мы получили очень продвинутый и свободный шрифтовой формат, которым могут все пользоваться. За что мы можем сказать сказать спасибо будущим гигантам типа Adobe, Microsoft и Apple.

Лицензирование шрифтов

Но, всегда есть но. Компании стремились защитить свои результаты интеллектуальной деятельности и начали лицензировать шрифты. Это привело к тому, что использовать какие хочешь шрифты, к сожалению, нельзя.

Например, мы с вами привыкли, что в документах используются те же шрифты, что идут в комплекте с ОС Windows, но все эти шрифты проприетарные и платные. А проприетарные шрифты недоступны на многих смартфонах и на открытых ОС. И да, есть риск искажения форматирования.

XO Fonts

Поэтому в мире стали разрабатывать альтернативные свободные шрифты. В России одной из тех, кто взял на себя эту благородную ношу, стала компания-разработчик приложений МойОфис. Целый год они разрабатывали новые шрифты. И в 2016-м году на свет появилась первая версия шрифтового набора XO Fonts.

Набор XO Fonts — это метрические аналоги популярных гарнитур Times, Courier и тому подобное. Что это значит?

Метрический аналог — это оригинальный шрифт, символы которого занимают столько же места. Таким образом, при замене одного шрифта на его метрический аналог, верстка документа не поедет. И это касается всех начертаний шрифта: жирный, курсив, жирный курсив.

Новые гарнитуры XO Fonts были разработаны шрифтовым дизайнером Владимиром Чуфаровским и студией Letterhead совместно с командой МойОфис. А вот и ссылка на  подробный рассказ с историей создания шрифтов XO Fonts.

В наборе в настоящее время 11 шрифтов в 24-х начертаниях. И все они используются в приложениях МойОфис: в текстовых, табличных, веб-редакторах и в мобильных приложениях. Все шрифты можно скачать по ссылке в описании и свободно использовать.

Более того, спустя два года после выхода первой версии XO Fonts в России внесли изменения в ГОСТы. И теперь (ГОСТ Р 7.0.97-201) вместо проприетарных Times New Roman и Arial «Для создания документов необходимо использовать свободно распространяемые бесплатные шрифты». Иными словами, теперь в России переходят на «свободно распространяемые» гарнитуры.

Но даже если ГОСТы вас не касаются, новые бесплатные шрифты в кириллице и латинице, да еще и в 24-х начертаниях — это ж просто подарок.