Что такое и зачем нужен IPV6? Разбор

Сегодня вы узнаете, чем отличается IPv4 от IPv6 и когда мы полноценно перейдем на Интернет нового поколения! Просто и понятно — как всегда!
Валерий Истишев 9 июня 2021 в 07:28

Интернет всем хорош, но есть у него один большой недостаток. Дело в том, что он проектировался с ошибками.

Люди, стоявшие у истоков интернета, в 1970 годах даже представить не могли, что спустя каких-то 40 лет у нас у каждого в кармане будет по персональному компьютеру с круглосуточным доступом в интернет, а потом интернет понадобится всем лампочкам, чайникам и умным пылесосам. Поэтому они совершили грубейшую архитектурную ошибку — сделали интернет очень маленьким и назвали этот интернет — Internet Protocol версии 4.

Поэтому сегодня мы поговорим о том, что не так с текущим интернетом? Как интернет закончился в середине 2010-х и о том как Internet Protocol версии 6 навсегда изменит архитектуру интернета.

Как появились IP-адреса?

Нам всем нужны адреса. Нам нужен почтовый адрес, чтобы до нас доходили классные посылочки, квитанции, старомодные любовные письма — почему бы нет? Нам нужен адрес регистрации, чтобы мы могли полноценно участвовать в жизни своего города и чтобы государство нас не теряло. Ну и конечно же нам нужен адрес в сети интернет, чтобы до нас доходили пакеты байт с весёлыми гифками, закодированными символами и бесконечным потоком видеоконтента, который мы для вас производим.

Да, адреса в интернете, определенно нужны! Именно так в начале 1980-х решили создатели первой успешной, неэкспериментальной версии интернет протокола — IPv4, Internet Protocol версия 4.

Тогда и был придуман IP-адрес, который выглядит вот так:

Небольшое пояснение, ІP-адрес — это, по сути, почтовый адрес устройства в сети. IP-адрес должен быть у каждого сайта, смартфона, компьютера, сервера, умной лампочки и прочее, иначе пакеты данных просто не будут знать, куда им лететь.

А если вы хотите, подробнее узнать о том, как IP-адрес 89.253.228.19 преобразуется в привычный всем адрес сайта https://droider.ru вы можете из предыдущей части этого материала про DNS-сервера.

IPv4 адрес состоит из 4 блоков по 8 бит, каждый из которых называется октетом, и записывается в виде десятичных цифр, разделенных точкой.

Всего длина такого адреса 32 бита. Что на самом деле превращается в целых 4 миллиарда 294 миллиона 967 тысяч 296 комбинаций. Тогда, в 1980-х, Интернет был только у военных и в университетах, поэтому создатели протокола решили, что такого количества адресов хватит с запасом.

СПОЙЛЕР: они сильно заблуждались.

Как IP-адреса закончились?

Так как адресов было ограниченное количество, право их раздавать было закреплено за пятью некоммерческими организациями, ответственными за свой регион.

Например, за Европу, Ближний Восток и Центральную Азию отвечает организация RIPE NCC, скромный офис которой находится в Нидерландах.

Естественно, с бурным развитием интернета и появлением всевозможных гаджетов, свободные IP-адреса стали быстро заканчиваться. Например, ARIN исчерпала запас IPv4 адресов еще в 2015 году, а наш родной RIPE NCC оказался с пустыми карманами 25 ноября 2019 года.

Тем не менее количество подключенных к сети девайсов растет в геометрической прогрессии и сейчас измеряется десятками миллиардов. Чтобы вы понимали скорость роста, по данным IDC, к 2025 году в сети будет более 152 миллиардов устройств Интернета вещей, только (!) устройств интернета вещей! В 2021 году их всего 10 миллиардов. Итого ожидается рост в 15 раз за 4 года!

Но как же так происходит? Адреса давно кончились, умных лампочек всё больше, а интернет продолжает себе спокойно работать и вроде никто не жалуется.

На самом деле человечество давно осознало проблему недостаточного адресного пространства и решило её при помощи технологии преобразования сетевых адресов, которая называется NAT — Network Address Translation.

NAT делает очень простую вещь — позволяет преобразовать ваш адрес внутри локальной сети в глобальный адрес. По сути, NAT похож на то, как раньше приходилось дозваниваться домой по городскому номеру.

Вы звонили вашему другу или подруге. Трубку брал папа, вы говорили “Машу можно” и папа передавал трубку адресату. Ну или говорил, “нет тут никакой Маши, не звони сюда больше, придурок”, но это уже не имеет отношения к делу.

Вот так и технология NAT позволяет перенаправить запрос, который поступил на общий IP-адрес, до нужного адресата. Только вместо папы, который взял трубку, это делает маршрутизатор.

И в принципе технология прекрасно справляется с задачами. Она позволят держать на одном IP-адресе тысячи, может даже сотни тысяч девайсов и сайтов. И, даже, в какой-то степени, делает сеть безопасней. Но это не точно… Мнения профессионалов в этом вопросе расходятся. Но в любом случае, все сходятся во мнении, что NAT — это костыль, который усложняет работу, ограничивает и увеличивает нагрузку на сеть.

IPv6

Поэтому единственное, что действительно полностью решает проблему — это интернет протокол нового поколения — IPv6, переход на который по степени воздействия можно сравнить с переходом от стационарных телефонов на одну семью к сотовым телефонам на каждого пользователя. Но что же такого хорошего в интернет протоколе 6-го поколения?

Первое и главное отличие: IP-адреса в новом протоколе стали длиной 128 бит. Это дает 2128 вариантов уникальных адресов, а это на секундочку вот столько:

340 282 366 920 938 463 463 374 607 431 768 211 456 комбинаций

А это всего лишь 340 унцендиллионов или 340 триллионов триллионов триллионов. Иными словами, в этот раз ребята реально перестраховались.

Соответственно, с изменением длины адреса, поменялся и его формат. Новый IP-адрес стал выглядеть немного сложнее, к примеру вот так:

Пример IPv6 адреса

2001:0db8:0000:0000:0000:0000:0010:ad12

IPv6 адрес теперь состоит из 8 групп шестнадцатеричных чисел, разделенных двоеточиями.

Выглядит правда так себе, но хорошая новость в том, что в таких адресах можно сократить нули слева направо, поэтому большой адрес можно записать вот так, что гораздо симпатичнее.

2001:0db8:0000:0000:0000:0000:0010:ad12

2001:db8:10:ad12

Очевидные преимущества

IPv6 во многом превосходит IPv4 и имеет ряд очевидных преимуществ. Во-первых,более широкое адресное пространство, которое уже даёт массу преимуществ:

  • Адресов хватит с запасом на многие десятилетия вперед. А значит не надо будет париться над обходными решениями, и можно будет полностью избавиться от NAT.
  • Каждое из устройств подключенных к сети сможет получить свой “белый” IP адрес, что уже хорошо.
  • По настоящему хорошо заработают peer-to-peer сети, т.е. сети в которых устройства могут общаться между собой напрямую.

Во-вторых, в новом протоколе упростили и причесали:

  • Теперь адреса можно создавать и настраивать автоматически, благодаря технологии SLAAC — Stateless Address Autoconfiguration. А это сущесвенно упрощает администрирования сети.
  • Также в IPv6 существенно упростили заголовки пакетов, которые стало проще и быстрее обрабатывать.

Ну и добавили обязательную поддержку шифрования трафика IPsec, в конце концов. И многое, многое другое.

Неочевидные преимущества

Но ключевой момент в том, что все эти небольшие и вроде бы незначимые изменения на самом деле решают большие проблемы.

В текущем интернете у нас с вами нет настоящих “белых” IP-адресов, поэтому некоторые сервисы и протоколы просто не могут нормально работать.

Например, для того чтобы VoIP-вызовы работали на мобильных, устройство вынуждено постоянно держать соединение с SIP-сервером, на что уходит много трафика и заряда батарейки. Также нормально не работают любые FTP, p2p-сети и прочее.

В IPv6 таких проблем нет, новый протокол делает каждые девайс полноценным участником интернета: устройства могут общаться друг с другом напрямую, минуя даже DNS-сервера.

Иными словами, интернет который у нас есть сейчас нельзя назвать полноценным. Наши устройства не имеют своего личного пространства в сети, они его как бы арендуют у провайдеров и различных сервисов на очень ограниченных условиях. Новый же интернет позволит принципиально изменить и оптимизировать структуру сети. Но этого не происходит.

Сам протокол придумали еще в 1996 году.

Google стал активно использовать IPv6 еще в 2008 году.

А официальный всемирный запуск IPv6 состоялся в 2012.

После запуска все аналитики твердили, что в течение 5 лет мы полностью избавимся от IPv4 и перейдем на новый протокол, но на текущий момент по статистике Google только 30-35% трафика приходится на IPv6.

А в России так вообще меньше 10%.

Так почему же скорость внедрения такая маленькая?

Проблемы IPv6

Скажем, IPv6 — неидеальный. У него есть ряд серьезных проблем.

Начнем с того, что для провайдеров обновляться на IPv6 очень дорого. Нужно закупать новое оборудование, перенастраивать его и прочее. А зачем это делать, если итак всё работает? Согласитесь, когда на кону миллиарды, вопрос становится очень серьёзным.

Во-вторых, на текущий момент всё еще очень мало понимания, как настраивать IPv6. И даже у больших профессионалов с многолетним опытом возникают сложности, чего уж говорить о рядовых пользователях.

В-третьих, IPv6 не имеет обратной совместимости с IPv4. А это значит, что на время перехода нужно работать в режиме дуал-стек, то есть поддерживать и то, и то. А это это фактически двойная работа по настройке, гарантированное увеличение косяков и гарантированное уменьшение безопасности. То есть параллельная работа IPv4 и IPv6 в 2 раза увеличивает поверхность атаки. Так как нужно защищать и то, и то.

Тем не менее все специалисты сходятся во мнении, что переход на IPv6 неизбежен, это дело времени. И когда это переход состоится, мы наконец то увидим, как на самом деле должен работать интернет.

Хитрый переход

Уже сейчас все офисы IT гигантов Google, Facebook, Amazon работают исключительно на IPv6. Поэтому, если вы вдруг отвечаете за IT инфраструктуру внутри компании, лучше позаботиться о полноценной поддержке IPv6.

И даже если у вас совсем небольшая компания, вы это сможете сделать: поможет вам в этом классное оборудование от спонсора этого материала — Cisco.

Например, межсетевой экран Firepower 1000 — настоящая огненная мощь на страже безопасности вашей компании. Что эта штука умеет? Начнем с того, что это Firewall нового поколения корпоративного уровня, который подходит для небольших офисов.

Главные фичи:

  • Есть система предотвращения вторжений Secure IPS (NGIPS)
  • Система глубоко анализирует трафик, просматривает больше контекстных данных из сети и автоматически справляется с угрозами.
  • А мониторить и администрировать всё это можно через удобный и понятный веб-интерфейс, с подробной статистикой и наглядными дашбордами.

Firepower работает быстро, легко настраивается, шифрует трафик и, конечно, полностью поддерживает IPv6. Не важно, сразу же вы решили? что IPv6 ваше светлое настоящее или вы находитесь в процессе постепенной миграции с прошлого IPv4. Firepower 1000 обеспечит нужную защита и сразу и в процессе перехода.

А на этом у нас сегодня всё.

Магия создания процессоров: травление и осаждение. Разбор

Мы уже рассказывали вам об УФ-литографии, но в производстве процессоров есть еще два важных шага: травление и осаждение. Сегодня разбираемся в них.
Валерий Истишев 6 июня 2021 в 06:58

Современное производство процессоров иначе как произведением технологического искусства назвать просто язык не поворачивается. Когда начинаешь разбираться с тем какое количество в нем тонкостей и элегантных технологических решений, то просто взрывается мозг. Сегодня мы вам расскажем о двух важнейших этапах при производстве процессоров, а также объясним что общего между созданием процессоров и ковровыми бомбардировками, зачем нужно греть материалы сфокусированным лучом электронов и как получают металлический пар из самого тугоплавкого металла в мире.

Начнем, как обычно у нас принято, с основ. Как мы уже не раз говорили: транзистор — основа всех процессоров. Но сам по себе одиночный транзистор мало что может. В современных чипах их миллиарды!

Кроме того, все эти транзисторы надо друг с другом связать в правильной последовательности, то есть фактически проложить провода от одного транзистора к другому.

Только вдумайтесь, вам надо в правильной последовательности связать друг с другом миллиард крошечных транзисторов. К каждому транзистору надо подвести по три провода — сток, исток и затвор. Плюс ко всему сам транзистор — это сложный сендвич, в котором в правильной последовательности расположены полупроводники различных типов, изоляторы и металлические контакты.

Давайте просто представим, забыв о том, что транзисторы в тысячи раз меньше толщины человеческого волоса, что вы весь из себя такой Флэш и умеете делать, скажем 100 транзисторов в секунду! Знаете сколько времени у вас уйдет на создание одного чипа М1 от Apple? Пять лет! На создание всего лишь одного чипа! Для одного MacBook! Этот метод явно не подходит, надо думать что-то другое.

Тут то и приходит на помощь наша святая троица, а именно процессы Фотолитографии, Травления и Осаждения! Эти три типа процессов являются базой для создания всех современных процессоров. Да и не только процессоров: эти же процессы являются основой при создании экранов, будь то OLED или LCD, матриц фотокамер, различных модемов, датчиков и например МЕМСов.

Об одном из процесов мы уже вам рассказывали в нашем материале про Экстремальную Ультрафиолетовую литографию.

Литография позволяет нам получить нужный трехмерный рисунок на поверхности чипа.

Создание транзистора

Давайте представим, что создание транзистора — это как постройка дома. Вам необходимо сначала разметить землю, понять, где у вас будут коммуникации, где фундамент — это и есть литография.

Затем вы вызываете трактор, который приезжает и выкапывает для вас ровненькую траншею именно той геометрии, которую вы разметили — это и есть травление, то есть процесс удаления материала из только определенных областей. Чем глубже трактор копает — тем глубже получится траншея, также и с травлением.

Ну и наконец-то заливка бетоном вашего фундамента — это осаждение. Получение в конце концов именно того фундамента, который изначально был нанесен с помощью литографии.

Комбинацией этих процессов и создается наш дом, мы размечаем участок, травим и осаждаем где надо и наш дом растет слой за слоем, также и с транзисторами. В результате получаем сложную слоистую структуру из разных материалов. Только таких домов надо строить сотни миллиардов одновременно!

Травление

Давайте перейдем к травлению. Как мы можем убрать какой-то материал? Ведь трактором траншею в несколько нанометров не вырыть.

В целом, есть два вида травления — сухое и мокрое. При использовании мокрого травления наш материал помещается в специальную ванну или поливается сверху определенным раствором. Этот раствор химически реагирует и растворяет тот материал, который мы хотим убрать, это и удаляет материал с поверхности. Но у такого метода есть минусы, которые при создании маленьких транзисторов очень важны — жидкость затекает во все места, ведь это жидкость и травление происходит равномерно во все стороны, а не вертикально вниз, как мы хотим. Это называется подтрав под маску! Здесь маска закрывает на нашем чипе те участки, которые мы не хотим удалять, то есть травить!

Поэтому при производстве часто используют сухое травление. Для этого надо создать плазму! Как и в Экстремальной УФ-литографии нам нужно прибегнуть к помощи четвертого агрегатного состояния вещества! Только если там плазма нужна была для создания света с определенной длинной волны, то здесь она нужна совсем для другого.

Видите ли, плазма это не просто светящийся газ — она полна разных частиц, атомов, электронов, а также различных положительных и отрицательных ионов. Вот в этих ионах и кроется ключевая особенность. Ведь ионы мало того, что имеют какой-то заряд, так еще и очень реактивны, а это нам и нужно! Сейчас объясним…

Поскольку ионы имеют какой-то заряд, то мы можем их направить в нужное нам место, просто приложив к нужному нам месту противоположный заряд. То есть представим что наши ионы обладают положительным зарядом, мы к нашему чипу прикладываем отрицательное напряжение и ионы летят в него. Более того мы можем регулировать с какой силой ионы бьют по поверхности нашего будущего чипа! Подаем больше напряжения — ионы летят быстрее.

Это и есть та самая ковровая бомбардировка, ведь ионы наши относительно тяжелые и если подать достаточное напряжение, то они врезаются в поверхность материала как бомбы в землю, и просто разносят всю его поверхность! Это процесс, кстати, так и называется — ионная бомбардировка поверхности.

Это физическая составляющая процесса плазмохимического травления материала. Но есть и вторая — химическая.

Как я уже говорил, наши ионы очень активны и если правильно подобрать газ, из которого сделана наша плазма, то ионы будут химически реагировать с материалом чипа и просто образовывать новые соединения, которые будут просто улетать!

Например, при травлении Кремния или Нитрида Галлия, про которые мы вам недавно рассказывали, применяют плазму из гексафторида серы, в смеси с аргоном, или кислородом!

При этом, как и в случае с жидким травлением, те участки, которые мы хотим сохранить, мы можем покрыть специальной маской, которая останется нетронутой в процессе сухого травления, а открытые участки просто улетят!

Вот так путем игры с разными параметрами в процессе травления можно получать идеально гладкие, вертикальные отверстия абсолютно любой формы и глубины.

И более того травление можно осуществлять одновременно по всей поверхности огромной пластины кремния!

Осаждение

С траншеями для нашего дома, ой то есть транзистора, мы разобрались. Теперь надо в них залить наш фундамент, сделать стены и проложить коммуникации.

Для этого надо осадить различные материалы — это могут быть как металлы, например, медь для контактов транзистора или диэлектрики для изоляции в тех местах, где нам надо.

Ну или например нам надо осадить другой тип полупроводника на чип, как нам это нужно делать, например, в новых LTPO экранах, где используются транзисторы на основе поликристаллического кремния и соседний транзистор на основе оксида индия цинка и галлия!

В принципе, методов осаждения целая куча! Мы же расскажем вам о двух основных и начнем с самого взрывного.

Представьте, что вам надо нанести куда-то очень тонкий слой Вольфрама. Просто отрезать и приклеить точно не получится — я напоминаю что мы тут говорим контактах в несколько единиц нанометров. Как это сделать?

И тут, вы удивитесь, но принцип несильно отличается от того, когда вы наливаете холодное пиво в бокал в теплый летний день. Ведь на холодном бокале тут же начинают образовываться капельки воды: эти капельки — конденсат пара из воздуха. Вот с Вольфрамом надо сделать точно так же.

Но только тут есть одна проблема — если для того, чтобы образовался водяной пар нужно 100 градусов, то у вольфрама температура парообразования составляет почти 6000 градусов! Пока его так разогреешь, все вокруг уже расплавится. Как же его испарить вообще?

Для этого надо прибегнуть к так называемым электронно-лучевым технологиям, а по факту используют сфокусированный в одну точку луч электронов с очень большими энергиями!

А источником такого луча зачастую тоже является вольфрамовая нить, прям как в старых лампах накаливания, только тут она сильно толще. На эту нить подается ток, и она начинает во все стороны испускать электроны. Часть из них ускоряют до нескольких тысяч вольт и фокусируют в единую точку на поверхности того материала, который мы хотим испарить, в данном случае на Вольфраме.

Думали ли вы, что с помощью лампочки Ильича можно делать процессоры для современных iPhone?

Так вот эта точка может разогреваться до безумных температур! Таких высоких, что даже Вольфрам, который является самым тугоплавким металлом в мире, превращается в пар. Фактически локально формируется маленькую лужу Вольфрама и часть этой лужи и испаряют.

Этот пар летит и конденсируется на любой холодной поверхности, в частности на нашем чипе, где он осаждается, формируя необходимые нам контакты для наших транзисторов!

Но это опять же физические процесс, а есть и химические, когда, как в случае с травлением, на поверхности нашего материала, в нужных местах происходят специальные химические реакции.

Хорошим примером такого процесса является так называемое химическое осаждение из газовой фазы. Она активно применяется не только для производства процессоров, но и для создания органических светодиодов для гибких OLED-экранов!

Кстати, CVD — Chemical Vapor Deposition (химическое осаждение пара) — это один из методов выращивания искусственного алмаза, которые потом применяют, например, для алмазных резаков!

При чем самое крутое, что все эти процессы, как осаждения, так и травления, можно проводить для нескольких пластин одновременно, на каждой из которых сотни, а то и тысячи процессоров! Если бы не эта возможность, то каждый процессор стоил бы просто баснословных денег!

Выводы

Конечно, здесь мы перечислили только самые базовые процессы, но даже они дают понимание о том, какие невероятные технологические решения стоят за производством того, чем мы пользуемся каждый день.

А ведь есть и другие потрясающие процессы на современных производствах. Например, атомно-слоевое осаждение, которое позволяет получить идеальные пленки с возможностью контроля толщины до одного атома, или процессы ионной имплантации.

Стоит также сказать, что для процессов, о которых мы сегодня вам рассказали, надо зачастую сначала  создавать очень глубокий вакуум в установках, иногда даже больше, чем в космосе, однако это тема для отдельного материала! В общем, вы поняли — нам есть что вам рассказать интересного! Мы готовим вам целую серию материалов.

Кстати, автор сценария этого ролика Глеб Янкевич со своими коллегами тоже занимается травлением. Если интересно, почитать их последнюю статью о травлении карбида кремния в Nature Scientific Reports.

Что такое Закон Мура и как он работает теперь? Разбор

Закон Мура уже в прошлом? Или же он дал нам фундаментальные понятия и стимул развития. Давайте разберёмся…
vedensky 2 июня 2021 в 10:14

Закон Мура гласит: “Количество транзисторов, размещаемых на кристалле интегральной схемы, удваивается каждые 24 месяца”. Вы наверняка слышали про этот закон. А еще вы наверняка слышали, что он больше не работает.

Но, если посмотреть на реальные цифры реальных процессоров, мы увидим, что Закон Мура, удивительно точно работает по сей день, вот уже 50 лет.

Тем не менее, мы с вами на собственном опыте чувствуем, что прогресс замедлился. Несмотря на двукратный прирост транзисторов, мы не видим двукратного прироста производительности. Поэтому сегодня мы разберёмся. Что не так с Законом Мура?

Но самое интересное, что важный перелом произошел на рубеже нулевых и 2010-х. И нужны были новые решения.

А вспомнить прошлое мы решили, потому что в этом году знаменательная дата — юбилей у легендарной линейки ZenBook от ASUS, спонсора видео, за что ребятам большой респект. Им в этом году 10 лет. За это время ASUS проделали большую работу и стали лидерами на рынке консьюмерских ноутбуков (по данным GFK за 2020 год).

С какими сложностями столкнулось человечество и как мы их обошли? И чего нам ждать, когда закон Мура действительно перестанет работать?

Закон не закон

Начнём, с того ,что закон Мура на самом деле никакой не закон, а просто наблюдение Гордона Мура, основателя Fairchild Semiconductor, а также Intel.

С момента изобретения интегральной схемы в 1959 году количество транзисторов на микрочипах вырастало в среднем в два раза каждый год. Гордон Мур это заметил, и сказал: Всё! Так и будет.

А в 1975 году он внес поправку, и сказал:» Нет, всё таки, каждые два года».

На что ребята из Intel ответили: Ок, кажется, у нас появился план и мы его будем придерживаться. А вся индустрия подстроилась под такой темп.

И это, очень круто. Ведь чем меньше размер транзистора, тем меньше он потребляет тока. А чем больше количество транзисторов, тем выше вычислительная мощность. Причем зависимости прямо пропорциональные.

А значит, чем больше маленький транзисторов получится разместить на чипе, тем лучше.

Возьмем современный пример:

Например, в первом Zenbook который вышел в 2011 году стоял процессор Intel Core i7-2677M. В нём было 624 миллиона транзисторов. Звучит неплохо, с учетом того, что когда Мур придумывал свой закон в 65 году в актуальном процессоре было все 64 транзистора, не миллионов, всего 64.

А вот в ZenBook Duo 14, который вышел через 10 лет используется процtccjh Intel 11-го поколения Core i7-1165G7, в котором уже 8,2 миллиарда транзисторов! Это в 13 раз больше, и это огромный скачок вперед. Но если прикинуть по закону Мура, то транзисторов в этот момент должно было быть как минимум в 2 раза больше — 19,9 миллиардов, на самом деле. Но почему закон замедлился? Смотрите.

Почему Закон Мура работал?

Долгое время Закон Мура работал как часы. Транзисторы уменьшались, их число росло, а мощность возрастала. А это, на секундочку рост по экспоненте, то есть очень быстро!

Обратите внимание, что все графики отражающие Закон Мура изображены в логарифмической шкале, но если перевести график в линейную шкалу, мы поймем какой прорыв совершается каждые два года. В 65 году в микрочипе было 64 транзистора, а сейчас в серверном процессоре AMD Epic их почти 40 миллиардов. Но откуда была такая стабильность?

Скорее всего вы знаете, что процессоры производят путем фотолитографии. Иными словами, лазер светит через трафарет, который называется маской, и процессор буквально выжигается на кремниевой подложке. Это очень похоже на проявку фотографии.

Тут для на нас важен лишь они факт: чем меньше длина волны, с которой светит лазер, тем выше разрешение и меньше техпроцесс!

Наглядная инфографика по лазерам

Так индустрия и развивалась: когда достигали предела разрешения лазера — меняли его на лазер с более короткой длиной волны.

Поначалу использовали дуговые ртутные лампы, а не лазеры, с длиной волны 436 нм — это синий свет. Потом освоили 405 нм — это фиолетовый. И наконец до 365 нм — ближний ультрафиолет. На этом эра ртутных ламп закончилась и началось использование ультрафиолетовых газовых лазеров. Сначала освоили 248 нм — средний ультрафиолет, а потом 193 нм — глубокий ультрафиолет или DUV. Такие лазеры давали максимальное разрешение в 50 нм и на какое-то время этого хватало. Но потом произошел переломный момент…

Переломный момент

К 2006 году надо было осваивать техпроцесс в 40-45 нм. Разрешения лазеров было недостаточно.

Это был тупик! Гиганты Кремниевой Долины потратили сотни миллионов долларов для перехода на 157 нм (лазеры на основе фторид-кальциевой оптики), однако всё было впустую.

Даже сам Гордон Мур в 2007 году сказал: «Мои полномочия как бы всё, из-за фундаментальных причин». Если что, это точная цитата…

Но мы то с вами знаем, что на 45 нм человечество не остановилось. Уже 10 лет назад в первом ZenBook использовалась литография 32 нм. Как же люди смогли обойти оптические ограничения?

Они начали использовать различные хаки:

  • Стали экспонировать чипы через воду (видео). Это как-то меняло преломление луча и позволяло повысить разрешение.
  • Стали использовать множественное экспонирование, т.е. они стали использовать несколько масок, с разными рисунками, которые дополняют друг-друга.
  • И прочие хаки: поляризация излучения, коррекция оптической близости, использование фазосдвигающих масок, внеосевое освещение, но проблема с лазерами — это полбеды.

В 2000 году после пересечения порога в 100 нм из-за сильного уплотнения транзисторов, расстояние между ними стало настолько маленьким, что начались утечки тока! Грубо говоря, электрончики перескакивали из одного участка схемы в соседний — где их быть не должно. И портили вычисления… А также увеличилось паразитное энергопотребление.

Из-за этого пришлось поставить крест на росте тактовых частот. Если раньше частоты удваивались также быстро как транзисторы, прирост практически остановился.

Десять интересных лет

В итоге, вопреки своим планам, Intel застрял на 14 нм техпроцессе, а тактовые частоты остановили свой рост. И примерно с 2010 года начались 10 интересных лет оптимизаций.

Если раньше прогресс обеспечивался брутальным уменьшением техпроцесса и прирост производительности давался легко, то теперь началась настоящая работа по допиливанию всего того, что человечество придумало за 40 предыдущих лет.

Люди стали искать инновации за пределами Закона Мура:

  1. Процессоры стали многоядерными и многопоточными.
  2. Появилась масса сопроцессоров, которые невероятно эффективно решают отдельные задачи: обработка фотографий, кодирование видео, нейронные движки, облачные вычисления. В конце концов, перенос вычислений на видеокарты.
  3. Люди наконец начали оптимизировать софт.
  4. А производителям железа пришлось ежегодно совершенствовать свою продукцию. Ведь просто новый процессор, не позволял продать новый ноутбук

И самое удивительное, что именно в это сложное время появились все знаковые продукты от известных нам брендов.

ASUS

Конечно же я про линейку ZenBook от ASUS, которой в этом году исполнилось 10 лет! За эти годы ASUS изменили правила игры и показали каким должен быть классный ноутбук на Windows. Ребята привнесли массу инноваций, поэтому, давайте вспомним какие у них были знаковые модели, а заодно проследим как развивались технологии…

Итак, 2011 год, первый Zenbook (UX21E), о котором мы уже немного говорили. Это, конечно, знаковая модель. Классный дизайн, тонкий цельнометаллический корпус, вес 1,1 кг для модели на 11,6 дюйма, быстрый SSD. Даже сейчас эти характеристики звучат отлично…

2014 год — ZenBook UX501. ASUS впервые добавили мощную начинку с графикой GTX в ультрабук. Также это первый ZenBook, протестированный по военному стандарту MIL STD 810. В будущем, все ZenBook пройдут такую подготовку.

2015 — ZenBook UX305 –с абсолютно бесшумной системой охлаждения на базе 15 ваттного процессора Intel Core M. Экран — 13,3 дюйма, толщина корпуса – 12,3 мм, вес – 1,2 кг, время автономной работы – до 10 часов.

2016 год — первый ZenBook трансформер (UX360) — первый ZenBook в форм-факторе ноутбука-трансформера. И самый тонкий ZenBook (UX390) — толщина корпуса всего 11,9 мм, вес 910 г.

2018 год — ZenBook Pro 15 (UX580). Первый в мире ноутбук со вспомогательным дисплеем встроенным в тачпад, который назвали ScreenPad. Это меняет концепцию ноутбука: софт адаптируется под новые поверхности. И тема зашла.

2019 — ZenBook Pro Duo (UX581). Первый ноутбук с огромным сенсорным дисплеем над клавиатурой — ScreenPad Plus. Это был настоящий монстр с RTX 2060 и 4K OLED дисплеем.

И вот в 2021 году выходит — ZenBook Duo 14 (UX482). Именно такой ноутбук мы разыгрываем в нашем видео. Это продолжатель идей ZenBook Pro Duo, но теперь в компактном корпусе и с высокой автономностью. Тут вам и 2 сенсорных экрана с поддержкой стилуса, и система охлаждения прямиком из игровой линейки ROG и мощный Intel 11-го поколения.

В общем ZenBook всегда задавали тренды и были эталонными ноутами на Windows. Я сам пользовался многими ZenBook, и сейчас тоже пользуюсь ноутом от ASUS. Поэтому мне особо приятно перейти к подаркам.

Во-первых, если вы уже купили или собираетесь купить ZenBook в период с 1 по 30 июня, вы можете зарегистрировать свою покупку на специальном промо-сайте и получить кожаный органайзер с персональной гравировкой, а также год подписки на Office 365 в подарок! Это раз.

И, два, на том же сайте, вы можете принять участие в конкурсе, чтобы выиграть один из трёх ZenBook Duo 14.

EUV

И вот прошло 10 лет, пока мы с горем пополам производили 14-ти, 10-ти, и даже 7-нанометровые процессоры. Произошло событие, которого все очень долго ждали. Мир перешел на экстремальную УФ-литографию. Длина волны лазера скакнула с 193 нм до 13,5 нм, что является крупнейшим скачком за всю историю создания процессоров. Технологию разрабатывали 81 год и только в 2020 она заработала в полную мощь.

Ключевой момент технологии в том, что она позволит уменьшать техпроцесс вплоть до 1 нм, а это 10 атомов в толщину. И если вы считаете, что это невозможно, это не так. Компания IBM уже в этом году освоила 2 нм. Так, что 1 нм — это лишь дело техники.

Будущее

Но, а что нас ждет за порогом в 1 нм? Как дальше повышать производительность?

Это сложный вопрос. Безусловно люди придумают новую форму транзистора, мы перейдем на нанолистовые транзисторы. Вполне возможно, что люди откажутся от кремния и перейдут на новые материалы. Вариантов на замену есть масса:

  • Углеродные нанотрубки
  • Графеновые наноленты
  • Диоксид и селенид гафния
  • Дисульфид молибдена

Конечно же свой вклад внесут видеокарты, нейронные вычисления, и прочие специализированные чипы, которые сейчас развиваются куда быстрее процессоров. Об этом нам красочно заявляет новый закон от директора NVIDIA (Закон Хуанга).

Ну и наконец, скорее всего мы полностью откажемся от текущей концепции центрального процессора, основанной на архитектуре Фон Неймана и перейдем на асинхронные нейроморфные процессоры, построенные по подобию человеческого мозга. Кстати, их разработкой занимается тоже Intel.

В любом случае у нас есть еще 5-10 лет, пока транзисторный будут удваиваться по Закону Мура, а потом посмотрим.

Какими бывают дисплеи в ноутбуках? Разбор

Мы уже рассказывали о матрицах для ТВ, смартфонов и планшетных ПК, но ни разу не говорили о ноутбуках, а ведь тут своя специфика. Давайте разберемся!
vedensky 26 мая 2021 в 03:46

У нас уже было много роликов про дисплеи: мы разбирали все типы LCD-матриц в телевизорах. Сделали один из самых подробных материалов про все виды OLED в смартфонах и ТВ. Также мы рассказывали вам про mini-LED и microLED-дисплеи будущего. Но мы еще ни разу не рассказывали про дисплеи в ноутбуках. А ведь в дисплеях для ноутбуков есть своя особая специфика. Поэтому сегодня мы глубоко нырнём в разновидности дисплеев для ноутбуков. Разберём всё страшные аббревиатуры и узнаем как маркетологи вводят нас в заблуждение?

Разберемся как узнать модель и тип дисплея в вашем ноутбуке? И посмотрим на конкретные примеры ноутов и дисплеев.

Какими бывают матрицы?

Начнём с общей информации. Какие вообще бывают матрицы и какие преимущества и недостатки бывают у каждого из типов?

Несмотря на всё многообразие дисплеев в мире матрицы бывают всего 4 типов:

  1. TN-подобные
  2. VA-подобные
  3. IPS-подобные
  4. OLED-подобные

TN — Twisted Nematic

TN — это самые дешевые матрицы. Их главный недостаток — малые углы обзора по вертикали, что для ноутбуков особенно критичная проблема. Любое отклонение дисплея вверх-вниз сразу влечет за собой серьезное искажение цветов, а это мало кому понравится.

Второй важный недостаток — плохая цветопередача. А как правило TN-дисплеи имеют тесную глубину цвета: 6 бит на канал. А 8 бит на канал достигается за счет FRC — Frame rate control, то есть быстрого моргания субпикселей.

Субпиксели быстро моргают, из-за этого их яркость приглушается и мы можем смешивать цвета в разных пропорциях, от чего получаем дополнительные оттенки. И мы имеем 6 бит + 2 бита FRC.

Как правило на глаз настоящие 8 бит от 6 бит + FRC вы не отличите. Но для людей чувствительных к мерцанию мониторы с FRC — не лучший выбор. Мерцание FRC может достигать 30 Гц это очень мало и суперзаметно. Короче, иногда FRC — это хуже, чем ШИМ.

Зато есть у TN-мониторов есть важное достоинство — это очень быстрый отклик — 1 мс и ниже. Это  очень важно для игр. Поэтому для игровых мониторов TN-матрицы с высокой герцовкой от 120 Гц и выше — это рациональный выбор.

Кстати, в случае с TN-матрицами есть лайфхак. Чем выше у них разрешение, тем выше углы обзора. Поэтому в теории современная TN-матрица с высокой плотностью пикселей может выдавать вполне приличную картинку.

VA — Vertical Alignment

И эти сокращения важно знать. Почему? Часто даже для одной модели ноутов используются различные комплектации экранов. Почему так? Разберемся. Сегодня у нас для этого как раз народный игровой ноутбук от Dell. У него три типа экранов.

Намного более качественное изображение выдают VA-матрицы. В отличие от TN у них отличные углы обзора по вертикали и неплохие углы обзора по горизонтали, но всё равно они ниже, чем у IPS.

В целом, для ноутбуков именно вертикальные углы обзора — критические. Вряд ли вы часто будете смотреть на экран сильно сбоку, а вот для ТВ это может стать проблемой.

Также у VA-матрицы хорошая цветопередача. Они выдают честную глубину цвета 8 бит на канал, либо 8 + 2 бита FRC. Поэтому такие матрицы могут даже подойти для работы с цветом, но естественно, непрофессионально. А главное достоинство таких матриц — глубокий черный цвет, а значит высокая контрастность.

Скорость отклика VA-матриц меньше чем у TN и плюс/минус сопоставима с IPS. Это 5-10 мс. Поэтому самые быстрые VA-мониторы вполне подходят для потной катки в шутер. И в целом, современные VA-матрицы — хороший вариант для потребления контента и игр. Но самый сбалансированный и желанный тип матрицы в ноутбуках — это по-прежнему IPS.

IPS — In-plane switching

У IPS-матриц лучшая цветопередача. Они выдают настоящую глубину цвета 10 бит на канал и поэтому лучше всего подходят для профессиональной работы с цветом. Время отклика дорогих IPS также достойное и составляет от 5 мс. Есть даже дисплеи, на которых рекламируют отклик в 1 мс, но не верьте это хитрая маркетинговая уловка.

Тем не менее, IPS — почти идеальный варинт для всего. Но есть у них недостаток — уровень черного цвета.

IPS-матрицы плохо блокирует фоновую подсветку, из-за чего черный цвет в таких матрицах может иметь фиолетовый оттенок. Особенно это заметно на больших экранах. Поэтому IPS в телевизорах, как правило не используют. Но в мониторах и ноутбуках этот эффект менее выражен, поэтому IPS по-прежнему наше всё. Хотя в будущем всё может измениться. Сейчас стало появляться всё больше моделей ноутбуков с OLED-экранами.

OLED — Organic Light-Emitting Diode

И безусловно не просто так. У OLED масса преимуществ:

  • Настоящий черный цвет
  • Широкий цветовой охват
  • Низкое время отклика, менее 1 мс.
  • Компактная конструкция. Пиксели светятся самостоятельно, поэтому не нужно делать LED подсветку.

Но есть и существенные недостатки:

  • Такие дисплеи выгорают. Проблема всё еще не решена, поэтому мы не знаем точно как покажут себя такие дисплее при отображении статичных элементов интерфейса.
  • В больших OLED-дисплеях встречается эффект зернистости на однородных цветах, который называется MURA эффект.
  • Для регулировки яркости в OLED часто используется ШИМ.
  • И конечно, OLED-дисплеи дорогие.

Поэтому, OLED в ноутбуках, по-прежнему, экзотика. Поэтому останавливаться на таких дисплеях мы не будем. А вот про все остальные типы теперь уже давайте поговорим подробнее.

Разные LCD технологии

Казалось бы в чём проблема? Мы узнали про плюсы и минусы всех технологий и теперь каждый из нас может выбрать то, что подходит именно ему. Но сделать это непросто, потому как непросто определить какой дисплей в ноутбуке тебе на самом деле достанется. И проблема тут маркетинге.

Дело в том, что разновидностей технологий матриц огромное количество и все они по-разному называются. Вот взгляните на этот список, тут уже легко запутаться.

Но плюс к этому списку названий, которые мы можем точно отнести к определенному типу дисплея есть еще и ряд “маркетинговых” обозначений, которые вообще могут значить, что угодно.

Во-первых, есть аббревиатуры SVA, WVA и EWV.

SVA значит Standard View Angle, что просто значит стандартный угол обзора. На практике так обозначаются обычные TN-матрицы или их немного улучшенные версии TN+film. Иными словами эта технология не имеет ничего общего с настоящей SVA-матрицей — Super Vertical Alignment, которая относится к VA-подобным матрицам.

Вроде как такая подмена понятия используется только в ноутбуках HP. Тем не менее будьте аккуратны: никто не гарантирует, что этот приём не возьмут на вооружение и другие производители.

Похожая история с аббревиатурами WVA — Wide Viewing Angles и EWV — Enhanced Wide Viewing. Так просто обозначается, что дисплей имеет широкие углы обзора. При этом EWV — это всегда TN-матрица. А вот WVA — может по факту оказаться вообще чем угодно: и TN-матрицей, и VA и IPS. При этом не стоит всё это путать с технологиями AHVA и UWVA, которые являются разновидностями IPS-матриц.

  • AHVA (Advanced Hyper-Viewing Angle) — разработана компанией AU Optronics.
  • UWVA (Ultra Wide View Angle) — маркетинговое обозначение IPS-матрицы.

Ну и, конечно, самая интересная ситуация с матрицами IPS-like или матрицами IPS-уровня. Это термин возник не на пустом месте.

Дело в том, что IPS — это не только название технологии, но еще и торговая марка, которая принадлежит LG.

Поэтому только LG имеет право называть свои дисплеи IPS. Поэтому остальным производителям, ничего не оставалось, как придумать что-то своё и так сложилось, что все стали использовать термин матрица IPS-уровня. С другой стороны, так как это достаточно размытый термин за уровнем может скрываться и настоящий IPS или очень прокаченный VA.

Более того, часто магазины упускают из виду, что это IPS-like матрица и просто пишут IPS. Поэтому верить указанным характеристикам в сети нельзя.

Как определить тип матрицы?

Давайте поговорим, о том как нам выжить во всей этой путанице. Как купить комплектацию ноутбука с правильным типом дисплея? Или, если вы уже купили ноутбук — как проверить, что вам досталось?

Возьмём к примеру, бюджетный игровой ноутбук DELL G3 15, тут как раз сложный вариант.

На официальной странице указано что бывает три типа матрицы:

  • 60 Гц, 220 нит
  • 60 Гц, 300 нит
  • 144 Гц, 300 нит

Все три варианта, это WVA-матрицы, с разрешением FHD.

Мы знаем, что WVA — это просто широкие углы обзора, поэтому значить это может, что угодно.

Поэтому перед покупкой обязательно нужно погуглить обзоры, чтобы определить какая на самом деле матрица установлена. Но надо смотреть обзоры на комплектацию, которая вас интересует. Например, на эту модель в комплектации с дисплеем в 144 Гц есть обзор на notebookcheck-ru. Кстати, замечательный ресурс, всем советуем.

Ребята указали не только тип матрицы, но и конкретную модель производства AU Optronics. Кто не знает, это очень крупный производитель дисплеев.

Дальше гуглим эту модель и переходим по ссылочке на сайт Panelook.com — это самый подробные ресурс про матрицы дисплеев. Это как GSMARENA — только для экранов.

И видим, что тут используется дисплей типа AHVA, что очень хорошо. Потому как это одна из самых передовых технологий IPS-подобных дисплеев. Это первый дисплей IPS типа с частотой обновления 144 Гц и откликом в 4 мс. Короче, тут нам повезло.

Но давайте проверим. какой дисплей стоит конкретно в этом экземпляре.

Для этого ставим утилиту AIDA64. Запускаем её. Дальше Дисплей ->Монитор. И дальше гуглим данные из строчек: Имя монитора, ID монитора и Модель.

У меня оказалось, что это Dell FNVDR с матрицей LQ156D1JW04 (SHP1436) производства Sharp.

Кстати, если например AIDA не выдаёт вам название модели или вы разбили дисплей в ноутбуке и хотите найти замену и вы не готовы ни перед чем останавливаться. Модель дисплея всегда указывается задней стороне матрицы, поэтому сняв верхнюю крышку ноутбука вы сможете узнать модель.

И главный лайфхак. Если вы взяли самую дешевую комплектацию с TN-матрицей, очень часто можно сделать апгрейд, просто заказав себе дисплей из комплектации подороже. Это так, информация для размышления.

Ну и немного про сам ноутбук Dell G3 15 3500.

В нем установлен процессор Intel Core i7-10750H с видеографикой NVIDIA GeForce 1660 Ti, 8Gb DDR4 и 512Gb nVme SSD.

У меня не самая топовая комплектация с GeForce 1660 Ti и 8 ГБ оперативки, но в ноутбуке есть возможность апгрейда. Внутри есть свободный слот под еще один SSD, а также два слота оперативки.

В текущей же комплектации его хватит для игр во все тайтлы на средних настройках в разрешении FHD.

Из достоинств:

  • Очень качественная сборка и прочных корпус.
  • Сдержанный дизайн, для игрового ноута — это плюс
  • Шикарный дисплей, в чем мы убедились
  • Стабильная производительность
  • И отличный набор портов, включая Thunderbolt 3.

А из недостатков разве что хотелось бы комплектацию сразу с 16 ГБ оперативки. Но важно заметить, что у Dell не всегда быстро обновляется информация и по факту может быть уже и есть версия со стандартными 16 ГБ оперативной памяти. Например мы знаем, что основная часть ноутбуков Dell G3 15 сейчас поставляется с матрицами 15.6” FHD 120Hz 250 nits WVA.

Но в любом случае, согласитесь — интересная модель.

Остальные характеристики

Помимо типа матрицы, стоит учитывать и другие характеристики

В первую очередь, это цветовой охват. Для комфортного повседневного использования правило хватает примерно 57-63% цветового пространства sRGB, это где-то 45% NTSC.

Такого дисплея вам хватит для просмотра контента, игр, и даже для редактирования фото и видео на любительском уровне.

А для профессиональной работы с цветом вам понадобится монитор с охватом 72% NTSC или 90-100% sRGB. Это уже очень хороший дисплей. В этом ноутбуке, к примеру, охват SRGB — 94%.

Цветовой охват больше 100% SRGB нужен только для работы с печатью или для редактирования HDR-видео, то есть это очень узкие сферы.

Также важна яркость монитора, особенно если вы любите поработать за ноутбуком в дороге или на открытом воздухе, на веранде. Тут такая история: на солнце нормально работать получится при яркости от 450 нит. Таких дисплеев очень мало и это премиальный сегмент. А в помещении вам и 250 нит хватит с запасом.

Ну а брать глянцевый или матовый монитор, решайте сами. Профессионалы чаще предпочитают матовый, но и глянцевый тоже многие берут.

Надеемся, что сегодня вы благодаря нам еще больше узнали о сложном и непонятном мире всевозможных дисплеев и мы рассказали вам что-то новое и важное. На этом на сегодня всё.

Как работает шумоподавление? Разбор

Сегодня мы расскажем о том, как работает активное шумоподавление и какие технологии заложены внутри не только наушников, но и разных алгоритмов.
Валерий Истишев 24 мая 2021 в 07:30

В последние пару лет технологии шумоподавления сделали огромный скачок вперед. Мы накупили себе наушников с шумодавом на любой вкус и кошелек, а нейросети и пандемия спровоцировали скачок в качестве аудиосвязи.

Сегодня разберёмся как работает шумоподавление в наушниках и не только.

Принцип работы

Начнем с системы ANC в наушниках, то есть системы активного шумоподавления. Как она работает?

Во-первых, перевод: ANC — Active Noise Cancellation, также его называют Active Noise Control или Active Noise Reduction (ANR).

Громкость звука зависит от амплитуды звуковых волн. Чем выше размах колебаний частиц в воздухе, которые добираются до наших барабанных перепонок, тем громче звук. Поэтому чтобы сделать звук тише, нам нужно уменьшить амплитуду этих волн. Это можно сделать несколькими способами. Например? поставить перегородку, которая будут гасить звуковые волны. В помещении такой перегородкой может быть стена или окно, ни или мы можем просто надеть плотные наушники. Такой метод шумоподавления называется пассивным.

Но мы можем и активно гасить звуковые волны, создавая свои волны в противофазе шуму! В этом случае, волны будут просто накладываться и гасить друг друга. Гениально и просто!

История ANC

Схема регистрации звука угольным микрофоном — продольные колебания воздействуют на мембрану, заставляя ее сжиматься и разжиматься.

Первый патент на такую систему шумоподавления был подан еще в 1934 году немецким физиком Полом Люгом.

Изначально изобретатель предполагал, что технологию можно будет использовать в помещениях, передавая перевернутый сигнал через громкоговорители. И пригодится она для борьбы с эхом в театрах и концертных залах, а также для подавления шума печатных машинок в конторах. Идея была классная, но его разработку классифицировали как военную и засекретили, поэтому технология не выстрелила.

Пока в середине 50-х исследователь Лоуренс Фогель из США не догадался использовались технологию в шлемофонах и наушниках пилотов самолетов и вертолетов.

Типичный шум в кабине в то время достигал 100 децибел. Новая технология позволила снизить его до уровня 80–85 децибелов, всё равно громко и сравнимо с очень громким криком, но всё равно позволило спасти слух многим пилотам.

Лоуренс Фогель
Схема системы активного шумоподавления в головной гарнитуре, разработанная в Radio Corporation of America по заказу ВВС США.

Наладить серийное производство наушников с активным шумоподавлением удалось компании BOSE 1986 году. Тогда наушники использовались только в авиации. Но уже в 1989 году та же BOSE адаптировала технологию для бытового применения.

Первые наушники BOSE с активным шумоподавлением (авиационные).

И вот сейчас спустя более восьмидесяти лет с момента появления первого патента технология стала мейнстримом. Но почему потребовалось столько лет, чтобы технология стала по настоящему популярной?

Как работает ANC?

Сам принцип технологии очень простой. Но на практике добиться нормальных результатов чрезвычайно сложно из-за целого ряда технических сложностей.

Во-первых, наушники сами по себе обеспечивают пассивную звукоизоляцию. Поэтому чтобы грамотно замерить уровень шума нам нужно минимум два микрофона: один снаружи, улавливающий внешние шумы, и один внутри, чтобы понять какой процент внешних шумов проникает внутрь.

Во-вторых, если вдруг инвертированный сигнал отстанет хотя бы на 5 миллисекунд от реального звука шумоподавление перестанет работать. Поэтому в современных наушниках должен быть мощный и очень тонко настроенный цифровой процессор, который будет постоянно адаптироваться под меняющуюся ситуацию и будет работать с минимальными задержками.

Особенно задержки негативно влияют на подавление высокочастотных звуков, в которых колебания происходят тысячи раз в секунду, поэтому даже малейшая задержка в этом случае может даже увеличить уровень шума из-за наложения пиков друг на друга. Поэтому более менее сносно справляются с шумоподавлением высоких частот только самые лучшие наушники, но многие наушники не способны подавить даже человеческий голос.

Ну а низкие частоты до 100 Гц вообще не способны погасить, ведь маленьким динамикам просто не хватит мощности. Это видно на графиках.

Ну и в-третьих, на финальном этапе шумоподавления нам нужно объединить две волны: анти-шум и музыку, которую мы слушаем. Если это сделать бездумно, оригинальное аудио может довольно сильно исказиться и качество звука упадёт. Поэтому опять же нужны умные алгоритмы, быстрый процессор и многие часы тестирования и тонкой подстройки.

И тогда, в конце мы получим продукт, которым люди будут пользоваться с удовольствием.

ANC в других сферах

Как видите на преодоление этих сложностей ушло много времени. Люди научились делать ANC наушники, но на этом не намерены останавливаться.

Уже появились системы активного шумоподавления в автомобилях, которые комбинируют данные с микрофонов в кабине с данными с акселерометров, которые улавливают вибрации корпуса автомобиля поступающих от шин и от двигателя. Только представьте, в будущем не надо будет тратиться на звукоизоляцию своего авто, надо будет только прикупить умных датчиков и всё.

Также разрабатываются ANC системы для дома, которые способны гасить звук из открытых окон! Можно будет проветривать помещение и не просыпаться от проезжающих мотоциклистов. Надеюсь, для соседей с дрелью тоже что-то придумают.

Есть даже будки для собак, которые боятся фейерверков, ну или просто предпочитают здоровый крепкий сон. Так себе охранники конечно пошли. Вот в наше время барбосы были…

В общем, применений у технологии масса, но есть сферы в которых активное шумоподавление не применимо.

Например, когда мы говорим по видеосвязи, а за спиной кричит голодный ребенок. Или пытаемся поговорить по телефону с человеком на станции в метро. Для таких случаев есть другая технология.

NOISE SUPPRESSION

В английском языке есть как минимум два термина, обозначающих шумоподавление. Это Noise Cancellation, как в технологии активного шумоподавления. На русский язык этот термин вернее бы было перевести шумовычитание или шумопогашение на худой конец.

А всё потому что есть еще и другой термин Noise Suppression, который как раз и переводится — шумоподавление. Так вот, несмотря на то, что в русском языке технологии переводятся одинаково, по сути, они совсем разные. Поэтому, чтобы не путаться одну давайте называть ANC, а вторую просто шумоподавление.

Технология ANC позволяет заглушить окружающий шум при помощи аппаратных методов: внешних микрофонов, сигнальных процессоров и прочее. А технология шумоподавления позволяет — очистить сигнал от шума программно. То есть это просто программные шумодавы. Те кто хоть раз чистил аудиосигнал от шума, знают, что это такое и как они хреново работают. Но сейчас область шумоподавления переживает невероятный скачек. И вот почему…

История NS

На протяжении всей своей истории традиционные аппаратные или программные алгоритмы цифровой обработки сигналов, будем называть их DSP алгоритмы, работали примерно одним образом.

DSP — Digital Signal Processing, цифровая обработка сигналов

Задачей DSP алгоритма было находить некий шаблон шума, и обрабатывать кадр за кадром миллисекунда за миллисекундой. Шаблонов шума может быть много, но в целом любой шум можно поделить на два типа: стационарный шум и нестационарный шум.

Стационарный шум — это может быть какое-то шипение, гудение, в общем что-то постоянно повторяющиеся и отличное от человеческого голоса.

Так вот в случае, если нужно удалить только стационарный шум, DSP алгоритмы могут быть весьма эффективны. Но если шумы имеют сложную структуру или их сложно отличить от человеческого голоса, например, постоянный крик, стук, печатание на клавиатуре, сирена за окном, работающий телевизор, советы коллег, как расшарить экран. В этом случае DSP алгоритмы терпят крах.

Много лет ситуация не менялась, пока люди не распробовали глубокие нейросети!

Пионерами в области шумоподавления при помощи глубоких нейросетей, или DNN-шумоподавление (DNN — Deep Neural Network), стала компания BubbleLabs.

 

В октябре 2017 в первый день существования компании, основатели BubbleLabs закупили себе по две NVIDIA 1080 Ti и начали тренировать нейросеть.

Идея обучения нейросети была простая:

  • Берём кучу записей различных шумов.
  • Берем кучу записей чистой речи.
  • А потом склеиваем шум с речью и заставляем нейросеть это чистить. А в качестве образца показываем чистые записи голосов.

В итоге, на выходе получаем прекрасный алгоритм, который они назвали Clear Cloud. Послушайте сами примеры этой работы.

И как это часто бывает, хорошим стартапом быстро заинтересовалась большая компания. В этом случае речь идёт про Cisco. Вскоре Clear Cloud стал частью их платформы для конференцсвязи — Webex. И в итоге мы получили самый крутой алгоритм улучшения речи, работающий в потребительском продукте. По крайней мере если верить вот этому опросу.

И вот тут важный момент. В лучших традициях заботы о “privacy”. Алгоритм работает локально на устройстве и никуда не передает данные. Всё это работает как на ПК, так и на мобильных девайсах. И это только одна из AI-фич, которая встроена в Webex.

Еще она делает автоматическую транскрипцию и перевод более чем на 100 языков. Русский, кстати, поддерживается. Также досупно управление через ассистент, встроенный в приложение. Программа еще и распознаёт жесты, умеет заменять бэкграунд и еще много всего.

В общем, попробуйте. Webex — суперпродвинутая программа для конференцсвязи, которая, кстати, поддерживает кодек AV1, за что особый респект. А вот и ссылочка на пробную версию Webex.

Итоги

Ждём пока такие алгоритмы встроят во все телефоны, умные колонки и часы — и тогда гаджеты нас будут понимать с полуслова. Кстати, Cisco, так уже делают. Они оборудуют рабочие пространства устройствами видеосвязи для дома и офиса. Поэтому теперь неважно, как вы встречаетесь лично или онлайн. Ведь главное, чтобы люди друг друга слушали и хорошо слышали.

Кризис полупроводников: Почему это происходит? Разбор

Разбираемся почему произошел кризис на рынке полупроводников, как долго он продлится и чего ждать в будущем?
Валерий Истишев 17 мая 2021 в 08:54

Возможно вы видели новостные ленты, которые кричали о том, что дефицит с поставками PlayStation 5 не закончится как минимум до 2022 года.

В магазинах не купить видеокарт, взлетают цены на комплектующие, сроки поставок новых девайсов постоянно растут, автомобильные компании чуть ли не останавливают конвейеры. Что это?

Всему виной глобальный кризис полупроводников!

И если вы думаете, что вас он не коснется, то спешу вас немного огорчить — если он продолжится такими темпами как сейчас, то скорее всего так или иначе затронет каждого.

Но что вообще происходит? Почему все оказались не готовы?

Сейчас во всем разберемся и попробуем ответить почему случился кризис, в каком состоянии он сейчас и когда закончится! А также расскажем почему отсутствие дождя на другом конце планеты влияет на то, что вы можете столкнуться с невозможностью обновить свой девайс.

История

Мы уже наверное и не понимаем как сильно мы зависим от полупроводников и вообще полупроводниковой индустрии. И я сейчас говорю даже не о наших с вами гаджетах, а просто об области применения различных чипов.

Полупроводники можно встретить во всех сферах человеческой жизни, даже в тех, о которых мы не задумываемся! Медицина, транспорт, хранение данных, передача информации, различные производства начиная от тяжелой и заканчивая даже сельхоз промышленностью. Полупроводники везде!

Неудивительно? что объем рынка полупроводников показывает не просто рост, а невероятно устойчивый и быстрый рост. Только посмотрите на статистику.

Конечно, были спады. Например, спад в 2019 году, который в том числе был связан с торговой войной между США и Китаем, но в целом тенденция прослеживается отчетливая.

В 2021 году объем рынка почти достиг полутриллиона долларов, а рост составил более 8 процентов! А к 2030 году планируется, что он превысит 1 триллион долларов. Деньги крутятся огромные!

А в целом распределение по сферам выглядит следующим образом!

Мы тут откопали классную статистику по распределению роста в различных областях. Она дает понимание, что наибольший рост наблюдается в областях носимой электроники, так и в области автомобилестроения. И тут разговор не только об электромобилях, но в целом о всей индустрии.

Машины все больше и больше становятся гаджетами просто под завязку напичканными разными технологиями. Прямо с завода они уже забиты умными системами! И количество и сложность этих систем растет год от года и уже просто невозможно себе представить, что современный автомобиль выйдет на рынок без, например, умных систем помощи водителю!

И если в 70-ых электроника составляла всего 5% от всей стоимости автомобиля, то сейчас эта цифра уже приближается к 50%.

И дело тут не только в системах помощи водителя: в машинах нужны системы, которые следят просто за состоянием автомобиля, агрегатов, контролируют угол поворота руля, или например включают и выключают поворотники и дворники! Всем этим занимаются различные чипы.

В общем, вы поняли — рынок огромный, потребление которого только растет! И растет он не только потому что мы с вами начинаем покупать больше и больше гаджетов, а потому что вся техника вокруг нас становится сложнее и умнее.

Кризис

Вот тут то мы и приходим к кризису! На самом деле дефицит полупроводников прогнозировали еще в 2018 году.

Аналитики еще тогда заявлялили, что скорость роста потребления сильно превышает наращивание производственных мощностей лидеров рынка.

А потребление начало расти невероятными темпами — только вспомните, начало повсеместного внедрения 5G, бум нейронных сетей и искусственного интеллекта, развитие облачных сервисов, ну и конечно развитие электромобилей, а производителей чипов в мире, в принципе, не так и много. И более того всего несколько из них принимают заказы от сторонних компаний.

Главными, конечно, являются Samsung и TSMC. Вместе с запретом американским компаниям заказывать чипы в Китае, заказы к этим двум корпорациям полились рекой! И особенно к TSMC, ведь они были самой первой компанией которая освоила 7 и 5 нм техпроцессы, с большой плотностью тразисторов, которые были так интересны Apple, Qualcomm и AMD.

И тут надо сказать, что Intel до сих пор занимает лидирующую позицию, но успешно ее теряет, ведь Intel, в отличие от Samsung и TSMC до сих пор не принимает сторонних заказов и продолжает делать чипы только для себя! Но и это скоро изменится.

Кстати, касаемо видеокарт посмотрите на NVIDIA, которая показала рост в 50 процентов за год! Вот что майнинг животворящий делает.

Но 2019 год и торговая война между США и Китаем опрокинули рынок на 14 процентов, что дало всей индустрии небольшой глоток свежего воздуха, так как потребление чипов в тот год резко сократилось.

Пандемия

И естественно, как это обычно бывает, это было только затишье перед бурей.

Пандемия ударила по всем как гром среди ясного неба. Закрытые заводы в начале в Китае, а потом и по всему миру. Сроки поставок комплектующих срываются и происходят жуткие задержки производства.

В результате такой паники и снижении покупательского спроса производители, а в особенности производители автомобилей, начали отменять свои заказы на чипы, что конечно привело к тому что компании начали сокращать производство.

А спрос наоборот, вопреки ожиданиям только вырос! Ведь все массово перешли на удаленную работу! Всем срочно понадобились веб-камеры, ноутбуки и планшеты для работы. А возросшая нагрузка на сервера привела к тому, что владельцам облачных сервисов пришлось резко увеличивать мощности дата-центров и объемы памяти в них.

Тут же нельзя забывать и майнинг крипты! Майнеры создали невиданный ранее дефицит видеокарт, и, судя по последним новостям, это же ожидает и жесткие диски!

В результате все сложилось вместе! Резкий рост потребления и, хоть и недолгая, но все-таки остановка производства, которая в масштабах общего рынка оказалась критической.

И если в середине 2020 года у компаний еще были запасы, которые накопились, то к концу 2020 года, когда производители поняли, что чипов больше нет, запасы закончились!

Сильнее всего это ударило по автомобильной отрасли. Они отменили больше всего заказов из-за первичной ковидной паники, а когда опомнились, место в очереди было уже очень далеко! Это и привело к тому, что большое число автопроизводителей вынуждены останавливать конвейеры, а, как вы понимаете, остановка конвейера это очень серьезный шаг.

Но что поделать — не можешь же ты выпускать машины, у которых нет чипа управления дворниками, например!

TSMC и засуха

Вернемся к TSMC. Напомню, что эта компания является главным поставщиком чипов для огромного количества лидеров рынка. От нее зависят вообще все гиганты — Apple, AMD, Qualcomm, MediaTek и множество других!

И вот, кроме пандемии, еще одна напасть ударила по производителям в Азии, а именно засуха! Сильнее всего это отразилось, конечно, на тайваньском гиганте.

Остался еще огненный град и нашествие жаб и можно будет звать Моисея на помощь! Вот как оно бывает — раньше из-за засухи был голод, а теперь мы не можем купить PS5 — проблемы 21 века.

Да, в Тайване случилась небывалая за 50 лет засуха, а вода необходима для охлаждения систем! Вы ведь помните, мы в нашем материале про экстремальную УФ-литографию говорили, что системы ASML потребляют очень много воды.

Правительство Тайваня было вынуждено сократить производство, были обьявлены серьезные меры в связи с засухой! Например, в некоторых районах острова воду вообще отключают на два дня в неделю, для ее сохранения!

Так вот заводы компании потребляли 150 тысяч тонн воды в день, а теперь они вынуждены привозить воду на грузовиках, так как ее просто не хватает!

Понятное дело, что это совсем не помогает индустрии, которая и так в центре серьезного кризиса. Уже начинают ходить серьезные слухи о задержках в поставках чипов М1 для MacBook и iPad Pro. И судя по всему это только начало всего. Стоит ожидать задержек так же и от других компаний.

Выход из положения

И вы спросите — а что же делать? Все действительно так плохо — больше не будет новых гаджетов и Droider можно закрывать?

Если серьезно — сейчас тяжело как для производителей, так и для нас с вами, то есть конечных потребителей.

Нет сомнений, что в ближайшие месяцы ситуация будет развиваться в негативном ключе и мы можем столкнутся с тем, что достать тот или иной гаджет будет трудно, примерно так, как это сейчас происходит с PlayStation 5 или видеокартами.

Аналитики говорят, что серьезный кризис продлится до конца 2021 года, и потом медленно начнет возвращаться в нормальное русло к концу 2022.

Нам же стоит ожидать, что для снижения спроса производители могут поднять цены на свои товары!

Но неужели все настолько ужасно? Неужели многомиллиардные компании не могут ничего придумать?

На самом деле, все не так уж плохо и судя по новостям меры принимаются очень активные и радикальные!

Компании стали объединяться в альянсы. Например, в США уже обсуждаются инвестиции государства в 50 миллиардов долларов в создание новых производственных мощностей на территории страны. Страны Евросоюза только что заключили договор, что к 2030 году они хотят, чтобы на территории ЕС производилось от 20% всех мировых чипов. А та же TSMC анонсировала инвестиции в 100 миллиардов долларов в ближайшие три года в расширение своего производства.

Все это говорит нам о том, что производители отчетливо понимают, что надо восполнять дыру в возросшем спросе на товары.

Нам стоит опасаться обратного, судя по анонсированным мерам и объемам инвестиций, рынок скоро будет наоборот перенасыщен предложением! А это, в конце-концов приведет к росту конкуренции, что для нас с вами только плюс!

Больше выбор новых чипов, больше ассортимент и в конце концов, ниже цены!

И мы уже можем это видеть. Например, MediaTek неожиданно выпустили новый флагманский чип Dimensity 900 5G на 6 нм техпроцессе, который, судя по всему будет отличаться особой энергоэффективностью!

Да и в дополнение ко всему компания только что разместила на TSMC заказ на первое поколение чипов на 4 и 3 нм техпроцессе, быстрее Apple и Qualcomm.

IBM же буквально на днях анонсировали первый чип на 2 нм техпроцессе с использованием технологии Nanosheets. Каждый из этих чипов содержит более 50 миллиардов транзисторов на чипе размером с ноготь и энергопотреблением почти в 2 раза меньше, чем 7 нм процессоры.

Выводы

Действительно сейчас, с учетом всех новостей, ситуация выглядит пугающей. Скорее всего нас действительно ожидает повышение цен на некоторые гаджеты и товары, а также задержки в поставках. Но возможно, что этот кризис, в конце-концов даже положительно скажется на всей индустрии.

Это как ведро холодной воды в лицо: сейчас дефицит, скоро, судя по всему, будет профицит, а там рынок сам себя скорректирует уже согласно потребностям!

Главный вопрос в том, что станет следующим бутылочным горлышком?

Bluetooth КОДЕКИ: SBC, AAC, aptX, LDAC: Разбор

Сегодня вы узнаете все о самых популярных кодеках для передачи звука беспроводным способом: SBC, AAC, aptX, LDAC, LHDC. Обещаем, будет интересно…
vedensky 20 апреля 2021 в 07:16

Разъём под наушники окончательно изчез из смартфонов. Беспроводных наушников становится всё больше, а значит самое время поговорить про Bluetooth-кодеки. Тем более тема полна спорных вопросов.

Правда ли, что кодек SBC так плох? В чем популярность AAC? LDAC — это маркетинговое фуфло? И что готовит нам новый король кодеков от самой Bluetooth?

https://youtu.be/oqFmvp536bk

А также сегодня расскажем, как на качество звучания влияют другие железки внутри наушников? И послушаем немного на примере новых наушников…

Кодеки и сжатие

Люди часто сравнивают кодеки только по одному параметру — максимальному битрейту. По идее — чем выше битрейт, тем больше передается данных и тем лучше качество.

Вот, к примеру, посмотрите на картинку, у LDAC максимальный битрейт 990 кбит/с, ведь это гораздо лучше, чем 250 кбит/с у AAC?

Но это не всегда так, ведь на качество звука и стабильность соединения влияет гораздо больше факторов, чем просто битрейт. Поэтому сегодня будем копать глубоко…

Сперва взглянем на линейку. Что у нас есть?

AAC, SBC — самые популярные и массовые. Еще есть LDAC с высоким битрейтом. А еще aptX и с недавних пор новый LHDC, который продвигает HUAWEI. И у него есть несколько навороченных фишек.

Вообще, важно сказать, что за звучание отвечает не только кодек. Сами инженерные решения и компоненты в наушниках тоже очень важны. Кстати? новые наушники HUAWEI мы сегодня протестируем — FreeBuds 4i. Например, здесь за звук отвечает: динамический излучатель на 10 мм, это немало. Да еще и с полимерной диафрагмой.

SBC — low-complexity sub-band codec

А начнем мы с кодека SBC. Это стандартный кодек для всех Bluetooth-аудиоустройств. Он поддерживиется всеми наушниками и плеерами кроме устройств Apple, потому как Apple работает только с кодеком AAC. О чем мы еще поговорим.

У SBC есть масса преимуществ. Во-первых, это очень простой для вычислений кодек. Для того чтобы сжать аудио, всё что он делает — это разбивает аудио на несколько частотных полос: низкие, средние высокие частоты, а дальше начинает квантовать, то есть округлять значения, тем самым экономя биты информации.

Делает он это от нижних частот к верхним. И если весь битрейт использовался на нижние и средние частоты, верхние частоты «обрежутся» (вместо них будет тишина).
Если по-простому он оставляет басы, а верха обрезает. И чем меньше мы выделили кодеку битрейта, тем больше частот обрежется.

К примеру, вот на этой спектрограмме чередуются сжатые и несжатые фрагменты. На участках закодированных в SBC видно как кодек режет тихие звуки выше 17,5 кГц и совсем не выделяет битов информации для полосы выше 20 кГц.

Источник: habr.com

SBC может работать в очень широком диапазоне битрейтов — от 10 до 1500 кбит/с и от этого, естественно, сильно зависит качество. При битрейте 328 кбит/с — звук отличный, практически неотличимый от оригинала, но уже при 240 кбит/с — звук посредственный.

При этом SBC на максимальном битрейте 1500 кбит/с вы нигде не встретите, потому как все производители наушников режут битрейт до 328 кбит/с. Почему так? Скорее всего дальше уже начинаются проблемы с соединением.

Более того, у кодека SBC нет фиксированных профилей, есть только рекомендуемые. Поэтому производители наушников могут выставлять любые ограничения на битрейт, какие-только захотят. Отсюда и плохая репутация у кодека.

Но если захотеть, можно так настроить кодек, что у него и низкие задержки будут и высокое качество звучания. Гибкость кодека SBC — это и его преимущество, и недостаток одновременно.

В наших наушниках он тоже есть. Послушаем! На самом деле, одна из важных вещей в кодеках — их алгоритмы обработки. А если в наушниках есть еще и шумоподавление, как в наших, то на процессор ложится высокая нагрузка. Для этого тут специальный чип от BES Technic, но к этому еще перейдем.

FreeBuds 4i поддерживают и второй популярный кодек — AAC. Давайте разберемся с ним.

AAC — Advanced Audio Coding

Второй по популярности кодек — AAC. Это и  не удивительно, ведь это кодек по умолчанию для устройств на iOS и MacOS.

AAC, в отличие от SBC, сложный для вычисления кодек. А всё потому, что для сжатия аудиосигнала он использует серьёзную психоакустическую модель. Эм… Серьёзную что?

Да, есть такая наука — психоакустика. Она изучает то, как человек воспринимает звуки с точки зрения физиологии и психологии.

Простой пример. Если одновременно хлопнуть в ладоши и проткнуть иголкой воздушный шар, то хлопок в ладоши вы наверняка не услышите. Потому что более громкий звук, да еще и на схожей частоте просто замаскируют более тихий звук. Такое свойство человеческого восприятия пришлось очень на руку создателям аудиокодеков. Ведь всё, что человек и так не услышит, можно спокойно удалять.

Первый удачный аудиокодек, в котором была использована психоакустическая модель — это MP3. А в кодеке AAC эту модель еще сильнее прокачали, поэтому AAC при битрейте 256 кбит/с, для человека звучит также хорошо как MP3 320 кбит/с. А если учесть, битрейт в принципе, не может быть низким. Он варьируется от 256 кбит/с до 320 кбит/с, выходит что AAC в принципе не может плохо звучать и при любых условиях он будет уделывать SBC. Так ведь?

К сожалению, нет. Так как AAC сложный для вычисления кодек, чтобы он хорошо звучал, нужен очень хороший декодер. Например, их собственный, который так и называется Apple AAC. Кстати, все компании платят лицензионные отчисления за использование кодека. Ну точнее, мы платим.

Требует лицензирования и лицензионных отчислений: $15000 единовременно (или $1000 для компаний с менее 15 работниками) + $0.98 за первые 500000 устройств.

В Android-устройствах в лучшем случае используется второй по качеству кодировщик — Fraunhofer FDK AAC, а по факту вообще не пойми что. Потому как качество AAC очень сильно варьируется. Взгляните на тест от SoundGuys.

Фиолетовая линия — это тестовый файл. И видно, что iPhone (голубая линия) обрубил гораздо меньше информации, чем Android устройства.

С другой стороны посмотрите как уделывают, Android-смартфоны с SBC всех остальных с кодеком AAC, включая iPhone.

Поэтому на Android никогда не знаешь, как хорошо будет звучать AAC.

Более того, есть и другая проблема. Так как кодек тяжелый, то увеличиваются и задержки.

Как правило, у AAC задержки чуть выше, чем у других кодеков. Хотя справедливости ради задержки больше зависят не от кодеков, а от девайса, на котором происходит декодирование.

Одна из фишек FreeBuds 4i — низкая задержка. Она реализована за счет собственных аглоритмов. Но лучше работает ожидаемо только со смартфонами Huawei. Кстати еще тут есть мгновенное подключение.

И даже если вы и так слушаете файл формата AAC на iOS=устройстве, всё равно его для начала нужно декодировать из AAC, а потом снова закодировать в ACC, чтобы передать по воздуху. При этом качество чуть-чуть просядет. Это необходимо, чтобы во время воспроизведения музыки могли также микшироваться и другие системные звуки, например, уведомления.

FREEBUDS 4i

Так какой всё таки лучше использовать кодек для Android? SBC или AAC?

Ответ простой, зависит от девайса и наушников.

Возьмём, к примеру, новые TWS наушники от HUAWEI — FreeBuds 4i. Они поддерживают и SBC, и AAC. Но HUAWEI явно хочет, чтобы вы юзали AAC. А всё потому, что SBC тут порезан до 220 кбит/с, а на таком битрейте SBC выдаёт очень посредственное звучание, в добрых традициях первых Bluetooth-гарнитур.

А вот AAC, наоборот, звучит и работает идеально. Но достигается это за счет жесткой хардверной силы — отдельного чипа со встроенным кодером и ЦАПом BES2500Z от BES Technic. Есть даже его фоточки, зацените.

Источник: qucox.com
Источник: qucox.com

Эта штука тут прокачивает AAC на максимум: обрабатывает аудио, кодирует, декодирует, уменьшает задержки, снижает энергопотребление и прочее. К примеру, тут работает технология синхронизации аудио и видео при просмотре YouTube и задержка вообще отсутствует.

Также эти наушники живут дольше всех наушников HUAWEI — 10 часов непрерывного воспроизведения без кейса и 22 часа с подзарядкой от чехла. Но это правда с выключенным шумоподавлением. С включенным на пару часов поменьше, что всё равно очень хорошо. Особенно с учетом того, что тут есть быстрая зарядка: 10 минут зарядки хватит на 4 часа музыки.

Что еще радует — качество микрофонов:  ты хорошо слышишь собеседника, собеседник хорошо слышит тебя.

Управляются наушники при помощи касаний: двойное нажатие — Play/Pause или принять/завершить вызов. Долгое касание, переключение режимов шумоподавления и прозрачности.

Но самое главное, как они звучат? Тут интересно… Звук нетипичный для TWS-наушников, в которых обычно задирают басы, как на Sony. Тут наоборот бас не выпячивается. Из-за чего отлично слышен вокал и вообще вся середина и верха очень детализированные. В целом, звучание очень объёмное и оно на голову выше любых наушников Apple и уж тем более каких либо недорогих TWS. Добавим сюда удобный компактный кейс и в общем, наушники огонь.

Отличный звук, время автономной работы, есть режим шумоподавления, звукопроницаемости, компактный кейс и приятный дизайн самих наушников. А также еще одна интригующая технология, но о ней мы поговорим в конце ролика. А пока продолжаем про кодеки…

Кстати, важный момент, когда вы слушаете музыку по Bluetooth — задержки неизбежны. Потому как прежде чем что-то закодировать в Bluetooth кодек, нужно предварительно декодировать файл, который вы сейчас слушаете.

aptX

Про SBC и AAC понятно — оба кодека могут звучать отлично, если будут в связке с правильным оборудованием или наоборот будут звучать плохо с неправильным. Но есть ли кодек который будет звучать хорошо всегда? Да, такой кодек есть и это aptX.

aptX — это простой для вычислений кодек без всякой психоакустики. Он использует адаптивную дифференциальную импульсно-кодовую модуляцию (ADPCM).

Не будем вдаваться в подробности, что это такое. Но если по-простому, он тоже использует квантование — округление значений сигнала.

Кодек aptX принадлежит Qualcomm, но вопреки всеобщему заблуждению, Qualcomm его не изобретали. А появился он еще в 1988 году, за 14 лет до появления Bluetooth.

В общем, технология старая, а сам кодек нельзя назвать самым умным, качественным и эффективным. Тогда почему же aptX считается хорошим кодеком? На то есть несколько причин.

Во-первых, у aptX есть несколько разновидностей, которые хорошо справляются со своими задачами.

Обычный aptX отлично подходит для нетребовательного слушателя. На сходном битрейте он будет звучать примерно как SBC. Но aptX поддерживает битрейт выше SBC, а значит при хорошем сигнале и звучать он будет лучше.

SBC 10 — 328 кбит/с

aptX 128 / 256 / 352 / 384 кбит/с

aptX HD с улучшенным профилем кодирования и еще более задранным битрейтом.

aptX 128 / 256 / 352 / 384 кбит/с

aptX HD 192 / 384 / 529 / 576 кбит/с

Он уже подойдёт более придирчивому слушателю. По тестам SoundGuys, это кодек способен выдавать близкое к CD качеству, а значит кодек подойдет любителям lossless музыки.

Есть aptX Low Latency, с уменьшенными задержками для любителей игр, и aptX Adaptive с динамически меняющимся битрейтом для более стабильного соединения.

aptX 128 / 256 / 352 / 384 кбит/с

aptX HD 192 / 384 / 529 / 576 кбит/с

aptX Low Latency 352 кбит/с

aptX Adaptive 276-420 кбит/с

Но самое главное aptX используют жестко заданные профили, которые не может изменить ни производитель смартфона или плеера, ни производитель наушников. А значит, вы всегда будете знать наперед, какое качество звука вы получите без сюрпризов.

Но, чтобы получить все эти классные разновидности, aptX придется немало заплатить. Ведь каждую разновидность aptX нужно отдельно лицензировать у Qualcomm. Плюс нужно будет докупать еще всякие чипы для поддержки самых классных функций.

Типа TrueWireless Stereo, которая позволяет направлять два независимых сигнала в оба наушника.

А вот наушники HUAWEI умеют это делать за счет своих технологий, поэтому они часто и стоят дешевле, и батарейку держат лучше. Сила вертикальной интеграции.

Ну а без всех дополнительных плюшек aptX — кодек не плохой, но опять же, по всем параметрам, не выдающийся. Впрочем, вы сами можете послушать разницу в звучании SBC, aptX и aptx HD прямо у себя в браузере. Благодаря вот этому чудесному человеку с Хабра.

Особо обратите внимание на эквалайзере, как SBC внаглую отрезает все частоты после 20 кГц. Картинка кликабельна и ведёт на плеер из статьи.

LDAC

И тут мы потихоньку приближаемся к выдающимся кодекам для ценителей самого качественного звука. Конечно же речь про LDAC.

Это так называемый Hi-Res кодек от Sony и его главная отличительная черта — поддержка высоких битрейтов — вплоть до 990 кбит/с и частоты дискретизации до 96 кГц

LDAC

303/606/909 кбит/с (для 44.1 и 88.2 кГц)

330/660/990 кбит/с (для 48 и 96 кГц)

Кодек очень распространенный, так как энкодер LDAC (libldac) входит в стандартную поставку Android, начиная с 8-й версии ОС. Ну и конечно он поддерживается наушниками Sony.

Кодек способен выдавать CD-качество без потерь, в отличие от aptX HD, который всё-таки близок к CD-качеству, но не совсем. Все это подтверждают тесты SoundGuys.

И недостатка у кодека буквально два:

  1. Маркетинг. Его продвигают как кодек для Hi-Res аудио, отсюда и поддержка частоты дискретизации 96 кГц. Но конечно же, ни один беспроводной кодек даже близко не справится с настоящим Hi-Res.
  2. Качество соединения. Оно уж очень слабое. Если слушать на максимальном качестве 990 кбит/с, то стоит подальше отойти от телефона, прикрыть его рукой или просто положить в задний карман, почти гарантированно начинаются небольшие заикания, что сразу же портит кайф от прослушивания качественного звука.

Короче, кодек явно не для пробежек.

Плюс есть третий недостаток. На низком битрейте, который для этого кодека целых 330 кбит/с, LDAC проигрывает по качеству и SBC и AAC и aptX и ситуацию усугубляет то, что многие смартфоны по умолчанию врубают именно такое качество.

Какое качество выставляет ваш смартфон можно посмотреть в настройках для разработчика.

HWA LHDC — Low Latency High-Definition Audio Codec

Но не спешите расстраиваться, если главный аудиофильский кодек вас разочаровал. Ведь есть еще более аудиофильский кодек, который лишен недостатков LDAC.

Имя этому кодеку LHDC или HWA, его по разному называют.

Так вот LHDC, что буквально значит кодек высокого разрешения с низкими задержками. Он разработан союзом Hi-Res Wireless Audio и компанией Savitech. А продвигает кодек в массы HUAWEI. Впервые он появился в смартфоне HUAWEI Mate 10. А сейчас он поддерживается во все новых смартфонах HUAWEI и еще в куче смартфонах Xiaomi:

  • Huawei P30
  • Huawei P20 Pro
  • Huawei P20
  • Huawei P20 Lite
  • Huawei Mate 10 pro
  • Huawei Mate 10
  • Huawei Mate RS
  • Xiaomi Mi 9 Pro 5G
  • Xiaomi Mi Note 10 Pro
  • Xiaomi Mi Note 10
  • Xiaomi Mi 8 Transparent Edition
  • Xiaomi Mi 8 Pro
  • Pocophone F1
  • Xiaomi Mi 8 SE
  • Xiaomi Mi 8 Lite
  • Xiaomi Mi Max 3
  • Xiaomi Mi Mix 3
  • Redmi K20
  • Xiaomi Mi 9T
  • Redmi K20 Pro
  • Xiaomi Mi 9T Pro
  • Xiaomi Mi 9 SE
  • Xiaomi CC9
  • Xiaomi Mi 9 Lite
  • Redmi K30
  • Redmi K30 5G

Н в будущем его поддержка может появиться вообще во всех смартфонах, потому как он поддерживается Android 10 и является частью AOSP.

Так вот, LHDC можно сказать прокаченная версия LDAC. Потому что он забирает все плюсы LDAC, а именно, высокий битрейт, вплоть до 900 кбит/с и частоту дискретизации до 96 кГц.

LHDC — 400/560/900 кбит/с

Но при этом добавляет две версии кодека с низкой задержкой, вот с такими названиями:

LHDC с низкой зарежкой = LDHC-LL или LARC

И решает главную проблему LDAC — слабую надёжность соединения.

В общем, LHDC — пока претендент номер один на звание идеального кодека для аудиофилов. Но чтобы в этом наверняка убедиться нужно дополнительное подробное тестирование.  Пока информации в сети о кодеке мало.

Отсюда резонный вопрос, у меня тут наушники от HUAWEI и я рассказываю про кодек от HUAWEI. А есть ли он в этих наушниках?

Эм… нет. Это базовая модель, в которой особое внимание уделили оптимизации.

Но самый интересный и интригующий нюанс, эти наушники поддерживают новую версию Bluetooth 5.2, в которую добавили поддержку нового кодека пришедшего на смену SBC. Кодек называется LC3 и он должен произвести революцию в мире беспроводного аудио такую же, как в свое время произвел формат MP3.

Чтобы вы понимали, при битрейте в два раза ниже чем SBC, новый кодек звучит на слух практически неотличимо от несжатого аудио.

Это действительно большой прорыв. Но, несмотря на то, что LC3 — это неотъемлемая часть Bluetooth 5.2 и всё устройства с новым Bluetooth должны поддерживать новый кодек, пока нет ни одного смартфона с Bluetooth 5.2. И эти наушники тоже пока что не поддерживают ни новый кодек, ни новые фишки Bluetooth 5.2, которые сами по себе — отдельный большой разговор. В будущем, возможно поддержку добавят, но мы точно не знаем.

Поэтому об LC3 и Bluetooth 5.2 мы поговорим в отдельном большом материале.

Итоги

Мы рассказали не обо всех кодеках, а только о самых популярных. Например, мы не упомянули о Samsung Scalable Codec, у которого основная фишка стабильность соединения, и это по сути конкурент aptX Adaptive. Не упомянули про UAT-кодек с бешеным битрейтом 1,2 МБит/с, который работает только через приложение Hiby Music.

Мы поговорили только про самые популярные кодеки иначе разговор был бы бесконечный. Поскольку информации много, для вашего удобства мы составили сравнительную табличку, чтобы вам было проще ориентироваться.

А если вам приглянулись наушники HUAWEI FreeBuds 4i — ныряйте по ссылке. Как обычно там вас ждут подарки и специальные предложения от HUAWEI.

Новый тип объективов в смартфонах — «Жидкая оптика». Разбор

Сегодня мы стараемся разобраться, что за технология такая «жидкая линза» и как она работает? Что это — будущее мобильной фотографии?
Валерий Истишев 7 апреля 2021 в 06:07

Иногда просто поражает на что способны современные инженерные решения. Создается ощущение, что человеку подвластно вообще все, достаточно просто поискать другой подход к проблеме. Только что Xiaomi опять выстрелили с новой технологией в своем новом складном флагмане Mi MIX Fold. И нет, я не про сам складной экран? тут скорее надо сказать спасибо Samsung, а про телезум камеру, а точнее про ее линзу. Возможно вы это пропустили, но там используется жидкая оптика абсолютно нового поколения, которая способна изменять кривизну линзы!

Сегодня мы объясним, как это работает и чего стоит ждать нам в будущем от этой технологии?

Что это — новая революция или очередная бесполезная технология? Ведь потенциально она сможет изменить всю мобильную фотографию…

Фокусное расстояние

Все вы прекрасно знаете, что камере смартфона, да и любой другой камере, нужно фокусироваться. Фокусировка очень важна, иначе любая фотография будет размытой.

Кроме фокусировки на качество получаемой фотографии влияют и такие оптические явления, как сферическая и хроматографическая абберации. И все это надо учитывать и корректировать в фотоаппаратах, а точнее в оптической системе их объективов.

В больших фотоаппаратах этот процесс относительно понятен. Большие размеры объективов позволяют вставить туда множество различных линз, и кроме коррекции изображения они позволяют играть с фокусным расстоянием, тем самым позволяя приближать изображение. Но это все делает объективы большими и тяжелым.

Однако в случае с камерами телефонов все намного сложнее и главным образом это связано с физическими ограничениями в размерах самих телефонов. Тот же телевик в карман не запихнешь, а фотографировать крутые кадры все равно хочется.

Первые телефоны вообще не умели фокусироваться и ситуацию спасала только маленькая диафрагма, что давало большие значения глубины резкости. Это позволяло не думать о фокусе, в том числе и потому что разрешение матриц было очень маленьким. Я говорю о тех самых камерах разрешением на 1,3 и 2 мегапикcеля, которые были в Siemens и Sony Ericsson. Но люди хотели снимать все больше и с хорошим качеством. А спрос, как известно рождает предложение.

С увеличением разрешения матриц, да и вообще качества мобильной фотографии, без фокусировки было уже ни куда. А для фокусировки нужно двигать линзы — все-таки против законов физики не попрешь.

И начиная со знаменитой Nokia N90 появилась возможность фокусировки изображения на матрице.

Понятное дело, что в телефонах, в особенности современных, война идет за каждый миллиметр и тут нет возможности вставлять огромные объективы, как в старые Nokia или как в Samsung К-серии.

Помянем разъем для наушников во флагманах, который и пал жертвой экономии места. Но как тогда фокусировать, если места нет, а двигать надо?

Тут на помощь приходят так называемые Микро-Электромеханические системы, или просто Мемсы.

Мемсы это очень маленькие и сложные механические системы, которые позволяют совершать различные физические движения. Это такие микроскопические машины и они очень много где применяются, в частности — в камерах всех современных телефонов именно для того, чтобы фокусировать изображение на матрице! Кроме того они же и занимаются оптической стабилизацией камеры вашего телефона. Варианты есть разные, и у разных производителей они свои, но принцип используется один и тот же, когда твердые линзы двигаются с использованием мемсов.

“Жидкие” линзы

И тут мы наконец-то переходим к “жидким” линзам, а точнее правильнее будет их назвать линзами с возможностью настройки кривизны.

Изменение кривизны линзы позволяет менять фокусное расстояние. Именно так работает наш глаз, точнее хрусталик глаза, где меняется его кривизна, которая позволяет нам фокусироваться на объектах, которые очень близко, так и смотреть далеко вперед!

Медики давно научились делать искусственные линзы такого типа, достаточно вспомнить операцию по замене хрусталика глаза. Это и дало инженерам идею, что можно сделать что-то подобное, но для искусственных глаз, то есть для наших с вами фотокамер! И они их сделали, даже несколько типов.

Условно их можно разделить на две большие группы — механические и электрические линзы.

Фактически такая линза может полностью менять свою кривизну и становиться из вогнутой — выпуклой.

Понятно что Xiaomi показали нам всего лишь рендер, но придется разбираться на основе тех крох информации, что есть. Мы видим, что есть катушка индуктивности, а сама линза вместе с рамкой совершает вертикальное движение. Это дает нам понимание что искривление линзы будет происходить механически, почти как у нас с вами в глазу!

Большинство механических линз искривляется за счет маленькой камеры, покрытой тонкой гибкой мембраной, которая может быть толщиной в несколько сотен нанометров! А сама Мембрана искривляется именно при изменении давления в камере посредством внешнего движения, оно здесь явно обеспечивается катушкой, которую мы видим в ролике.

Уменьшили объем опустив линзу — она выгнулась, увеличили — вогнулась. Круто!

В принципе есть множество различных вариантов материалов для этих линз, главное чтобы они были прозрачными, гибкими и с разным показателем преломления. Это может быть жидкость или какой-то газ, а также их комбинация. Хороший пример — это конечно же карандаш в стакане с водой или вода налитая в пластиковый пакет.

Так а что насчет второго способа — электрического?

Есть простой эксперимент: берёте расчёску, трёте её о синтетическое или шерстяное полотенце, в теории даже можно о волос. Далее открываете кран с водой, но очень тонкой и слабой струйкой. Так вот, когда вы подносите расчёску острыми кончиками, то из-за заряда статического электричества, который мы получили с помощью трения, струя будет изгибаться.

Это происходит из-за того, что есть накопленный статический заряд, который создает локальное электрическое поле, что и приводит к тому, что вода, притягивается.

Тоже самое произойдет есть взять каплю воды, поместить на поверхность и приложить напряжение.

Получается что из-за приложенного напряжения шарик воды как бы изменяет свою кривизну, а это именно то, что нам и нужно, для того чтобы менять фокусное расстояние!

Этот процесс называется электросмачиванием и был открыт еще в 1875 году французским ученым Габриэлем Липманом.

Но если просто запихнуть каплю воды в камеру вашего смартфона, то скорее всего что-то внутри закоротит. Получается, что каплю надо как-то закрепить внутри вашего девайса. Для этого создается маленький прозрачный контейнер, куда наливается вода и масло одинаковой плотности. Вода и масло необходимы, чтобы линза была стабильной при любом угле использования, ведь мы должны учитывать гравитацию и то, что линза может меняться.

В результате при подаче напряжения происходит искривление линзы, а меняя само напряжение можно его контролировать!

В общем, вы поняли к чему мы клоним. В теории не будет больше никаких четырёх или пяти камер в смартфонах, которые необходимы для макро, зума или ширика. В будущем это все будет просто в одном объективе! Ну или максимум в двух. А это освобождает огромное пространство внутри наших смартфонов, то есть можно увеличивать размер самих матриц, ну или поставить батарейку большей ёмкости. Вернут ли миниджек, раз место свободное появится?!

Самое интересное, что такие линзы — не современная технология, они уже используются в производстве, в профессиональном оборудовании.

Например, сканеры штрих-кодов которые уже довольно давно используют жидкие линзы с электрической подстройкой. Им нужно быстро сфокусироваться на штрих-кодах с разного расстояния. Жидкие линзы упрощают эту задачу, поскольку они могут практически мгновенно это сделать.

Мы с вами уже узнали, что в новых китайских флагманах стоит система с механическим искривлением кривизны, однако заявлена возможность переключаться всего между двумя режимами — трёхкратным оптическим зумом и макро. То есть нет, мы не получили одну единственную камеру вместо всех!

Безусловно это уже впечатляет, правда до тонкой подстройки еще далеко. Да и надежность механизма не очень ясна, так как там много движущихся частей, а сама мембрана очень нежная. Однако компания заявляет, что линза будет работать в температурах от -40 до +60 градусов, что говорит нам о том, что скорее всего там используется не вода, а специальное прозрачное масло.

Другая китайская компания — HUAWEI, кстати, тоже еще в конце 2020 года запатентовала подобную технологию и из картинок мы можем понять, что они тоже реализуют механический подход. Ждем в новом P50!

Вывод

Что ж, давайте подведем итоги. Главный плюс всей технологии — это конечно возможность изменения фокусного расстояния, а в случае электрических линз очень быстрое изменение, всего за миллисекунды, кроме того электрические линзы очень надежны и энергоэффективны. Но естественно есть и ложка дегтя в этой бочке меда — цена и сложности в производстве.

Модули камер скорее всего станут сильно дороже, и не очень понятно, что случится с вашим новым Mi MIX Fold если его его уронить на кафельный пол.

Судя по всему, и сами Xiaomi не очень уверены в собственной технологии, так как поставили такую линзу только на вспомогательный объектив.

В любом случае мы думаем, что это серьезный шаг для индустрии, осталось только подержать ее в руках и понять на что она способна… А дальше, надеемся, что Samsung и Apple уже подтянутся со своими возможностями и мы, возможно, увидим небольшую революцию в мобильной фотографии.

Кроме того надо сказать, что в самой жидкости нет движущихся частей — то есть там нечему ломаться! Такая система надежна и основана на фундаментальных законах физики и сможет служить годами! Ну конечно если ваша линза не треснет, тогда даже банка с рисом не поможет, для просушки.

Ну и напоследок — они энергоэффективны и для перефокусировки требуется небольшое количество энергии, а сама линза умеет сохранять свое состояние!

Почему смартфоны снимают лучше фотоаппаратов? Разбор

Сегодня мы разбираемся, почему смартфоны стали настолько хорошо фотографировать и какие технологии лежат в основе мобильной фотографии…
vedensky 5 апреля 2021 в 09:00

Мы находимся в уникальной точке, когда трудно понять увидев два снимка — какой из них снят на смартфон, а какой на профессиональный фотоаппарат?

Угадайте — где снимок на смартфон, а где на фотоаппарат

Но как так получилось, что смартфоны стали снимать настолько хорошо? Сегодня мы разберем как работает цифровая фотография на глубоком уровне. Соберём ведро света и узнаем в чём суть квантовой эффективности!

Для начала давайте разберемся, как так происходит, что в объектив камеры попадает свет, а на выходе мы получаем красивенький цветастый снимок? И для простоты, сразу начнем с аналогии. Внутри любой цифровой камеры установлена матрица, которая состоит из миллионов пикселей. Так вот пиксели эти, по своей сути, похожи на ведра только собирают они не капельки дождя, а частички света.

Что я имею ввиду?

Главный элемент каждого пикселя — это фотодиод. Это такой кусочек кремния, обладающий чудесным свойством — когда на него попадает фотон света, он высвобождает электрон. Задача камеры собрать все эти электроны и подсчитать их. Но зачем подсчитывать электроны и как вообще это происходит?

Пока мы делаем фотографию — этот процесс называется экспонирование — каждый высвобожденный электрон скапливается в некой ловушке — потенциальной яме. А когда экспонирование закончено мы замеряем сколько электронов скопилось. Так мы понимаем сколько света попало на пиксель и насколько ярким он должен быть.

Если вернуться к аналогии с ведром. Если оно наполнено электронами доверху — значит пиксель будет белый, то есть иметь 100% яркость. А если ведро наполнилось наполовину, то яркость будет 50%. Так, подсчитав сколько электронов высвободил каждый пиксель, мы можем составить изображение.

Но чтобы изображение получилось качественным, нам важны две вещи. Первая — чтобы объем ведра был большим, то есть оно были глубоким. Потому что иначе оно будет быстро переполняться, электроны полезут через край и вместо полезной информации мы получим просто засвеченный пиксель.

Также для нас важно, чтобы в ведро поступало много света. Потому как даже в самых лучших матрицах, ведра собирающие электроны, скажем так, не очень чистые. Там всегда есть довольно солидный осадок паразитных электронов, которые на фотографии проявляются в виде шума. Откуда он берется?

Во-первых, сама матрица по умолчанию немного шумит. Поэтому, даже если никакого света на матрицу не поступает, в наших ведрах всегда будет сколько-то электронов.

Во-вторых, свет может просто переотразиться и прилететь к вам с соседнего пикселя. Это называется перекрестный ток.

Поэтому в случае, когда мы фотографируем днём и наши ведра заполнены светом, мы можем легко отделить сигнал от шума. Просто потому что сигнала намного больше чем шума.

А когда мы фотографируем в темноте и фотонов поступает очень мало, отделить сигнал от шума становится очень сложно.

Исходя из сказанного выше, мы можем сделать достаточно простые выводы. Для того чтобы у нас получились классные фотографии нам нужно:

  • Чтобы у пикселя была большая площадь. Тогда он сможет улавливать больше фотонов света.
  • Чтобы у пикселя была большая емкость. Тогда он сможет удерживать больше электронов и это повысит динамический диапазон, то есть будут детали и в светах, и в тенях.
  • Нам надо много пикселей, чтобы картинка была детализированной.

Как соблюсти все три условия? Ответ простой: нам нужна большая матрица с большими пикселями!

Но в смартфонах большую матрицу разместить невозможно, поэтому даже самые крупные матрицы в смартфонах проигрывают по размерам полнокадровым фотоаппаратом в десятки раз.

  • Galaxy S20 Ultra 108MP 0.8µm. 1/1.33″. ~69.5mm²
  • Pixel 4, iPhone 11 12MP 1.4µm. 1/2.55″. ~23.9mm².
  • Full Frame, 30.1MP 5.36 µm 36×24 mm, 864mm2

Получается безоговорочная победа фотоаппаратов. Но почему же мы не видим в больших фотоаппаратах в десятки раз выше светочувствительность, в десятки раз меньше шума и выше динамический диапазон?

Квантовая эффективность

И вот тут начинается самое интересное. Как и в других сферах жизни, кроме размера есть масса иных важных факторов. И тут я имеею ввиду такую штуку как квантовая эффективность пикселя. Что это такое?

Дело в том, что фотодиоды не идеальны. По хорошему, на один поглощенный фотон должен высвобождаться один электрон. Но такое происходит далеко не всегда. Может быть ситуация, что прилетело 10 фотонов, а высвободилось всего 5 электронов. Это значит, что половину фотонов мы вообще никак не использовали и квантовая эффективность в этом случае равна 50%.

В современных полнокадровых беззеркальных камерах Sony, таких как A7S II, A7S III, A7R IV квантовая эффективность колеблется в районе 55-64%. И эти камеры считаются чемпионами по светочувительности и идеально подходят для съемки при низком освещении, астрофотографии и прочего. Владельцы Sony не дадут соврать — классные камеры. Примерно такая же ситуация с камерами Nikon.

Квантовая эффективность камер Nikon

60 процентов — звучит неплохо, да? Но по меркам смартфонов такая эффективность — это детский лепет.

Еще пару лет назад квантовая эффективность в смартфонах была 90-100%. А в новых сенсорах ISOCELL от Samsung она достигает 120%! Это значит, что на один поглощенный фотон свет высвобождается в среднем больше 1 электрона! WOW! Этот показатель в 2 раза выше чем современных полнокадровых камерах! То есть матрицы в смартфонах в 2 раза более эффективные!

Ёмкость

Но это только половина дела. Вы заметили, что в прошлом году разрешение камер смартфонов резко скакнуло вверх? Со стандартных 12 Мп до 48, 64 и даже 108 МП. При этом размер пикселей сильно уменьшился с 1,4 мкм (Sony IMX 363), которые до сих пор ставят в смартфоны Pixel, до 0.8 мкм (ISOCELL Bright HM1).

По идее уменьшение размера пикселя должно негативно отразиться на светочувствительности и на динамическом диапазоне. Но этого не произошло. Почему?

Дело в том, что несмотря на то что фотодиоды стали уже, они стали существенно выше и больше по своему объёму.

Поэтому, несмотря на уменьшение размера пикселя, емкость потенциальной ямы для каждого пикселя стала больше. Например, в последних сенсорах Samsung, которые стоят в Galaxy S20 и S21 ёмкость потенциальной ямы 6000 электронов.

А в режиме пиксель биннига, то есть объединения пикселей, емкость увеличивается до 12000 электронов. Для сравнения в больших камерах эта емкость колеблется в районе 25-30 тысяч электронов, то есть разница всего в 2 раза, а не в десятки раз.

Подробнее о том как работает пиксель биннинг мы рассказывали в ролике про 108 МП сенсор в Xiaomi Note 10, посмотрите.

При этом также сильно улучшилось соотношение сигнал/шум. Теперь каждый пиксель стал отгорожен стеной и это позволило избавиться от перекрестных помех.

Поэтому, несмотря на то, что пиксели технически становятся меньше, повышается их эффективность и емкость.

Алгоритмы

Но ключевой козырь мобильной фотографии — это конечно умные алгоритмы.

Google со линейкой своих смартфонов показал, что только за счёт совершенствования своего алгоритма HDR+ они могут из года в год уделывать всех конкурентов даже не меняя сенсор, они используют Sony IMX363, уже три года поряд.

Но в чём суть магии алгоритмов?

Алгоритмы типа HDR+ работают по принципу image stacking, то есть очень быстро делается несколько снимков и склеиваются в один.

За счёт этого получается сильно уменьшить количество шума, просто потому что значения шума усредняются, а также добиться потрясающего динамического диапазона. Благодаря этому преимущество в ёмкости потенциальной ямы у больших сенсоров практически полностью нивелируется.

К примеру, делая фотографию на Google Pixel в режиме Super Res Zoom склеиваются 15 снимков. Это позволяет добиться уровня шума эквивалентного матрице формата APS-C, то есть существенно большего размера.

А в режиме ночной съёмки, при склеивании 9-15 снимков с выдержкой ¼ секунды, мы получаем эквивалент 5-секундной выдержки с большого фотоаппарата. Но при этом на телефон мы снимаем с рук и ничего не смазывается. А на фотоаппарат такие снимки можно сделать только со штатива.

И это только малая часть технологий, которые сейчас применяются в смартфонах. Подробнее о вычислительной фотографии мы говорили в других материалах.

Почему в фотоаппаратах такого нет?

Всё понятно. Технологии в смартфонах продвинулись очень далеко. Но что мешает производителям добавить все эти технологии в большие фотоаппараты?

Например, та же Sony делает матрицы и для смартфонов, и для своих камер. Так в чем проблема? И тут есть несколько причин.

Во-первых, рынок смартфонов существенно более конкурентный и динамичный, чем рынок профессиональных камер. Тут сильно больше игроков, а смартфоны меняют гораздо чаще, чем камеры. Тут инновации происходят каждый год. Ну почти… А в больших фотокамерах, дай бог, раз в пять лет что-то новое покажут. И скорее всего, частично это будут те технологии, которые уже обкатали на смартфонах.

На рынке смартфонов всегда одновременно соревнуется несколько сенсоров, которые по-разному, с точки зрения софта, воплощает несколько компаний. Поэтому все инновации сначала подпадают в смартфоны, а уже потом в профессиональные камеры.

А во-вторых, вы не поверите, но к камерам смартфонов существенно более высокие требования. Потому как большие камеры покупают профессионалы, которые знают и привыкли возиться с постобработкой. А типичный юзер смартфона любит, чтобы нажал кнопку — и шедевр! Поэтому камеры смартфонов, со своими маленькими сенсорами и горе-фотографом просто нуждаются в инновациях. А продвинутые фотокамеры нет.

Итоги

Конечно, я не хочу сказать, что телефоны снимают лучше, чем фотоаппараты. Конечно это не так…

Какими бы ни были инновационными и эффективными матрицы в смартфонах, всё равно света на матрицу будет поступать очень мало, потому как в просто невозможно в смартфон установить большой сенсор и светосильный объектив. Поэтому более профессиональные камеры никуда не денуться. Им всегда найдется применение. Как и мобильным камерам, ведь большой фотик в карман не положишь. Камеры смартфонов очень хороши, но фотоаппараты все равно лучше. Особенно для профи. И про это у нас будет отдельное видео. Не пропустите.

Как выбрать SSD диск в 2021 году?

Сегодня мы поможем вам разобраться в SSD-накопителях. Как выбрать, на что обращать внимание, какой разъём выбрать?
Валерий Истишев 3 апреля 2021 в 04:20

SSD-диски давно не роскошь. Мы все знаем и уже привыкли, что без SSD жизни нет. Но теперь, с приходом консолей нового поколения, скорость вашего накопителя станет главным бутылочным горлышком в мире некст-ген графики. Поэтому давайте с вами разберемся какие бывают SSD диски, и как раз и надолго правильно выбрать хороший SSD-диск и не разориться.

Выбрать нужный SSD-диск и не переплатить не так просто как кажется. Они по-разному выглядят, по-разному стоят… SSD-диски бывают разными.

Существует целых пять форм-факторов SSD-дисков. Форм-фактор — это то, как наши диски выглядят физически и через какой разъём они подключаются к материнской плате. Это разъёмы SATA, mSATA, M.2, U.2 и PCI-Express.

А также есть два интерфейса подключения. Это то, как диски логически подключаются непосредственно к процессору, то как данные перемещаются внутри компьютера.

Это старый добрый интерфейс SATA и более свежий интерфейс NVMe, который работает через шину PCI-Express.

Из-за такого многообразия часто возникают проблемs при выборе нужного SSD. Некоторые разъемы выглядят просто похоже, поэтому взглянув на свободный разъем на материнской плате можно банально обознаться.

Либо, несмотря на наличие нужного разъема, материнская плата может просто не поддерживать нужный интерфейс.

Поэтому чтобы у вас таких проблем не возникало давайте для начала подробно разберемся в разъёмах, форм-факторах и интерфейсах.

Разъёмы и форм-факторы

2,5 SATA

Первый форм-фактор это всем нам хорошо известный 2,5-дюймовый диск. Выглядит он точно также как портативные жесткие диски, также подключаются к физическому разъёму SATA и работает через логический интерфейс SATA. Что, опять же, логично.

Сам разъём выглядит вот так. Он небольшой и с Г-образным ключом внутри.

Диски к нему подключаются через специальный плоский кабель, а кто хоть раз собирал комп помнят, что к этому же разъему также подключается DVD-приводы и прочая периферия.

M.2

Второй форм-фактор — M.2. Такие SSD подключается к одноименному разъёму на материнской плате напрямик и фиксируются винтиком. Разъём выглядит вот так.

С M.2 разъёмом всё куда сложнее, поэтому на нём остановимся поподробнее.

M.2 — это куда более современный стандарт, чем SATA. Он даже изначально назывался NGFF, что буквально значит Next Generation Form Factor или по-русски Форм-Фактор Следующего Поколения.

Разъем M.2 может поддерживать как интерфейс SATA, так и NVMe. Поэтому тут надо быть куда внимательней. Поэтому если на вашей старенькой материнской плате есть свободный M.2 разъем, не спешите покупать NVMe диск: для начала убедитесь, что ваша матринская плата в принципе поддерживает NVMe, а уж потом инвестируйте в железо.

Также можно ошибиться с размером диска. И в данном случае я говорю про физический размер. M.2 диски бывают четырех размеров у них всегда одинаковая ширина — 22 мм, но разная длина — 80, 60, 42 или 30 мм. В спецификациях к диску размер так и указывается 2280, 2260 и так далее.

На это нужно обращать внимание, потому как на материнских платах иногда места хватит только на формат 2242 или 30 мм, особенно часто такое бывает в ноутбуках.

Также стоит учитывать, что к M.2 разъёму часто подключают различные модули беспроводной связи: Wi-Fi, Bluetooth, NFC и прочее.

Поэтому, когда собираете новый комп, или делаете апгрейд старого, внимательно изучите, что это это за свободный слот и для чего его задумывал производитель.

SATA и M.2 диски — это два самых распространенных форм-фактора, но есть и другие варианты.

mSATA

Также не стоит путать M.2 с очень похожим на него разъёмом mSATA.

mSATA диски — это несколько устаревший формат, который раньше в основном использовался в ноутбуках для подключения SSD и всяких Wi-Fi адаптеров через интерфейс SATA.

Диски mSATA на вид очень похожи с М.2, но их легко отличить по креплению на два болтика, вместо одного у M.2 дисков.

U.2

Еще один редкий разъём — U.2. К нему подключается особый тип 2,5 дюймовых дисков также с разъёмом U.2 и всё это работает через интерфейс PCIe.

Основная фишка U.2 дисков — они поддерживают горячую замену, а поэтому используются в основном в серверном или ином профессиональном оборудовании и стоят бешеных денег.

PCI-Express

И, наконец, на материнской плате есть главный, королевский разъём — PCI-Express. Тот самый разъём куда вы подключаете видеокарты, карты захвата и прочие ништяки.

Так вот туда же можно подрубить эффектный PCI-Express NVMe диск, либо обычный M.2 диск через переходник. Вот такой вам лайфхак, на заметку.

Интерфейсы

Теперь давайте разберёмся в интерфейсах: SATA и NVMe. В чём отличия и кто круче?

Тут всё в принципе, просто. Интерфейс SATA — устаревший. Он содержит в себе кучу интерфейсных прослоек, которые увеличивают задержки и замедляют подключение. Вместо того, чтобы напрямую проехать по шоссе, ваши данные вынуждены ехать по узкой объездной дороге с кучей блокпостов. Поэтому даже самая последняя версия интерфейса — SATA III обеспечивает пропускную способность до 600 МБ/с.

Такой скорости более чем достаточно для HDD дисков, которые выдают максимум 150-200 МБ/с, но SSD-диски могут работать куда быстрее.

Именно поэтому, специально для раскрытия потенциалов SSD-дисков был придуман интерфейс нового поколения NVMe. Он работает через высокоскоростную шину PCIe и содержит минимум прослоек.

Считайте, что PCI-express это как раз то самое высокоскоростное шоссе от вашего SSD до процессора. Но точно также как и в жизни скорость передвижения по шоссе зависит от количества выделенных полос, то есть физического количества проводов которые подключены к разъему. Эти полосы называются линиями.

В случае с SSD-дисками линий бывает либо 2, либо 4.

2 линии PCIe 3.0, дают нам пропускную способность почти 2 Гбайта/с (1,97 если точнее). Это намного больше 600 МБ/с SATA III. Но для современных NVMe SSD такой скорости будет недостаточно. Поэтому чаще всего использует четырехполосный PCIe 3.0. В этом случае пропускная способность удваивается до 3,94 ГБ/с, что совсем не плохо. Но существует стандарт нового поколения 4 линии PCIe 4.0, которые обеспечивают скорость в 2 раза выше — до 7,88 Гбайт/с. Пока, что PCIe 4.0 поддерживает только консоли нового поколения. А также процессоры AMD с архитектурой Zen 2 и выше. Но вскоре Intel тоже включится в игру с настольными процессорами 11-го поколения Rocket Lake-S.

  • SATA II — до 300 Мбайт/с
  • SATA III — до 600 Мбайт/с
  • PCIe 3.0 x2 — до 1,97 Гбайт/с
  • PCIe 3.0 x4 — до 3,94 Гбайт/с
  • PCIe 4.0 x4 — до 7,88 Гбайт/с

Итоги по интерфейсам

Понимаем, что информации много, оэтому давайте выдохнем и подведем некий промежуточный итог.

  • Форм-факторов всего пять — 2,5” SATA, mSATA. 2,5” U.2, M.2, PCIe.
  • Интерфейсов всего два — SATA и NVMe.
  • NVMe — быстрый, SATA — медленный.

Диски формата 2,5” SATA и mSATA поддерживают только SATA-интерфейс, что логично.

Диски U.2 и PCIe карты, это всегда NVMe диски и работают через шину PCIe.

А вот диски формата M.2 бывают поддерживают как SATA, так и NVMe. И тут надо внимательно изучать спецификации материнской платы и самого диска.

Что и для чего покупать?

Теперь, что и для чего покупать? SATA-диски в 2021 году можно официально признать устаревшими. На практике такие диски способны выдавать 560 МБ/с на чтение/запись, что в пять раз медленнее, чем NVMe диски, при этом по цене большой разницы не будет.

Разве что SATA диск можно использовать в качестве системного диска, но хранить там только Windows, а программы и игры ставить на отдельный NVMe диск. Windows не особо пользуется преимуществами высокой скорости, а вот различный софт и игры умеют. Особенно стоит переживать за игры.

С выходом консолей нового поколения, требования к скорости SSD во всех новых релизах будут только расти. Поэтому лучше прямо сейчас брать быстрый диск на будущее.

Как не переплатить?

Но как выбрать хороший NVMe диск и не переплатить?

Для этого при выборе нужно будет обратить внимание на несколько вещей:

  1. Тип ячеек памяти
  2. Ресурс
  3. Производитель
  4. Позиционирование

Пойдём по порядку.

Ячейки памяти

Мы не раз рассказывали, что практически все современные потребительские SSD используют NAND-память. Если интересно поглубже копнуть как это устроено почитайте наш разбор про память в телефонах.

Данные в NAND памяти хранятся в ячейках, которые могут быть 4 типов:

  1. SLC — ячейка хранит один бит информации,
  2. MLC — ячейка хранит два бита информации,
  3. TLC — ячейка хранит три бита информации,
  4. QLC — ячейка хранит четыре бита информации.

Чем больше бит может хранить одна ячейка, тем более ёмким и дешевым получается накопитель. Но пропорционально емкости падает долговечность и скорость.

SLC дисков с одним зарядом на ячейку — сейчас в потребительском сегменте не бывает — слишком уж дорогая память.

MLC — где два бита — встречается в дорогих профессиональных линейках.

TLC память, с тремя зарядами на ячейку — это король потребительского сегмента. Такая память сочетает в себе оптимальную скорость, долговечность и стоимость.

QLC — самая дешевая память, но скорость и надежность работы вызывают вопросы.

Поэтому, если вам нужен SSD диск всерьёз и надолго, лучше брать TLC память.

Ресурс

Но как надолго хватит диска? Как известно, SSD-диски не вечны.

Каждый раз когда ячейка памяти перезаписывается, это немного её изнашивает, поэтому после определенного количества перезаписей, ячейка обязательно выйдет из строя. Поэтому в характеристиках производитель как правило указывают ресурс диска, который измеряется в суммарном числе перезаписываемых терабайтов или TWB — Terabytes written.

Например, для диска Western Digital WD Blue SN550 объёмом 500 ГБ, TWB составляет 300 ТБ. То есть, чтобы исчерпать ресурс в 300 ТБ, нам потребуется каждый день заливать на диск по 164 ГБ в течение 5 лет. Согласитесь, мало кто использует SSD так интенсивно. Соответственно для такого же диска емкостью 1 ТБ ресурс в два раза больше — 600 TWB.

Также на долговечность, скорость и стабильность работы очень влияет нагрев диска. Поэтому перед покупкой, обязательно почитайте комментарии и посмотрите обзоры. К примеру, диск WD Blue SN550 люди как раз выбирают из-за низкого нагрева.

Производитель

Еще не стоит покупать SSD диск от малоизвестного производителя. Почему это важно?

Многие не имеют своих технологий и производства, и просто собирают SSD из комплектующих разных поставщиков. Как правило, в этом случае используется самые дешевые компоненты, есть проблемы с контролем качества и прочее. Поэтому лучше обратиться к именитым брендам, которые имеют полный вертикальный стек разработки. То есть все компоненты будущего SSD — их собственное производство. Таких компаний не много, к примеру, это Western Digital.

Мы хорошо помним этот бренд по HDD дискам, которые они, по-прежнему, делают. Но после покупки компании SanDisk они стали одним из лидеров в производстве SSD.

Позиционирование

Ну и напоследок, при выборе диска очень помогает, если вы ориентируетесь в линейках от производителя. Это сэкономит вам время при выборе нужной модели. К примеру, у Western Digital для потребителей есть три линейки:

  • WD Green — самый экономичные диски . Тут вы найдете недорогие SATA SSD
  • WD Blue — оптимальной цена/качество. Тут уже есть отличные NAMe диски для работы и игр.
  • WD Black — топовая линейка бескомпромиссного гейминга и обработки 8К видосов. Тут вам и поддержка PCI-Express 4.0 и вот такие скорости:

Итоги

Надеемся, что сегодня мы просто и понятно рассказали об SSD-дисках и том, как его выбрать в 2021 году. Как найти тот самый накопитель, который отличный и по цене, и по качеству?