Компьютерное железо в космосе. Разбор

Сегодня мы расскажем вам о том, какие технологии используются в космосе и какие процессоры ставят в космические корабли…
Валерий Истишев 12 сентября 2021 в 10:08

В апреле этого года на Марс высадился ровер Perseverance. Он стоил NASA 2,2 миллиарда долларов и на сегодняшний день это самый современный и продвинутый робот за пределами Земли. Однако, для многих может стать реальным сюрпризом, что работает такая дорогая и продвинутая штука на процессоре с частотой всего 200 МГц. И фактически это модифицированная версия PowerPC 750, который стоял в разноцветных iMac G3 — не последних тоненьких, а тех, что еще из конца 90-х годов с электронно-лучевой трубкой. Многие из вас может еще не родились, когда их выпустили. Также на бортовом компьютере марсохода всего 256 МБ оперативной памяти и всего 2 ГБ флеш-памяти.

Подобным же образом обстоят дела и с другими космическими миссиями. Совершенно обычная ситуация, когда в часах у вас на руке железо стоит более продвинутое и мощное, чем в научных инструментах в миллионах километров от Земли за миллиарды долларов. Даже если это часы на Android Wear…

Так что сегодня будем разбираться в том, какие процессоры и прочие железки устанавливают в космических аппаратах, почему там не используют самые современные AMD Ryzen, Intel Xeon и Apple Silicon, и что бывает, если к подбору компонентов относиться без должного уважения.

Это наш совместный сюжет с автором подкаста “Теория Большой Бороды” и канала “Давайте Разбираться” — Антоном Поздняковым.

Время разработки

Действительно, космические технологии, которые вроде как должны быть на пике всего, что существует в мире. Зачастую они могут использовать процессоры, которые в консьюмерском мире могут считаться устаревшими на пару десятков лет. Но, естественно, это делается не просто так и на то есть серьезные причины.

Во-первых, в космических делах довольно много зависит от планирования. Космическая индустрия крайне инертная и неторопливая. От проекта до запуска может легко пройти несколько десятков лет. То есть какой-нибудь зонд, который будет запущен в этом десятилетии мог начать разрабатываться, когда условного iPhone еще даже в проекте не было. А некоторые миссии могут потом еще и лететь до своей цели довольно долго.

Например, зонд Новые Горизонты, который прислал нам замечательные фотографии Плутона, был запущен в 2006 году, а долетел аж через девять лет, в 2015 году. В его бортовом компьютере, кстати, был установлен процессор на невероятных 12 МГц, который являлся модифицированной версией 32-битного R300, версия которого стояла еще в самой самой первой PlayStation.

Тот же марсоход Perseverance, который мы приводили в пример, тоже начали разрабатывать очень давно. Вообще у него очень много общего с Curiosity полетевшего к Марсу еще в 2012, а работа над его хардверной и софтверной частью вообще завершилась в далеком 2008 году. И, получается, что начиналось то планирование этих миссий не так уж далеко от момента, как были представлены те самые iMac G3 на PowerPC 750.

Отчасти именно поэтому в космических миссиях летает такое старое железо, ведь оно должно закладываться на ранних стадиях планирования. Вокруг бортовых компьютеров наращиваются дополнительные системы, научные приборы, пишется специфический софт, прорабатываются средства связи с Землей и так далее. А перед запуском нельзя просто взять и поменять процессор на другой побыстрее. Тут слишком много рисков. Вот и получается, что зачастую летит та железка, которую запланировали в ходе проекта за несколько десятков лет до непосредственной работы.

Температурный режим

Но долгое планирование далеко не единственная причина не самого мощного железа. Не стоит забывать, что космос это очень суровое место, где все должно выживать в очень жестких условиях.

Например, космический компьютер должен выдерживать очень большие перепады температуры. Многие наверняка слышали, что в космосе всегда абсолютный ноль, но это не совсем так. Температура это ведь мера среднего движения частиц. А так как частиц в космосе очень мало, то и определение температуры как бы теряет смысл.

Вообще, как в открытом космосе, так и, например, на Луне, проблема перегрева стоит гораздо острее, чем проблема переохлаждения. Инструменты сами греются, а еще на них может светить Солнце.

Но основная причина в том, что там нет воздуха — почему это важно — сейчас объясним! В привычных нам условиях остывание происходит за счет конвекции. Тепло передается воздуху, он нагревается, улетает, на его место приходит холодный и так далее. В космосе такой роскоши нет.

Единственный способ там остывать — с помощью инфракрасного излучения, что не так и эффективно. Например, если внимательно посмотреть на МКС, то можно увидеть вовсе не солнечные батареи, а как раз радиаторы для отвода тепла. Без них станция просто перегреется, несмотря на то, что вокруг нее вроде как почти космос с абсолютным нулем.

И даже на Марсе, где есть разреженная атмосфера, тоже очень жесткие перепады температуры от ночи ко дню — с суточным разбросом больше сотни градусов Цельсия.

Поэтому, собственно, и чипы, которые устанавливаются в космические аппараты, да и всё остальное оборудование, должны выдерживать как очень низкие, так и очень высокие температуры.

Для процессора на Perseverance это окно составляет от -55 до 125 градусов Цельсия.

Коммерческие процессоры довольно быстро загнулись бы в таких условиях. Так что тут во главе угла надежность, ведь никто не хотел бы потерять миссию, над которой работали 15 лет и вложили в нее 2 миллиарда, просто потому что отказал недостаточно надежный процессор.

Радиация и техпроцесс

Все так, но температурный режим — далеко не самая большая опасность, которую космос несет для чипов. Куда неприятнее радиация, которой в космосе довольно много. Она прилетает как от галактического фона, так и от Солнца. Это высокоэнергетические космические лучи, которые прошивают все на своем пути, и не только разбивают живые клетки и ломают молекулы ДНК, но и приборы тоже совершенно не щадят.

На Земле от нее нас защищает магнитное поле и атмосфера. Собственно, поэтому, например, на МКС, которая летает на высоте около 400 километров, люди могут довольно спокойно оставаться порядка года, а также там используют вполне себе современные железки вроде ноутбуков, фотоаппаратов и так далее.

Но за пределами магнитного поля всё сложнее. Космические лучи, пролетая через чип, могут вызывать кучу неприятностей, которые могут быть как обратимы, так и необратимы.

Они могут менять состояние ячеек памяти или регистра, внося неразбериху в данные, а также навсегда выводить их из строя, что может сказаться на работоспособности всего чипа, а следовательно и представлять угрозу для вообще всей миссии.

Ионизирующая радиация может создавать электромагнитный шум или внезапные электрические импульсы, что может защелкивать транзисторы в неправильном положении или даже повреждать дорожки проводников.

Поэтому, кстати, процессоры сделанные по очень маленькому техпроцессу могут не подходить для космоса в принципе, ведь при достаточно близком расположении, их гораздо легче замкнуть между собой пролетающим космическим лучом.

Вообще для использования в космосе процессоры проходят очень серьезную подготовку для противостояния радиации. Например, на подложку вводят специальный слой из оксида кремния или сапфира для изоляции. Используют специальные транзисторы с более высоким током переключения. Вместо DRAM на конденсаторах используют более защищенную, но и более дорогую SRAM. Сами камни процессоров делаются более большими и покрываются специальной изоляцией на основе бора.

Кроме физических защит также используют и разные программные трюки вроде системы коррекции ошибок, независимых дублирующих элементов, хранения одних и тех же битов в нескольких физических копиях и так далее.

Тот самый чип RAD750 на компьютерах марсоходов Perseverance и Curiosity — а на каждом ровере их, к слову, по две штуки дублирующих друг друга — хоть и сделан на основании PowerPC 750, но фактически он полностью переизобретен в плане защиты. Кроме температурных режимов он может выдержать 1 миллион Рад, что на 6 порядков больше типичных консьюмерских процессоров.

Кристал защищенной версии почти вдвое больше, чем у оригинального камня, а в производстве использовались техпроцессы в 150 и 250 нанометров. И вся эта процедура совсем недешевая. Один такой процессор от BAE Systems стоил почти четверть миллиона долларов — такие процессоры стоили безумных денег еще пока это не стало мейнстримом с текущим дефицитом полупроводников.

Но такая стоимость тоже не берется с потолка и если пренебречь безопасностью, то все может пойти очень сильно не так в прямом смысле этого слова. И такие примеры тоже были.

Фобос-Грунт

Вот, например, в 2011 году Роскосмос запустил миссию Фобос-Грунт, которая, как нетрудно догадаться, должна была тоже лететь в сторону Марса и предметно исследовать один из его двух спутников. Однако, до своей цели станция так и не долетела, не покинув даже орбиту Земли.

Так что вместо Фобоса, Фобос-Грунт полетел, так сказать, исследовать наш земной океан, где он был затоплен и остается там до сих пор.

Причиной отказа аппарата признали SRAM чип с вот таким не слишком запоминающимся названием — WS512K32V20G24M. Его как раз и пробил космический луч, после чего процессор ушел в безопасный режим и вся миссия закончилась толком не начавшись. А все дело в том, что этот чип был сделан и протестирован не для космоса, а для самолетов. Пусть военных, но все же самолетов.

По информации военной газеты «Красная Звезда» в сборке Фобос-Грунта было использовано 95 тысяч различных чипов, и аж 62% из них не были должным образом сертифицированы для использования в космосе. На самом деле довольно мутная история, но официальная версия именно такая.

Так что погоня за большей производительностью и более дешевыми чипами, как видите, может привести вообще к нулевому результату и потери всей миссии.

Curiosity

Но даже если у тебя все сделано по жестким стандартам, проблемы все равно могут быть. Так, например, ровер Curiosity, младший брат Perseverance тоже их не избежал.

Дело в том, что материнские платы компьютеров Curiosity защищены по менее жесткому стандарту, чем сам процессор, что и становилось причиной неполадок. Хорошо, что на каждом марсоходе установлено по два компьютера — А и Б.

Дублирующий нужен на случай, если что-то пойдет не так. И, собственно, на 200-е марсианские сутки миссии компьютер А ушел в бутлуп из-за поврежденного сектора памяти. После этого команда управляющая Curiosity перевала ровер на дублирующий компьютер Б.

Однако в октябре 2018 года похожие проблемы настигли и второй компьютер, после чего команде пришлось возвращаться обратно на вариант А, где были изолированы поврежденные участки памяти, то есть и производительность была немного снижена.

А в 2019 году ровер снова переключился на дублирующий компьютер после очередного сбоя в работе. Так что, к сожалению, причиной будущего окончания миссии может оказаться вовсе не отказ колес или истощение источника электричества, которым там выступает плутониевый РИТЭГ, а именно сбой в управляющих компьютерах.

Ingenuity

Но с защитой процессоров бывают и исключения из правил и одно из них произошло как раз в миссии марсохода Perseverance.

Дело в том, что в этот раз ровер полетел не один, а с небольшим пассажиром — вертолетиком Ingenuity. Это такой proof-of-concept, главной задачей которого было показать возможность полетов в условиях крайне разреженной атмосферы Марса, что он уже с успехом сделал.

Давление на Марсе очень низкое, а поэтому крутить своими двумя пропеллерами ему нужно очень быстро — 24000 оборотов в минуту, при этом всему аппарату нужно быть очень легким — на всё про всё всего 1,8 килограм. И хотя 38% земной гравитации немного упрощают задачу, это все равно был серьезный технологический вызов для разработчиков.

Но так как вертолетик в состав миссии марсохода добавили относительно поздно, а его работа не была критичной для остальных научных задач, то делали его по космическим меркам быстро и дешево.

Поэтому, как ни парадоксально, на нем стоит очень мощный по космическим меркам процессор. Фактически, это всем нам знакомый Qualcomm Snapdragon 801 — тот самый, который был установлен, например, в самом первом OnePlus One. Так что в каком-то смысле у компании Qualcomm есть монополия планетарного масштаба на ARM-чипы.

Правда, вероятно, именно он и станет причиной, по которой однажды вертолетик больше не взлетит. Но, тем не менее, на сегодня он уже совершил десяток полетов и пока что не планирует останавливаться.

Будущее чипов в космосе

Но конечно же, в космических железках прогресс тоже не стоит на месте, пусть и отстает от потребительских гаджетов. Для космоса тоже разрабатывают обновленные модели, причем разные агентства подходят к этому вопросу по-разному. Например, ESA, Европейское Космическое Агентство, придерживается опенсорсной архитектуры SPARK и линейки процессоров LEON. Тот же чип GR740 построен уже по 65-нанометровому техпроцессу и в ходе испытаний выдержал бомбардировку тяжелыми ионами примерно в 300 раз больше, чем тот самый проблемный чип на Фобос-Грунте. А еще для работы ему нужно всего 1,5 Ватта, что зачастую очень важно для космических миссий, у которых очень ограничен энергетический бюджет. На сегодняшний день это вообще лучший результат по производительности на Ватт среди всех космических железок.

В NASA же работают с проприетарными технологиями, в частности линейкой HPSC. Они уже основаны на ARMовских ядрах Cortex A53. Исходя из того, что земные чипы на такой архитектуре могут работать на частотах до 1,8 ГГц, предполагается, что после защиты от радиации этот показатель может упасть всего до 500 МГц, что довольно много по космическим меркам. Довести до ума HPSC-процессоры NASA обещает к 2023-2024 году, как раз когда должна стартовать пилотируемая часть программы Артемида по возвращению людей на Луну. Но это уже тема для отдельного ролика. Обязательно напишите в комментариях, если хотите, чтобы мы осветили эту тему.

Технологии процессоров AMD. Разбор

Сегодня мы расскажем вам о том, почему процессоры AMD оказались настолько круты и порвали Intel.
vedensky 4 сентября 2021 в 08:10

Мы привыкли думать, что это всё шикарная архитектура Zen, в которой всё так грамотно продумано и оптимизировано. И, отчасти, это действительно так.

Но еще у AMD в запасе есть ряд технологий, благодаря которым их процессоры могут делать, казалось бы невозможное повышать производительность при уменьшении нагрева и потребления энергии.

Поэтому сегодня мы вам расскажем про технологии процессоров AMD, про которые вы вряд ли слышали. И заодно протестируем их на практике на ноутбуке Acer Nitro 5 с процессором Ryzen, который мы разыгрывать… не будем. Мы тут про технологии говорим вообще-то, а не вот это всё.

Существует проблема! Мы думаем, что процессор – это универсальная штука, мерило производительности ноутбука. Вставил и работает. Но люди пока еще не научились создавать точные копии чего-либо с точностью до атома. Поэтому все сошедшие с конвейера процессоры немного отличаются. Какие-то экземпляры работают получше, меньше греются, стабильнее работают на высоких частотах и т.д. А какие-то, наоборот — хуже.

Более того, одни и те же процессоры работают в разных системах. Где-то хорошее охлаждение, где-то похуже. Одни материнские платы обеспечивают более высокое качество питания, в других, могут возникать перебои с напряжением и пульсациями. Поэтому сложно обеспечить одинаково высокую производительность для каждого конкретного экземпляра процессора в каждой конкретной системе.

Стандартный выход из этой ситуации такой. Производитель процессоров перестраховывается: задает для процессоров безопасные рабочие диапазоны для всех процессоров, которые не позволяют раскрыть весь потенциал железа, зато обеспечивают стабильную работу и одинаковую производительность для всех.

Ну а кто хочет большего — существуют оверклокинг. Пожалуйста, если любишь риск и не нужна гарантия, разгоняй процессор до предела. Но существует и другой подход.

И его смогли реализовать ребята из AMD. Они создали систему, которая позволяет добиться практически максимальной производительности для любого процессора Ryzen в любой конфигурации. И эту систему в AMD назвали SenseMI. Что это такое?

SenseMI

SenseMI объединяет внутри себя несколько умных систем.

Во-первых, это набор датчиков, которые каждую миллисекунду собирают данные о состоянии процессора, различных компонентов на материнской плате, скорости вращения вентилятора и прочее. Вся информация затем передается через шину Infinity Fabric для анализа.

На основе полученных данных SenseMI не только изменяет текущие условия работы, например, снижает тактовые частоты из-за перегрева, но и прогнозирует дальнейшие условия работы. И конечно же, здесь используется машинное обучение.

Давайте разберемся, как это работает?

Precision Boost

SenseMI состоит из нескольких компонентов. Во-первых, это технология авторазгона процессора Precision Boost. Что она делает?

Используя те самые датчики, эта штука отслеживает несколько параметров: температуру процессора и VRM (Voltage Regulator Module) подсистемы материнской платы, сколько энергии потребляет процессор, и на какой частоте он работает, насколько сильно шумит вентилятор.

И если всё в норме, ни один из параметров не превышает предельно допустимый. Precision Boost ехидно потирает ручки и начинает повышать тактовые частоты процессора с шагом 25 МГц. А когда начинает пахнуть жаренным, останавливается.

Иными словами, это похоже аналогичную технологию от Intel Turbo Boost, но она работает с шагом 100 МГц, что куда менее эффективно.

Плюс с появлением процессоров Ryzen второго поколения Precision Boost тоже обновилась до второй версии и теперь умеет регулировать частоту каждого ядра по отдельности. А раньше регулировались одно, две или сразу все ядра.

Обновленный подход, позволит AMD, получить прирост тактовых частот на практике до 500 МГц по сравнению с первой версией технологии.

В ноутбуке Acer Nitro 5 используется процессор Ryzen 4000 серии, значит тут есть как раз вторая версия Precision Boost. И на практике видно, что ноутбук способен долго держать высокие частоты.

Extended Frequency Range

Но и это не всё. У технологии авторазгона от AMD есть приятный бонус, под названием Extended Frequency Range или XFR.

А что если, система SenseMI видит, что вы вашем ноутбуке или ПК используется эффективная система охлаждения, а материнская плата способна выдавать больше энергии. Система позволят задействовать потенциал мощного охлаждения и выйти за пределы максимально допустимой тактовой частоты. Ну а почему нет?

Сейчас актуальная технология XFR 2 и она также как и в случае Precision Boost 2 умеет работать со всеми ядрами по отдельности.

Да, там не будет какого-то невероятного прироста, стоит ожидать +50-100 Мгц. Но всё работает автоматически, а это приятный бонус.

В ноутбуках такая технология уже есть и называется mXFR. Поэтому мы попробовали поймать на превышении МГц наш Acer. Тут установлен AMD Ryzen 5 4600H с максимальной частотой 4.0 ГГц…

Precision Boost Overdrive и Curve Optimizer

Ну и раз уж мы заговорили про выход за пределы максимальных значений в процессорах Ryzen есть две опции, которые позволяют вам существенно прокачать производительность процессора. Но сразу предупреждаю, их активация, автоматически лишает вас гарантии. Они активируются в BIOS, поэтому будьте аккуратны.

Первая технология простая как два рубля — Precision Boost Overdrive. Она позволяет вам повысить максимальную частоту процессора на пару сотен МГц, значение зависит от конкретной модели. То есть это самый настоящий перманентный оверклокинг, который вы можете сделать стандартными средствами. На свой страх и риск, естественно.

А вот вторая технология — это просто пушка, и очень жаль, что она тоже лишает вас гарантии.

Называется технология Curve Optimizer и это самый настоящий динамический андервольтинг.

Те кто хоть раз дела андервольтинг на ноутбуке или ПК знает, что андервольтинг — это лучший софтверный способ борьбы с троттлингом.

В чем суть? На самом деле мы можем повысить производительность процессора одновременно снизив и количество потребляемой энергии и нагрев.

Всё что нужно сделать — это уменьшить количество вольт, которые мы подаем на процессор.

То есть если нарисовать график, на одной оси которой будут вольты, а на другой тактовая частота. Андерволтинг будет выглядеть как сдвиг графика немного вниз. Теперь при том же количестве потребляемой энергии, мы можем достигнуть большей частоты.

Но вот тут есть проблема, если мы сильно снизим напряжение, то на низких частотах еще будет работать, а вот на высоких ему просто не хватит энергии, и у вас всё зависнет. Поэтому приходится андерволтить совсем чуть-чуть.

Curve Optimizer — решает эту проблему применяя динамический андервольтинг, сильнее уменьшая напряжение на низких частотах, и меньше на высоких. Позволяя по максимуму сэкономить энергии на всех частотах. Причем Curve Optimizer позволяет сделать тонкую настройку для каждого ядра. И это очень круто!

И если оверклокинг, в первую очередь, позволяет увеличить однопоточную производительность более высокой тактовой частоты. За счет того, что что все ядра потребляют меньше энергии, меньше нагреваются, соответственно меньше троттлят и в середнем работают на более высокой частоте.

Ну а для ноутбуков с плохой системой охлаждения, андервольтинг часто — это единственное спасение.

Слава богу в случае нашего сегодняшнего Acer Nitro 5 проблем с охлаждением нет.

В играх температура процессора и видеокарты не поднимается выше 60 °C, что говорит о существенном запасе. А в стресс тестах, процессор нагревается до 85 °C, а видеокарта — до 71 °C. Что тоже не много, с учетом того, что стресс тесты — это нереалистичный сценарий. Правда вот уровень шума под нагрузкой, в этом ноте достаточно высокий. Это стоит учитывать.

Pure Power

Окей, в SenseMI — есть и другой, более официальный способ сэкономить энергию помимо андервольтинг.

У Precision Boost и XFR есть технология антагонист — Pure Power. Эта штука наоборот динамически снижает частоту и энергопотребление процессора в моменты, когда он простаивает или когда его загруженность является не полной.

В итоге мы получаем с одной стороны очень мощные, отзывчивые, но при этом энергоэффективные процессоры. Хотя немалую роль тут играет и техпроцесс 7 нм, который используется в 4000-й и 5000-й серии процессоров.

К примеру, в Acer Nitro 5 установлен довольно стандартный аккумулятор 57 Вт⋅ч. Но с этим аккумулятором ноутбук может прожить более 13 часов в режиме простоя с включенным дисплеем. И более 8 часов с рабочим Wi-Fi. Это очень хороший результат.

Neural Net Prediction и Smart Prefetch

Ну и, наконец, система SenseMI не была бы по-настоящему умной, если бы не технологии предсказания. Тут их целых две.

Это технология предсказания ветвлений Neural Net Prediction, занимается предсказанием того, какие инструкции будут необходимы программе на следующем шаге.

И «умная» система кеширования Smart Prefetch предугадывает какие данные вам понадобятся и заранее кэширует.

Обе технологии также являются частью архитектуры Zen многом именно процессоры Ryzen обязаны своей производительностью и отзывчивостью этим технологиям. И этот ноутбук на процессоре Ryzen не исключение. Ну а выгодно приобрести Acer Nitro 5 вы можете в магазине DNS.

Выводы

Сегодня мы обсудили только технологии AMD для процессоров. А есть еще видеокарты и гибридных процессоров, которые используется консолях, в которых тоже есть классные технологии очень сильно повлиявшие на индустрию. Поэтому если вам интересны такие ролики, дайте нам знать, лайком комментарием подпиской.

Почему реальный размер памяти меньше заявленной? Разбор

Сегодня мы расскажем о тома, как нас обманывают файлы и компании пользуясь двоичной и десятичной системами исчисления. Куда теряется место на диске?
vedensky 31 августа 2021 в 10:16

Почему на диске памяти меньше, чем  написано на упаковке? Вы наверняка хоть раз задавались таким вопросом.

Вот покупаешь смартфон, где на коробке написано: встроенная память 128 ГБ. Включаешь, заходишь в настройки. А там свободной памяти только 115 ГБ. Как так?

Наверняка, вы также отвечали сами себе что-то вроде: ну да, но там же какое-то место занимает прошивка, все дела. Безусловно…

Но как насчет флешки или жесткого диска, где вместо 1 терабайта всего 930 гигов? У флешки тоже прошивка/система на десяток гигабайт? Это вряд ли.

Поэтому сегодня объясним, почему так происходит, как это устроено. И главное, вы азнаете, что такое МЕБИБИТЫ чем отличаются от мегабайтов?? И почему файлы воруют место?

Оказывается, у этой проблемы есть три причины.

1. Разные системы исчисления

Первая — математическая. Дело в системах исчисления. В бытовой жизни мы обычно используем десятичную систему исчисления, в которой 10 цифр: от 0 до 9. Скорее всего для нас она самая интуитивная из-за 10 пальцев на руках. Логично. Получается, если бы вдруг эволюция решила оставить нам по 6 пальцев, то двенадцатиричная система была бы для нас такой же естественной. Наверное…

В компьютерной технике используется двоичная система исчисления с двумя цифрами: 0 и 1. Это удобно, потому что в компьютерах используются логические операции, принимающие два значения: истина и ложь.

Как вы думаете, какая из двух систем используется для обозначения объемов памяти в устройствах? Оказывается, обе. И в этом вся проблема.

Оказывается, мы смотрим на флешку и имеем дело сразу с двумя гигабайтами: десятичным и двоичным. Сейчас объясню.

В международной системе единиц СИ есть общеприянтые префиксы: например кило или мега. 1 Мегаватт — это ровно миллион ватт. 1 килограмм — ровно тысяча граммов.

И отсюда получается, что 1 килобайт — это ровно тысяча байт. Ну или 10 в третьей степени байт. Вроде логично. Но в чем подвох?

Подвох в том, что в реальности электроника и память состоит из двоичных элементов. Потому что она заточена под двоичные вычисления и ей так удобнее. Помните? Собственно минимальная единица информации 1 бит — это по сути одна цифра в двоичном коде, то есть значение 0 или 1. Дальше 8 бит образуют 1 байт. Потому что 8 — это степень двойки, 2 в третьей степени.

А чтобы хранить больше информации, нам надо подобрать степень двойки, которая похожа на 1000. И есть такая — это 2 в десятой степени или 1024 байта. Вы часто сталкивались с этой цифрой, например в разрешении экранов, потому что компьютерам с ними удобно.

И реальные ячейки памяти состоят именно из такого количества байт — 1024.

А дальше возникает проблема. Дело в том, что согласно международным стандартам на упаковке принято указывать размер в десятичных единицах. Но казалось бы подумаешь: вместо 1024 байт мы получаем 1000. Не так страшно — это всего 2.5 процента. Но есть проблемка. Это мы говорили всего про килобайт. А с ростом масштаба накапливается и проблема.

Потому что 1024 * 1024 это уже миллион 48 тысяч с фигом, то есть почти 5 процентов разницы. Это только для мегабайта. Но кто же покупает флешку на мегабайт?

Умножаем еще раз.

1024 * 1024 * 1024 = 1 0 73 — миллиард 73 миллиона с фигом. То есть 7 процентов потерь для гигабайта.

И еще раз: 1024 * 1024 * 1024 * 1024 = 1 099 триллион и 99 миллиардов. Почти 10 процентоов потерь будет на вашем жестком диске в терабайт.

И путаница возникает. А операционные системы любят использовать двоичную систему.

Главным образом, это касается Windows, которая до сих пор в «Проводнике» пишет размер файлов в двоичных мегабайтах.

Apple перешла на десятичные только с iOS 10 и в операционной системе Mac OS X Leopard.

Android по дефолту тоже использует десятичные обозначения, но все зависит от софта. Например, Total Commander покажет размер файла в привычных двоичных.

Один и тот же файл на Windows весит 1.97 ГБ, а на iPhone — 2.06 ГБ. При этом размер в байтах будет равный. Парадокс.

Какое есть решение?

Оказывается, решение существует. И это введение нормальных терминов.

В 1998 году Международная электротехническая комиссия осознала проблему и постановила все классические названия кило и гигабайты использовать для десятичных объемов. А для двоичных придумали новые префиксы: Киби, Мебибайты, Гибибайты и так далее…

То есть второй слог префикса заменили на «би» — что отсылает к бинарный, то есть двоичный. И правильное обозначение такое: GiB, с буковой «ай»: KiB, MiB, GiB, TiB.

Да-да, если вы смотрите размер файла на iPhone или MacBook, то он написан в МебиБайтах. Живите с этим!

Что в итоге?

1 гигабайт меньше 1 гибибайта. Примерно на 7 процентов.

1 GB = 1 000 000 000 B

1GiB = 1 073 741 824 B

А на упаковке всегда пишут именно МЕГАбайты. С проблемой номер один разобрались.

2. Файлы воруют место…

Следующая проблема немного косвенная. Оказывается, файлы тоже воруют место на дисках. Но связана она с тем, сколько места занимают отдельные файлы.

Вы наверняка замечали, что если например в Windows открыть свойства файла: будет написано размер такой-то. А снизу еще одна строчка: на диске занимает столько-то. Почему так?

Это тоже имеет отношение к тому, как файлы хранятся в памяти. Дело в том, что они записываются на диск не подряд как треки на виниловой пластинке.

При форматировании файловая система разрезает диск на кластеры. Типа странички. И начать записывать новый файл вы можете только перевернув такую страничку. У каждой системы кластеры разные. Например, для NTFS это может быть 4 килобайта. И если файл сильно меньше, то мы потеряем почти всю страничку. При этом большие файлы можно записывать подряд. Потери при их хранении будут минимальны.

3. Место под систему

Ну и третья причина, о который вы догадались сразу. Это место под системную информацию. Это не всегда только операционка. Например, флешки и жесткие диски тоже забирают часть хранилища при форматировании для разметки, но это обычно совсем немного.

В случае со смартфоном или компьютером, речь идет о больших объемах. Например, iPhone 12 из коробки работал на iOS 14, которая занимала около 5 гигабайт. Вернее Гибибайт. Но по факту вы получите еще меньше полезной памяти, потому что 5 гибибайт это только система. А во время работы операционка быстро обрастет системными файлами и кешами. И все это вместе будет занимать около 10 Гибибайт. Такие дела.

Итоги

Надо понимать сколько занимают ваши файлы — и интересно, что разные операционки имеют разное мнение по этому поводу. А главное, никто до сих пор не хочет полноценно переходить на новую терминологию, потому что наверное она дурацкая.

Как работает электронный микроскоп? Разбор

Сегодня мы поговорим об обычных и электронных микроскопах, разберемся в том, как они работают и зачем нужны. Но главное, проведем крутой эксперимент.
Валерий Истишев 25 августа 2021 в 09:12

Давайте начнем с маленькой загадки — как вы думаете, что это такое?

Ну а пока представьте, что вы хотите рассмотреть что-то очень маленькое, то что невозможно увидеть просто “присмотревшись повнимательнее”? Или вы хотите увидеть самые мелкие детали чего-то? Что вы используете?

Первое, что приходит в голову — использовать лупу или сразу взяться за микроскоп!

Но что делать, если вы хотите рассмотреть саму структуру чего-то, например, увидеть транзистор в процессоре?

Что вы сделаете? Просто переключитесь в микроскопе на линзу с большим увеличением? Сработает ли это?

Сегодня мы с вами покроем множество очень интересных тем:

  • посмотрим на настоящий электронный микроскоп,
  • поймем — зачем он вообще нужен,
  • разберемся как увеличить что-то в сотни тысяч раз с помощью электронов и расскажем как человек научился видеть отдельные атомы!

Все как вы любите! Подробно и понятно…

Ну и еще сразу вам тут затравочку — сегодня мы посмотрим на Droider в настоящий электронный микроскоп! И нет — это не кликбейт!

Наверняка кто-то из вас в детстве по примеру Шерлока Холмса с помощью обычной линзы разглядывал все вокруг! Ведь это так круто видеть что-то в увеличении — создается ощущение, что открывается абсолютно новый, неизведанный маленький мир.

Так вот, если говорить простыми словами, то по принципу обычной увеличительной линзы и работает обычный оптический микроскоп!

Конечно, его устройство сильно сложнее — микроскоп это комбинация линз с заранее подобранными оптическими параметрами, которые собраны в правильной комбинации. Однако, сам принцип работы остается тем же.

Свет в видимом диапазоне длин волн либо проходит сквозь объект, либо отражается от поверхности, и, проходя, через систему увеличивающих и фокусирующих линз попадает сначала в окуляр и потом к нам в глаз.

Современные оптические микроскопы — это действительно массивные и сложные устройства, состоящие из десятков различных линз и зеркал, которые собраны в особом порядке, чтобы дать человеку возможность смотреть на объекты разного типа и с разным увеличением!

И линзы бывают разные. От линз с 2-3 кратным увеличением до довольно массивных линз со способностью увеличивать объекты в 100 раз. Только посмотрите на разрез линзы от компании Цайз с 50кратным увеличением! А комбинацией с правильным окуляром можно добиться увеличения даже в две тысячи раз.

Проблема

И тут мы можем задать вопрос — в чем же тогда проблема вообще? Ведь можно просто до безумия искривлять линзы и создавать сложные системы, которые будут увеличивать даже в десятки тысяч раз. Таким образом мы и сможем посмотреть на самые крошечные детали чего угодно! Но все как обычно очень непросто и связано это с физическими ограничениями видимого света!

Ведь видимый свет это волна с определенной длинной. Оптический микроскоп использует его оптический спектр, то есть примерно от 800 до 400 нанометров.

А физика, бессердечная такая сволочь, к сожалению не позволяет нам, различать объекты, которые меньше примерно половины длины волны. То есть с помощью обычного оптического микроскопа, мы не сможем различить ничего что мельче примерно 200 нанометров.

Это ограничение получило название в честь Немецкого ученого Эрнста Аббе, которое так и называется — Дифракционный предел Аббе. И он позволяет получить значение минимального разрешения не только для видимого света, но и для любой другой электромагнитной волны. Вы ведь помните что свет — это тоже электромагнитная волна?

Внимательный наш читатель вспомнит, что эту же формулу мы показывали вам в ролике про экстремальную ультрафиолетовую литографию, когда говорили об ограничении разрешения для глубокого ультрафиолета. Так вот тут тоже самое.

Современные микроскопы со специальными линзами, конечно, умеют смотреть на маленькие объекты и позволяет, например, увидеть живые клетки или даже бактерии, но этого все равно не хватает, например, чтобы увидеть вирусы — тот же самый SARS-COV-2.

​​Решение проблемы

И как же обойти эту проблему? Да и вообще возможно ли ее обойти? Оказалось? что да. В целом есть два пути.

STED микроскопия

Первый путь, о котором мы вам тут расскажем — это изобретение за которое совсем недавно, в 2014 году, была вручена Нобелевская премия по химии.

Это так называемая STED или микроскопия на основе подавления спонтанного испускания. Именно она позволяет преодолеть дифракционный предел оптического микроскопа.

Правда у технологии есть ограничение — совсем не все материалы можно рассмотреть в такой микроскоп. Но она позволила видеть различные сложные белковые, да и другие органические соединения!

Это связано с тем, что необходимо смотреть на материалы, которые могут переходить в особое состояние под воздействием лазерного излучения. То есть в состояние, когда они сами начинают испускать свет!

 

Как же это работает?

Тут используется два лазера, один из которых называется возбуждающий лазер, и второй, специально подобранный по параметрам длины волны. Он называется охлаждающим лазером.

Этот охлаждающий лазер компенсирует по периметру возбуждение от первого лазера и в результате сочетания этих волн создается очень маленькая область, которая начинает светиться. Появилась возможность различать объекты величиной уже около 30 нм, что уже позволяет видеть вирусы, например! А это почти в 7 раз меньше, чем у обычного микроскопа! Все равно, что с Земли рассмотреть футбольный мяч на Луне! Вот такой вот элегантный метод обмануть физику!

Электронный микроскоп

Ну хорошо. Теперь мы разобрались с тем, как можно преодолеть физический барьер в оптической микроскопии. Какой же второй путь обхода барьера? Да и что делать, если мы хотим увидеть неорганические вещества или вообще что-то меньше 30 нанометров?

И тут мы опять возвращаемся к нашей формуле, которая говорит нам о том, что максимальное разрешение — это половина длины электромагнитной волны. И ученые подумали — а зачем использовать видимый спектр, когда можно взять что-то с очень короткой длиной волны и пошли смотреть, что же там есть в коротковолновом спектре!

В общем, они решили не мелочиться и использовать сразу пучок электронов. Ведь длина волны электронов, ускоренных в электрическом поле равна примерно 0,4 Ангстрем. Или 0.04 нанометра! Это в 10 тысяч раз меньше, чем у видимого света! Кстати, если вы не знали, то размер атома водорода как раз около 1 Ангстрема. Итак, давайте разберемся что же такого крутого в электронных микроскопах!

Источник электронов и линзы

Сам концепт и первый прототип такого микроскопа был представлен, вы не поверите, еще в 1932 году, в Германии, и выглядел он вот так!

В целом, принцип работы с тех пор остался почти неизменный, хотя конечно его использование стало намного более User Friendly.

Но как же он работает?

Если вы смотрели наше крутое видео о магии создания процессора или читали материал, то там мы рассказывали, что для испарения некоторых материалов используется сфокусированный луч электронов и источником этих электронов служит вольфрамовая нить. В электронном микроскопе все примерно также. Зачастую вольфрам служит источником электронов. Тонкая нить нагревается до высоких температур и начинает испускать электроны в большом количестве.

А дальше начинается самое интересное. Эти электроны надо ускорить и сфокусировать. Да — сфокусировать именно так, как вы фиксируете свет в вашем объективе или обычном оптическом микроскопе. Только в этом случае воспользоваться стеклянными линзами просто не получится — весь электронный пучок полностью поглотится на самой первой линзе. В итоге для этого надо использовать электростатические линзы. Фактически, это такие электроды специальной формы, которые создает определенное электромагнитное поле. Это и позволяет фокусировать луч электронов, а также ускорять их до больших энергий!

Так же как и свет, падающий на поверхность материала в оптическом микрокопе, электронный луч дает нам информацию и позволяет фактически увидеть образец.

СЭМ

Тут стоит сказать, что в целом существует два основных типа электронных микроскопов, которые очень сильно отличаются.

Первый — это так называемый сканирующий электронный микроскоп, или просто СЭМ.

В нем сфокусированный пучок электронов попадает на поверхность образца практически любого размера, и происходит магия физики, из-за которой одни электроны выбивают другие электроны из атомов материала, на который мы смотрим.

Эти новые электроны называются вторичными и обладают относительно маленькими энергиями, что и позволяет специальному детектору их легко улавливать. Появление этих вторичных электронов происходит очень локально и это позволяет повысить точность получение изображения.

Дальше сфокусированный пучок начинает сканировать поверхность материала и в зависимости от рельефа поверхности на детектор попадает разное количество вторичных электронов. Вот так и получается картинка.

Именно поэтому все изображения с электронного микроскопа черно-белые. То есть фактически — это просто разная интенсивность в разных участках снимка. А любые цветные изображения с электронного микроскопа — это просто раскрашенные картинки.

СЭМы — самые часто используемые микроскопы на производствах процессоров, так как они позволяют быстро посмотреть на качество поверхности, да и вообще их используют для контроля на каждом этапе изготовления.

ПЭМ

И перед тем, как мы посмотрим на Droider в микроскоп, надо рассказать про еще один незаменимый инструмент в руках ученых и инженеров!

Это просвечивающий электронный микроскоп или ПЭМ! Это огромная труба, занимающая одну, а то и две комнаты. А стоит он около миллиона долларов. Но на самом деле интересно не то сколько он стоит, тут понятно что такая техника очень дорогая.

Интересно то, что для его работы строят специальные комнаты, с огромными бетонными подушками, уходящими на много метров под землю. Они нужны чтобы гасить любые вибрации и возмущения — вот настолько чувствительно это оборудование. Если бы не такие подушки, то любое изображение было бы смазанным из-за того, что кто-то хлопнул дверью в другом конце здания.

 

Его отличие от СЭМа в том, что он имеет гораздо большее разрешение! И связано это с особенностями самого образца и пучка электронов.

Если в СЭМе мы регистрировали новые электроны, которые вылетели из нашего образца под воздействием электронного пучка, то в ПЭМе мы смотрим на то как меняется наш исходный пучок электронов, который пролетел сквозь образец.

Суть в том, что пролетая через образец и взаимодействуя с атомами материала электроны меняются, а дальше попадают в детектор, который уже и говорит нам о том, как именно поменялся сам исходный пучок электронов.

Если вы внимательно слушали наше объяснение, то вы можете спросить, как же так — ведь электроны просто рассеются в образце и мы ничего не увидим.

И вы будете абсолютно правы! Ведь для ПЭМа нужно специально подготавливать образцы — они должны быть очень тонкими. До 100 нанометров, а вообще чем тоньше, тем лучше. В идеале всего десять-двадцать нанометров.

Для этого используются сложные методы подготовки образцов, например специальный луч ионов, который как тонкий лазер вырезает маленький кусок образца, который потом исследуют уже в микроскопе. Это и позволяет с помощью ПЭМа ученым видеть даже отдельные атомы!

Вот посмотрите: каждая точка это атом Палладия, видно даже то насколько ровная кристаллическая решетка у материала! Обратите внимание на шкалу в левом нижнем углу, всего один нанометр. И мы уже сейчас можем такое видеть, потрясающе!

Droider в электронном микроскопе

Теперь когда мы с вами разобрались с тем, как работает электронный микроскоп — настало время посмотреть на надпись Droider в настоящий электронный микроскоп, а точнее в СЭМ. Она была вырезана лазером на тонком листе нержавеющей стали. Более того были сделаны много надписей от большой, до надписи размером несколько микрометров.

Тут вы видите загрузку этой пластины в микроскоп!

А вот сама пластина в микроскопе уже. Кстати на всех этих картинках обращайте внимание на шкалу масштаба и на цифры в у параметра Mag, то есть увеличение! Вот уже можно рассмотреть надпись Droider с увеличением в 55 раз.

Так едем вниз к надписи поменьше.

Интересно, а какой толщины буква i в этой надписи — давайте глянем. Всего 100 микрометров, чуть толще человеческого волоса.

Так? но есть надпись и еще меньше — едем еще ниже и смотрим внимательнее.

Тут уже видно что увеличение 200 раз, но сама надпись уже плохо различима. Но это проблема не микроскопа, а лазера которым вырезалась надпись. Он просто не может такую мелкую надпись сделать! Ведь тут буква i уже 40 микрометров.

Но раз мы уткнулись в ограничения лазера, то давайте вернемся обратно, к самой большой надписи и посмотрим на структуру самой стали. Итак вот самая большая i. Пол миллиметра в толщине. Приближаем к нижнему краю.

Так увеличение уже почти полторы тысячи раз. Самое время посмотреть на то какой толщины след от лазера. Всего 40 микрометров.

Едем еще ближе и вот увеличение уже 6300 раз. Вот и ответ на наш вопрос из начала видео — это структура обработанной и необработанной стали!

Давайте посмотрим еще ближе теперь увеличение уже 40 тысяч раз. Мы уже в наномире! Смотрите какая красота — это сталь, по которой прошелся лазерный луч, когда вырезал букву i в слове Droider!

Но еще интересно глянуть, как выглядела сталь до обработки — что ж давайте глянем с таким же увеличением. Разница огромная!

Ну и наконец, давайте глянем на обработанную сталь с огромным увеличением в 300 тысяч раз. Ширина этого канала от лазера всего 300 нанометров!

Выводы

Электронный микроскоп — незаменимый инструмент в руках ученых и инженеров. Он не просто позволяет посмотреть на что-то маленькое — он позволяет увидеть саму структуру материалов, вплоть до атомов! Кроме того эти микроскопы позволяют смотреть не только на структуру, но и определять химический состав материала!

Это все очень полезно, когда например инженеры на производстве микропроцессоров или экранов пытаются понять, где и какой материал они осадили, как выглядят их транзисторы, много ли дефектов, да и вообще выявить брак.

Конечно, мы тут почти не сказали о том, как подготавливаются образцы для изучения, и например о том, что все такие микроскопы работают в глубоком вакууме, для получения которого используют специальные насосы, которые вращаются со скоростью в 50 тысяч оборотов в минуту. В общем, нам есть, что обсудить и рассказать…

Как работают проекторы и какие они бывают? Разбор

Мы уже поднимали тему проекторов, но разобрались в ней недостаточно… Сегодня мы поговорим про типы проекторов и расскажем про взрывную технологию.
vedensky 9 августа 2021 в 08:51

Мы с вами кое-что пропустили… Может вы замечали, что проекторы всегда создавали ощущение чуда. Пленочные диафильмы на чердаке, первый поход в кинотеатр — настоящая магия…

Но за последние 40 лет проекторы из “эмоционального” чуда стали чудом “техническим”. И на первый взгляд может показаться, что интересного: это просто картинка, на которую светит лампа, типа как в диафильме? Но на самом деле все куда сложнее. Сегодня мы разберём как устроены современные проекторы.

Узнаем, что такое цифровая обработка света и зачем внутрь проектора помещать два миллиона зеркал?

Протестируем топовый современный проектор и откроем страшную тайну про “настоящее” 4K-разрешение.

И, заранее извиняюсь, если после этого ролика вы захотите купить проектор.

Проблема с проекторами

Почему вообще большинство из нас с вами долгое время на проекторы не обращали никакого внимания?

Дело в том, что на протяжении последних лет двадцати все цифровые проекторы грубо можно было поделить только на две категории, которые называются:

  1. “Кхм, простите, кажется, тут лишние нули в ценнике”
  2. “Эм, что-то не видно ничего, может на телике включим?”

И такая ситуация была связана с ключевой проблемой: технология проецирования цифрового изображения была настолько сложной и несовершенной, что добиться хорошего качества можно было только за очень большую цену. И вот как мы к этому пришли.

Пленочные проекторы

В эпоху плёнки проекторы были очень просто устроены: берем яркую лампу лампу, светим ей на плёнку, фокусируем всё оптикой и готово! Вот тебе изображение на стене.

Нужно чтобы изображение двигалось? Просто крутим бобину. А вот с цифровыми проекторами всё оказалось куда сложнее.

1LCD-проекторы

Сначала плёнку попробовали заменить LCD матрицей. Так появились LCD проекторы. Они были устроены один в один как пленочные, просто вместо плёнки стали использовать цветную жидкокристаллическую матрицу. Точно такую же как в большинстве современных дисплеев.

Но, сразу выяснилось: что хорошо подходит для маленьких дисплеев, плохо подходит для больших проекций.

Во-первых, видны пиксели, а точнее субпиксели. Дело в том, что каждый пиксель в цветных ЖК-дисплеях состоит из трёх RGB-субпикселей, которые стоят рядом друг с другом. И если на маленьком дисплее мы субпикселей не видим, то на большой проекции они отчетливо видны.

Во-вторых, выяснилось, что ЖК-матрицы просто перегорают от яркого света ламп. Поэтому встал выбор: либо снижать мощность и, соответственно, яркость, либо постоянно менять перегоревшие матрицы.

3LCD-проекторы

Тогда, чтобы решить эти проблемы, в 1989 году стали использовать три монохромных LCD матрицы вместо одной цветной. И технологию назвали 3LCD. И вот в этот момент проекторы стали становиться куда сложнее. Смотрите сами, как это всё работало.

При помощи системы дихронических зеркал световой поток разделся на три канала — RGB. Каждый из которых попадал на три ЖК-матрицы. После этого в специальной призме, три канала обратно сливались в многоцветное изображение.

Такая схема оказалось очень удачной:

  • Избавились от эффекта RGB-субпикселей.
  • А сама картинка получается яркая и насыщенная.

Поэтому такие проекторы используются по сей день.

Тем не менее она не лишена недостатков:

  • Увеличилась цена, ведь три матрицы стоят больше одной матрицы.
  • Увеличился размер проекторов.
  • Все три матрицы по-прежнему нужно охлаждать. Из-за чего проекторы шумят, а матрицы покрываются пылью.
  • Кроме того, такая схема требуют юстировки, и далеко не всегда получается идеально совместить изображение с трех матриц.
  • Плюс из-за строения LCD-матриц возникал “screen door effect”, то есть видна сетка пикселей.
  • Ну и, самый главный недостаток технологии 3LCD — неглубокий черный цвет и, как следствие, низкая контрастность.

LCoS-проекторы

Так вот, screen door эффект и низкую контрастность смогли решить, добавив к LCD-матрице отражающий слой. И новую технологию названили LCoS. Что расшифровывается как “жидкие кристаллы на кремнии”, хотя,по хорошему,надо было назвать “отражающий LCD”. Также LCоS проекторы называют: D-ILA, HD-ILA и SXRD. Это всё тоже самое, просто разные названия.

LCoS —Liquid Crystal on Silicon

JVC. D-ILA или HD-ILA — Direct Drive Image Light Amplifier

Sony. SXRD — Silicon X-tal Reflective Display

 

В чём смысл технологии?

Прямо за слоем жидких кристаллов добавили отражающий слой, поэтому свет, попадая на матрицу, стал отражаться и тем самым два раза проходить через жидкие кристаллы. От этого сильно увеличилась контрастность. При этом слой с транзисторами оказался за отражающим слоем, поэтому сильно уменьшился screen door effect. Иными словами — мы наконец-то получили идеальную картинку: яркую, контрастную, без видимой сетки пикселей.

Но всё это достигалось путем еще большего усложнения схемы проектора.

Смотрите сами, было так:

А стало так:

Технология получилась очень дорогой и поэтому сейчас технология LCoS используется только в очень дорогих Hi-End проекторах. И вот так мы пришли к ситуации в которой, если хочется качества, нужно платить много тысяч долларов за LCoS проектор, либо покупать 3LCD и мириться с компромиссами. А другого не дано.

DLP-проектор

И тогда появились принципиально новая технология, которая позволила с одной стороны упростить устройство проекторов, а с другой улучшить качество изображения. А называется технология DLP, т.е. Digital Light Processing, буквально — «цифровая обработка света»

И это просто взрывающая мозг технология. Как эта штука устроена?

Вместо трёх LCD матриц внутри DLP-проектора используется одна DMD матрица, которая состоит из миллионов микрозеркал! В общем-то, DMD так и расшифровывается Digital Micromirror Device, то есть «цифровое микрозеркальное устройство».

Каждое такое зеркало состоит из алюминиевого сплава и может практически мгновенно отклоняться в одно из двух положений, отличающихся друг от друга на угол в 20°. Но зачем? Спросите вы. Смотрите!

Каждое зеркальце соответствует одному пикселю создаваемого изображения. Если зеркальце находится в положении “один” — оно отразит свет строго в объектив и мы видим на экране белую точку. Если зеркальце находится в положении “2”, оно отражает свет в светопоглощающающую поверхность и мы видим на экране черную точку. Так формируется черно-белое изображение на экране.

А если мы будем быстро менять положение зеркальца, пиксель на экране начнет быстро мерцать. Но из-за инертности человеческого зрения, мы не увидим мерцания, а увидим градации серого цвета. Круто! Но как же мы получаем цвет?

Для этого световой поток проходит через специальный цветной диск, который состоит из разноцветных сегментов. Их может быть три, четыре или больше.

Диск быстро вращается и каждый окрашивает в свой цвет по очереди. Но, опять же, из-за инертности зрения мы не видим мерцания, мы просто видим цветное изображение. Звучит сложно, но на самом деле принципиально устройство проектора сильно упростилось:

И выяснилось, что технология DLP даёт массу преимуществ.

Во-первых, глубокий черный цвет и высокая контрастность, ведь на черный пиксель свет не попадает вовсе.

Во-вторых, пропал screen door effect. Размеры микрозеркал сами по себе очень малы, а промежутки между ними еще меньше и обычно не больше одного микрометра. Поэтому и структура изображения на экране не обладает «эффектом решётки», характерным для LCD проекторов.

В-третьих, зеркала не выгорают и не требуют серьёзного охлаждения. Поэтому как правило, DLP проекторы менее шумные. Более того, оптический блок в таких проекторах изолирован, поэтому туда не попадает пыль.

Ну и наконец, такие проекторы куда более компактные и мобильные.

В общем, почти идеальная технология, но тоже со своими недостатками и главный из них “ эффект радуги”. На динамичных контрастных сценах можно заметить радужный шлейф на границах объектов. Это как раз связано с вращающимся цветным диском.

Но такой эффект действительно заметен только у старых или дешевых DLP проекторов и легко лечится увеличением скорости вращения диска, или увеличением количества цветных сегментов.

Второй недостаток: DLP проекторы менее яркие, чем 3LCD проекторы. Это логично, так как тот же самый цветовой диск тупо отсекает часть света. Но сейчас, эта проблема уже не столь актуальна, и DLP практически сравнялись по яркости с 3LCD.

А ведь бывают еще трехматричные DLP, которые вообще ничем не уступают LCD и скорее соревнуются с LCoS, но это уже Hi-End сегмент.

XGIMI Horizon PRO

Поэтому, если объективно, технология DLP перевернула представление о том, каким может быть проектор. И тут проще всего показать на примере. Это XGIMI Horizon Pro — топовый 4K DLP проектор за адекватные деньги.

Вы про компанию XGIMI вряд ли слышали, но на самом деле, ребята с 2016 года делают топовые проекторы и очень известны среди ценителей больших экранов. Это проектор формата “всё в одном” с несколькими уникальными фишками.

Во-первых, тут очень простой процесс настройки. Просто ставишь проектор и он автоматически исправляет геометрию и фокусируется. Вообще ничего не надо делать. Если у вас есть экран, он его автоматически обнаруживает и подстраивается под размер. Если в кадре что-то мешает, например, картинка залезает на шкаф, дверь, выключатель, он также подстраивает картинку.

Это очень удобно. Фактически вы можете организовать просмотр кино, футбола, презентаций, вообще не напрягаясь, где угодно.

А поможет вам в этом второй приятный момент. Вы уже заметили, что проектор работает на Android TV 10, классном быстром необрезанном. Кстати с проектором идет шикарный пульт с голосовым управлением, поэтому по удобству этот проектор как хороший Smart TV.

Плюс тут отличный звук от Harman/Kardon — два динамика по 8 Вт. Конечно это не отдельный саундбар или система 7.1, но звук действительно приятный, объемный, детальный. Есть поддержка DTS и Dolby Atmos. По мне так больше ничего не надо.

Но конечно, главное достоинство проектора — качество изображения. Несмотря на то, что проектор можно сказать мобильный. Кстати, его можно использовать как Bluetooth колонку! Так вот, несмотря на это, картинка тут как у хорошего стационарного проектора.

  • Яркость 2200 ANSI Люменов
  • Разрешение 4K UHD
  • Цветовой охват 110% DCI-P3. Нехило, да?
  • Поддержка HDR10 и HLG

А теперь главное, размер проекции от 30 до 300 дюймов. Это целая стена!

Иными словами XGIMI Horizon PRO — домашний кинотеатр, который вы можете развернуть где угодно, как вам удобно. Можете поставить его на тумбочку, может подвесить к потолку, а может таскать из гостиной в детскую или вообще к друзьям, вместе в приставку гонять. Кстати, частота обновления 60 Гц.

Теперь важный момент, в линейке таких проекторов 2: Horizon и Horizon Pro и отличаются они только одним моментом: Horizon — это Full HD проектор, а Horizon Pro — 4K. Но тут есть нюанс.

XPR (pixel-shift). 

На самом деле, в обоих проекторах используется DMD матрица одной диагонали 0,47 дюйма и одного и того же разрешения 1920×1080, то есть физически там одинаковое количество микрозеркал. Но как же тогда в Horizon Pro мы получаем 4К изображение? Нас что обманывают? Нет, тут используется очень интересная технология сдвига пикселей, которая называется XPR.

Работает это следующим образом. На частоте 240 Гц изображение сдвигается на пол пикселя в 4 стороны: вправо, вниз, влево, вверх. Опять же наш глаз эту картинку склеивает и вместо 2 миллионов пикселей, мы видим 8,3 миллиона пикселей, то есть полноценное UHD изображение.

Что примечательно, это делается не программно, а при помощи специального оптического модуля, который наклоняется в 4 направлениях и немного сдвигает картинку.

Поэтому, по сути, Horizon отличается от Horizon Pro только отсутствием дополнительного XPR модуля.

Но разница между FHD и 4K со сдвигом пикселей действительно есть. Повышается детальность. Но самое, на мой взгляд, главное — полностью исчезает сетка пикселей, изображение становится однородным и более естественным.

Более того такой метод формирования 4К используют все современные потребительские DLP проекторы, даже в очень дорогих, кроме может быть самых премиальных супер-хай-энд решений.

Выводы

Надеюсь, вам, также как и мне, было интересно погрузиться в мир современных проекторов и узнать про эти крутейшие технологии. При этом мы рассказали далеко не всё. Это действительно интересная технология, а XGIMI Horizon и Horizon Pro в качестве примеров её применения — действительно шикарные проекторы, присмотритесь!

Гибкая электроника и гнущиеся чипы — как это возможно? Разбор

Мы уже привыкли к гнущимся и складным дисплеям, но что если мы вам скажэем, что в будущем нас ждут — гнущиеся чипы и микроэлектроника? Разбираемся…
aka_opex 2 августа 2021 в 07:46

Есть такая фраза на счет кремниевых процессоров — что все они просто куски камня, которые мы обманом заставили думать.

Мы уже очень привыкли к носимой электронике. Мы обвешаны умными часами, браслетами, нашниками, есть даже специальные датчики в ботинках, отслеживающие правильность походки.

Cудя по всему, скоро мы будем ходить в умных очках, которые будут показывать нам полезную информацию и дополнять нашу реальность. Но какой следующий этап? Что дальше?

Тут мы безусловно можем вспомнить Илона Маска с его Neurolink и чипированием. Но это все-таки что-то из ряда вон выходящее, так сказать радикальный подход к носимой электронике следующего поколения!

А что если подумать о нашей одежде? Можно ли встроить процессор прямо нам в носки, например? Да так, чтобы носки при этом остались носками, со своим полным функционалом. Или, например, сделать линзы с маленькими дисплеями, как в фильмах о шпионах?

Что ж — сегодня мы расскажем вам о по-настоящему носимой электронике! Попытаемся разобраться, что за этим стоит и выясним — можно ли напечатать процессор на куске пластика, ткани или даже на теле человека?

Введение

Все устройстава, начиная от смартфонов и заканчивая чипами в мозг, это абсолютно разные устройства, построенные по разной архитектуре и для разных задач! Но при этом у них есть схожее свойство — все они построены на базе кремниевых подложек.

Кремний — это жесткий материал и это накладывает определенные ограничения. Одно из них — это гибкость чипа. То есть получаемые на основе кремния подложки нельзя сгибать, а это приводит к тому что мы ограничены в самих физических размерах чипа.

Только посмотрите как Apple вынуждены извращаться, чтобы запихнуть всю необходимую электронику в AirPods.

А ведь уже есть специальные чипы, которые крепятся на тело для отслеживания состояния здоровья.Они клеятся прямо на кожу, но при этом все равно сам по себе чип остается как маленький камень, который прикрепили к вам пластырем!

А как было бы круто, если бы чип и был тем пластырем, так же гнулся и растягивался бы как и кожа на теле!

И вот ученые подумали, а можно ли сделать процессоры на чем-то гибком.

Идея совсем не новая на самом деле. Печатать и впаивать чипы в пластик люди пытались еще в середине двадцатого века, но технологии того времени были сильно ограничены, а потом, с приходом полевых тразисторов идею вообще частично отправили в долгий ящик. На пластике размещали контакты, но не сами транзисторы и чипы.

Конечно, тут мы сразу вспоминаем о гибких экранах, которыми нас уже не удивить! Кстати, а вы знали что первый концепт гибкого OLED-экрана был представлен учеными еще в 1992 году?

Гибкие экраны

Но вы спросите, а почему же тогда мы уже 20 лет не пользуемся гибкими экранами? Проблема в отсутствии массовой технологии. В 1992 году показали только физическую возможность, но для создания гибкого экрана этого маловато.

Необходим был целый комплекс различных технологических решений, начиная от разработки специальных пластиков, и заканчивая новыми поколениями тонкопленочных транзисторов, подходящих для массового производства! Такими например стали LTPS транзисторы и тонкие пленки прозрачного термостойкого и проводящего пластика.

А вместе с тем, одновременно активно развивалось направление печатной электроники.

Представьте, в вашем цветном принтере разными красками можно наносить разноцветный рисунок в разных местах, так и в печатной электронике можно печатать в 2D различные контакты, транзисторы и изоляторы, фактически создавая необходимую электрическую цепочку на разных поверхностях.

И вот собрав все эти технологические решения гибкие экраны стали возможны!

Гибкие чипы

А когда сначала ученые, а потом уже производители наконец-то разобрались, отработали технологии, они начали думать и в других направлениях.

Ведь если можно напечатать транзисторы на гибкой пленке, то можно практически любую поверхность сделать маленьким вычислительным устройством, то есть процессором.

Основная идея гибкой электроники удивительно проста: надо начать с гибкой подложки, к примеру, специального пластика или бумаги и нанести на него тонкий слой гибкого полупроводника. Но выбор материалов сильно ограничен вследствие того, что он должен соответствовать многим условиям.

Но на данном этапе пока точно нет необходимости носить на запястье тонкую пленку с 11 миллиардами транзисторов как в Apple A14 Bionic. Требования к производительности у таких чипов минимальны. Поэтому количество транзисторов не должно быть огромным.

И тут мы приходим к недавней разработке ребят из ARM совместно с компанией PragmatIC, которые опубликовали свою работу в журнале Nature. Они показывают, что гибкие и главное — полноценные процессоры не только возможны, но скоро уже могут начать появляться на рынке.

Гибкий процессор ARM

Итак, чтобы вы поняли о чем мы тут говорим. Это пока слабый, но абсолютно гнущийся процессор под названием PlasticArm. Его площадь составляет 59,2 квадратных миллиметров и он содержит 56 340 транзисторов и резисторов или 18 334 NAND2-эквивалентных затворов!

Это по крайней мере в 12 раз больше, чем прошлый рекордсмен от той же компании PragmatIC, где было всего 4 000 транзисторов.

Микропроцессор работает с частотой до 29 кГц. Напоминаю, что процессоры Intel 11-го поколения в режиме TurboBoost выдают 5,3 ГГц. То есть разница частот — примерно 180 тысяч раз.

Однако, чтобы быть предельно ясным, даже при двенадцатикратном увеличении количества транзисторов по сравнению со своим ближайшим собратом, новый PlasticARM ни в коем случае не является мощным процессором.

Система использует 28 выводов, которые включают в себя тактовый генератор, сброс, питание и другие отладочные выводы. Проще говоря, это полнофункциональный 32-битный ARM-чипсет.

Не только процессор, но и память, ввод/вывод, и все остальное. Подключите к нему несколько подходящих и даже гибких датчиков, и перед вами откроются огромные возможности.

Он использует собственную архитектуру Cortex-M, основанную на ARM-Cortex-M0+ начального уровня, что делает его совместимым с процессорами этого же класса и их кодом.

Это позволяет ему быть действительно универсальным, то есть его можно использовать для кучи разных задач.

Сам же его разработчик говорил, что “безусловно процессор слабый, но я бы использовал его в упаковке салата, чтобы отслеживать то, насколько он свежий!”

Вы поняли о чем речь? На упаковках салата будет наклеен процессор, который отслеживает его свежесть, то есть это одноразовый процессор, который потом окажется в мусорке!

Ну и конечно он сильно больше, чем обычный процессор с теми же параметрами. Ширина затвора там около 0.8 микрометра, что в несколько десятков раз больше чем у обычных процессоров.

Кроме того данный процессор потребляет сильно больше электроэнергии — 20 милливатт. Это может показаться очень незначительным энергопотреблением, но M0 + архитектура, реализованная на стандартном кремнии, требует чуть более 10 микроватт. Разница огромная. Но учитывайте, что это только тестовый образец. При этом он производится по схожим технологиям — то есть фотолитография и осаждение из газовой фазы.

Основной полупроводник там — это известный нам по LTPO экранам IGZO, то есть оксид индия, цинка и галия, а сам процессор состоит всего из 30 слоев из которых всего 4 являются металлами. При этом суммарная толщина всего 30 микрометров, что тоньше человеческого волоса!

Да и стоимость производства может быть очень низкой из-за простого процесса и отсутствия необходимости использовать дорогой монокристаллический кремний! При правильном масштабировании производства тут идет разговор об одном центе за чип или даже меньше!

Будущее и выводы

 

Но куда же создание такого абсолютно гнущегося, но полноценного процессора нас ведет?

На самом деле, пока что не очень очевидно, но вполне возможно, что мы очень скоро получим возможность печати чипов и микроконтроллеров прямо с нужными датчиками, например, на одежде, бумаге или на пластиковых упаковках.

Штаны которые говорят, что они грязные! Или местоположение всегда потерянного второго носка! Можно делать умные тату с подсветкой и не только…

Конечно есть и более полезное использование — медицина. В целом, если напечатать чип на органически-совместимом материале, то можно будет крепить его на органы, чтобы они считывали показатели сердечного ритма, например, или вводили лекарство точно по расписанию.

Человечество явно придумает куда можно прикрутить эти чипы так, чтобы это стало нам с вами удобно! Ну и до маленького экрана в линзе для глаз, который создает вам дополнительную реальность тоже недалеко осталось! Будем следить, интересно к чему приведет эта технология!

История компании Tesla. Как она изменила автомобильный рынок?

Сегодня мы расскажем все или почти все, что знаем о компании Tesla: о ее сложном прошлом, интересном настоящем и космическом будущем.
aka_opex 19 июля 2021 в 06:12

Bugatti Chiron — роскошный гиперкар, который стоит 2,5 миллиона долларов. В нем установлен огромный шестнадцатицилиндровый движок с четырьмя турбонаддувами, который выдает запредельную мощность в 1 500 лошадиных сил и может разогнать Bugatti до 100 км/ч за 2.5 секунды.

Tesla Model S Plaid стоит в 20 раз дешевле, около 130 тысяч долларов, и способна разогнаться до 100 км в час на пол секунды быстрее! А еще она может ездить сама. В ней два багажника, огромный экран, почти нет кнопок и рычажков и на угоду гика на ней можно играть в Cyberpunk 2077.

Как так получилось, что новые автомобили американской компании — это фактически самые быстрые серийные автомобили в истории? А с выходом нового Tesla Roadster ждут нового рекорда 1.1 секунда — до сотни! Что вообще происходит, куда смотрит весь автопром?

Сегодня расскажем, почему электрокаров много, но всё это обычные машины с электродвигателем, а машина будущего всего одна и это Tesla!

Выясним как компания придет к народному электромобилю и как скоро ваша машина сможет работать на вас и зарабатывать деньги, а вы будете попивать пивко на диване с сериальчиком.

История

Начнем с того, что Илон Маск вообще стоял не у самых у истоков компании! Tesla была основана 1 июля 2003 года двумя инвесторами — Мартином Эберхардом и Марком Тарпеннингом. Еще тогда Эберхард озвучил основной девиз компании: «Наша цель создать автомобильную компанию с акцентом на технологиях в области программного обеспечения, новых электродвигателях и аккумуляторах.» И этому девизу компания следует до сих пор!

Илон же подключился к компании спустя несколько месяцев, вложив 6,5 миллионов долларов в развитие, что стало на тот момент самой большой инвестицией. Это позволило ему занять место главы компании, которым он является до сих пор, и именно под его руководством Tesla стала тем, чем является сегодня — самой дорогой компанией по производству авто в мире, но это не главное.

Изначально план компании подразумевал выпуск дорогих мелкосерийных автомобилей, создание и развитие которых позволило бы Tesla, так сказать, набраться опыта, почувствовать рынок, и в дальнейшем уже перейти на производство более народных автомобилей, доступных широкому потребителю. И как мы сейчас видим — план сработал!

Ну а первым автомобилем компании, да и вообще первым разрешенным автомобилем на литий-ионных аккумуляторах в мире, стал Tesla Roadster, вышедший в 2008 году! Большинство людей, наверное, даже не знают о нем подробности и слышали о нем, только в связи с первым запуском ракеты Falcon Heavy с Tesla Roadster к Марсу, хотя это уже была новая версия!

В действительности с точки зрения технологий машина была не очень примечательная. Трехфазный четырехполюсный асинхронный мотор использовался в качестве двигателя. В первой версии он выдавал около 250 лошадиных сил при шести тысячах оборотах в минуту. Однако, ко второй версии родстера мощность уже подняли до 288 сил, при этом сам мотор стал более компактный, за счет более плотной обмотки статора. Это уменьшило сопротивление и увеличило момент!

Запас хода же составлял чуть меньше 400 км. Разгон до сотни осуществлялся за 4 секунды. Никаких интересных нововведений тут не было, да и длительное время зарядки позволяло людям с обычными бензиновыми двигателями смеяться в лицо любому владельцу Tesla Roadster. Ведь за целый час зарядки она давала всего лишь 90 км пути и то с использованием специальных зарядок. Далеко не уедешь, а правильнее сказать, что кроме как в магазин по соседству вообще никуда не уедешь! Да стоимость была, мягко говоря, немаленькой — 110 тысяч долларов. Как-то дороговато для скоростной тележки для супермаркета! И это мы уже молчим о том, что на тот момент этих зарядок то и не было совсем.

Продажи Roadster были, мягко говоря, скромные. За 4 года (2008-2012) компания продала всего 2,5 тысячи автомобилей при том, что продавались они в 30 странах мира! Покупатели просто не понимали в чем был смысл этого автомобиля! Инфраструктуры зарядных станций нет, ездить некуда, машина маленькая. Автомобиль для богатых гиков не более того.

Тогда Гиганты рынка были уверены, что бензин еще очень долго будет королем! Но инженеры и руководство компании прекрасно понимали зачем нужен был Roadster. Компоновка батарейного блока, модификации двигателей, аэродинамика, охлаждение и процесс сборки.

Например, компания стала первой, которая решилась использовать батарейные блоки, состоящие из тысяч маленьких аккумуляторов стандарта 18650. Это позволило очень сильно удешевить производство, ведь это очень популярный формат и производственная инфраструктура была готова!

Самое интересное, что и подход к обновлению автомобилей, который был заложен во времена Tesla Roadster сохранился до сих пор. У машин Tesla нет поколений, они обновляются постоянно, зачастую без громких анонсов: где-то стала лучше подвеска, где-то тормоза, где-то охлаждение. Работа ведется постоянно!

Это был важнейший опыт, который лег в основу, наверное, самого главного и важного автомобиля в истории компании — Model S.

Tesla Model S

Первый анонс Tesla Model S произошел в середине 2008 года с демонстрацией прототипа в марте 2009 года. И только посмотрите как она выглядела. На самом деле отличий от серийного автомобиля довольно много. Напоминает рыбу какую-то.

И вот в 2012 году автомобиль наконец-то выходит на рынок и позиционируется он именно как люкс седан! В тот момент владельцы Mercedes-Benz и BMW откровенно плевали в лицо владельцам новой Tesla — какой тут Люкс? Сплошной пластик, а салон скучный и бедный! Но у Tesla была своя тактика, и они ее придерживались.

Без сомнений одной из главных проблем стало масштабирование производства. Tesla постоянно сталкивалась со сложностями в производстве, не успевая за заказами. Тут проблема была не только в самом производстве, но и в поставках комплектующих. Например, в 2012 году Tesla выпускала всего 20 Model S в неделю, но уже к 2015 году увеличило мощности до 1 000 автомобилей в неделю.

Сейчас же Tesla производит суммарно по всем моделям почти 16 тысяч автомобилей в неделю, и вышла на обещанные много лет назад инвесторам мощности производства! А в 2022 году ожидается, что Tesla сделает более 1 миллиона автомобилей за год. Кроме того, за все время своего существования компания, и Илон Маск в частности, сталкивались с огромным шквалом критики.

Несмотря на большие инвестиции и постоянное расширение, к компании постоянно возникало множество финансовых претензий, их обвиняли в манипулировании с бухгалтерией, да и вообще называли мошенниками. И только к 2020 году компания наконец-то показала прибыль!

Однако, вспоминая первые Model S на ней тоже далеко было не уехать: только на 400 км в Long Range версии. В Tesla прекрасно понимали, что надо инвестировать деньги не только в само производство, но и в инфраструктуру.

Сторонние технологии

В 2012 году вместе с выходом Model S, компания начала расширять свою сеть зарядных станций. Начав всего с 7 точек в США, сейчас они имеют самую большую сеть зарядных станций на планете — 2700 электрических заправочных станций по всему миру, где находятся 24 с половиной тысячи зарядных колонок!

При этом Tesla сделала использование их сети зарядных станций максимально комфортным! Приехал, воткнул в розетку, подождал 15 минут, и поехал дальше, а плата автоматически спишется с твоей карточки, привязанной к аккаунту.

И вы ведь помните как развиваются зарядки в телефонах? Если раньше все пользовались пятиватными зарядками, то теперь даже 65 Ватт уже не пугают. Так вот в электромобилях все тоже не стоит на месте. Первое поколение суперчарджеров было на 72 килоВатта, сейчас уже много станций выдает 250 кВт мощности, только подумайте — 250 тысяч Ватт! Это позволяет новой Model S за 15 минут получать уже 250 км хода. А за полчаса уже почти 450 км пробега. Ну а пока сидите и ждете можно и в Cyberpunk 2077 немного поиграть, ну или YouTube глянуть на огромном семнадцатидюймовом экране!

Кстати, оцените прогресс — новая Model S Plaid заряжается до 100% менее чем за час. Помните, что первый Roadster давал всего 90 км пути за то же время!

Мы поняли первый и второй важный пункты машины будущего — это запас хода и быстрая зарядка, сюда же добавляем инфраструктуру! Но мы отвлеклись. Вернемся к автомобилям компании. Почему Tesla — это не просто очередной электромобиль?

Конструкция Model S делает ее невероятно управляемой. Из-за тогоб что батарейный блок расположен в полу автомобиля, это смещает центр тяжести вниз. По факту высота центра масс в машине как у современных суперкаров, всего 46 см — она очень хорошо держит дорогу и ее очень сложно опрокинуть.

Кроме того машина безопасная, так как аккумулятор добавляет жесткости корпусу. Когда машину тестировали на безопасность в 2013 году Model S просто сломала тестовый стенд!

Еще один важный момент, касающийся всех электромашин — они гораздо надежнее классических на ДВС, там просто практически нечему ломаться и изнашиваться. Они настолько надежны, что компания даже не требует прохождения обязательного ежегодного ТО для сохранения гарантии. То есть сама машина получается дешевой в обслуживании, а моторы рассчитаны на пробег около 1 миллиона км! Это третиый пункт машины будущего.

Обновления ПО прилетают по воздуху, машина постоянно сама проверяет состояние всех систем, тормозов, фильтров, при этом даже способна сама забронировать обслуживание, если это необходимо! Еще на забываем про постоянные мелкие улучшения всех систем автомобиля — подвески, систем охлаждения, кондиционирования и фильтрации воздуха!

Например, в Model X появилась система фильтрации воздуха, с HEPA-фильтрами, которые делают воздух в машине очень чистым!

Ну и конечно Tesla постоянно работает над улучшением аккумуляторов и своих двигателей. Ведь именно они в конце концов позволяют им добиваться рекордных значений пробега. И уж поверьте там есть, что интересное вам рассказать!

Или например о новом двигателе в новой Model S Plaid, на своей максимальной мощности вращается со скоростью 20 тысяч оборотов в минуту!

Автопилот

Но даже с учетом вышесказанного мы не приблизились по-настоящему к концепции машины будущего, ведь про главную особенность Model S, да и всех других автомобилей компании мы даже еще не рассказали. Переходим к автопилоту!

Анонс и поставка первых автомобилей с набором датчиков и сенсоров началась в середине 2014 года. Tesla уже тогда примерно поняла какой набор сенсоров необходим для автопилота автомобиля и компания начала собирать данные. Даже не так — в машине можно поставить галочку, что вы хотите делиться данными с компанией! В результате они собрали гору данных — тысячи терабайт с автомобилей, данные с машин, которые наездили уже более миллиарда километров по всему миру!

Но эти данные ведь как-то надо обрабатывать. И фактически компания владеет одним из самых мощных суперкомпьютеров в мире — компьютер Dojo. И он крутой!

Кластер высокопроизводительных вычислений имеет 720 узлов, каждый из которых оснащен восемью графическими процессорами Nvidia A100 по 80 Гбайт каждый. Система включает десять петабайт хранилища NVMe «горячего уровня» со скоростью передачи 1,6 терабайта в секунду.

HPCWire подсчитала, что предыдущие тесты производительности A100 на собственном суперкомпьютере Selene давали 63 петафлопс и это означают, что 720 узлов A100 дают около 81,6 петафлопс. Это ставит суперкомпьютер на пятое место в последнем списке 500 самых мощных суперкомпьютеров в мире.

При этом в сами автомобили встроен специальный процессор нейронных вычислений, который разработан только для того, чтобы локально эффективно управлять автомобилем на основе заранее обученной нейронной сети автопилота. И это уже третья его версия, которая увеличила скорость обработки данных на безумные 2100% по сравнению с прошлой версией!

Чип имеет два одинаковых процессора, произведенных Samsung специально для Tesla по 14нм техпроцессу. Чипов тут два, потому что система должна быть очень отказоустойчивой, второй нужен просто на всякий случай! Чип оснащен двенадцатью ядрами ARM Cortex-A72, работающими на частоте 2,6 ГГц, двумя нейронными модулями, а также графическим процессором Mali с частотой 1 ГГц.

Каждый чип способен выполнять 36 триллионов операций в секунду. Система способна обрабатывать 2300 кадров в секунду со всех камер, что и позволяет быстро реагировать в случае опасности. Скорость реакции машины около 100 миллисекунд, что в 2 раза быстрее человека.

Это и позволило Tesla уже сегодня выпустить в бета-версии полноценный автопилот.

Когда видишь сотни видео на YouTube, как обычные пользователи на своих автомобилях практически не участвуют в процессе вождения становится как-то не по себе. Чтобы вы понимали, в США уже сейчас можно просто поставить точку на карте и машина сама туда доедет. И это абсолютно реальная технология в руках пользователя, а не какие-то обещания. Потрясающе!

Но вы можете справедливо заметить — а что же такого уникального в этом автопилоте, ведь разные компании уже очень давно демонстрируют полноценные автопилоты? И Google, и Uber, и даже Яндекс. На это отвечает глава отдела по разработке автопилота, в недавней презентации он объяснил в чем же принципиальное отличие автопилота Tesla от других автопилотов. Дело в том, что большинство компаний использует комбинацию камер, лидара, радара и заранее загруженных карт в высоком разрешении, что позволяет машине ориентироваться в пространстве.

Однако это требует постоянного обновления карт и установки очень дорогого лидара. Только подумайте — дороги постоянно ремонтируют, перекрывают, физически невозможно в реальном времени обновлять карту всего мира. Ну а лидар вообще выглядит как огромная вращающаяся люстра и стоит около 7 тысяч долларов!

В Tesla же пошли по принципиально другому пути — все вычисления происходят в реальном времени локально, то есть машина, благодаря огромным вычислительным мощностям и обученной нейронной сети, способна ориентироваться даже на абсолютно незнакомой местности? о которой нет данных и где никогда до этого не проезжала Tesla! Более того, теперь компания отказывается от радара в пользу обработки изображения с 8 камер.

Они смогли обучить нейронную сеть точно помечать и распознавать объекты на дороге, кроме того с помощью обработки изображения с трех передних камер и расчета относительной скорости автомобиль научили точно определять расстояние до впереди едущих машин! Радар теперь попросту мешает!

В целом, теперь у нейронной сети есть 221 триггер, которые необходимы для точной и полноценной оценки скорости и опасности различных объектов на дороге! Как заявил только что Маск автопилот сможет распознавать сигналы поворотников у машин, машины специальных служб, и даже сигналы рук от пешеходов!

Интересно как это будет работать на практике, ведь есть туманы, сильные дожди, снегопады, да и вообще камеры могут стать грязными и как они видят ночью? В компании говорят, что нейронка справляется и с такими сложными условиями. Уверен, что мы увидим как это работает на практике очень скоро, ведь девятая версия автопилота уже начала приходить тестерам. И именно там Tesla переходит только на камеры, просто отключая единственный радар в своих автомобилях за его ненадобностью, заодно удешевляет — это тоже важный момент!

Закрыли главный пункт машины будущего — автопилот. Он уже существует и работает, а к его философской концепции применения мы еще вернемся.

Сейчас

Что же мы имеем сейчас? Tesla выпускает две относительно бюджетных модели и две дорогих машины. Их модельный ряд сейчас называют не иначе как SEXY, ну вы поняли только вместо E там тройка!

Кстати, с этим связана не самая приятная история. Илон Маск действительно хотел назвать одну из своих машин — Model E, но в дело вмешались патенты. Дело в том, что патент на Model E получил другой автогигант — Ford — еще в 2013 году. Это документ под номером 86133442, который относится к категории «Легковые автомобили». В общем речь идет о наименовании нового концепта или серийной модели.

Изначально считалось, что Ford Model E станет обновление Ford E-Series, потом же начали ходить слухи о электромобиле от Ford, который получит такое имя. В итоге в 2019 году компания действитально представила электрокар Ford Model E. К слову, довольно скучная и обычная машина…

Все эти автомобили имеют полный набор камер, предназначенных для полноценного автопилота. Все они имеют рекордные для электромобилей своего класса показатели пробега на одном заряде, так и потрясающие скорости разгона!

Но Маск не был бы собой, если бы не анонсировал кучу всего нового. Киберпанковый футуристичный кибертрак сделанный из нержавеющей стали, новая Tesla Roadster с каким-то невероятным разгоном и запасом хода чуть ли не в 1000 км, ну и конечно грузовик! Все это уже показано и в скором времени должно появиться на рынке и мы видим, как компания планомерно к этому идет.

Tesla наращивает производство. И не просто наращивает — она строит свои Гигафабрики по всему миру. Вот-вот должна открыться новая фабрика под Берлином. Но не только наращивает, а еще и удешевляет — но не только за счет масштабирования и автомотизации, но и за счет своих Гигапрессов. Что это такое? Сейчас расскажем!

Tesla заказывает огромные прессы, которые штампуют детали для новых машин. Кстати, их производит одна единственная компания в Италии. Но в чем же их секрет?

Гигантские агрегаты, весом под 400 тонн каждый и размером с маленькую квартиру.

Как же они работают? Сплав алюминия Расплавляется при температуре 850 градусов и начинает закачиваться в пресс по горячим трубам. Из прессовочной формы откачивается воздух, чтобы обеспечить ее равномерное заполнение и для того, чтобы избежать появления оксида алюминия. Расплав впрыскивается в прессовочную форму со скоростью 36 км\ч. Большие давления и высокая скорость заполнения формы позволяют сделать деталь сильно прочнее!

В Model Y, например, это прессование позволило сократить массу автомобиля на целых 10%, увеличить пробег на 14% и ускорить сборку. Ну а самое крутое, что изначально задняя база автомобиля состояла из 70 деталей, сейчас же их просто 3. А в целом количество деталей сократилось на 370 штук. В итоге открываются просто невероятные перспективы в ускорении и удешевлении процесса сборки автомобилей.

Уже подсчитано, что если все наладить, то одна Гигафабрика в Берлине с 10 Гигапрессами будет способна производить около 350 тысяч автомобилей в год! А выплавка одной автомобильной базы занимает всего около 100 секунд!

Та самая итальянская компания заявила, что разрабатывает новый, более мощный пресс для одного важного заказчика — но мы то понимаем для кого. Компания явно делает большую ставку на этих гигантов, ведь уже пошли слухи о появлении новом гигапресса с показателем в 8000 тонн. Все это делает производство, а значит и последующую цену на автомобили дешевле!

И это не говоря о перспективах технологии! Ведь Tesla держит патент на создание всего корпуса автомобиля из одной детали! Только представьте с какой скоростью будут собираться машины! Правда непонтяно как такой корпус чинить от вмятин, может имеется в виду что Tesla к тому времени вообще не будут попадать в аварии?

И тут мы подходим к еще одному пункту машины будущего — к цене. Она до сих отталкивает массового покупателя, а миссия Tesla сделать народный электромобиль, например Model 2, о которой все больше слухов.

Ее ожидаемая стоимость около 20-25 тысяч долларов, уже гораздо ближе к людям! И вполне возможно, что она тоже будет сделана из нержавейки — этакий вечный и доступный электромобиль. И естественно со всеми фишками автопилота!

Но если вспомнить слова Илона Маска — цена на электромобили будет падать, а вот цена автопилота, как услуги будет только расти. Ведь если заглянуть в будущие планы компании, тут вам и огромный парк беспилотных такси. Мало того сами владельцы автомобилей Tesla смогут отпускать свои машины на заработки. Это ли не будущее, когда вы сидите дома на диване, а ваша машина развозит пассажиров по городу и зарабатывает вам деньги?

А как вам идея машины по подписке, где вы платите только за сервисы?

Вывод

Конечно автомобилям Tesla можно предъявить множество претензий — скудный салон, нет знакомых ручек и кнопочек, непонятный новый руль в версии Plaid, переключение передач на экране и включения поворотников на руле. Куда это вообще годится?

Но все это часть их видения! К самой компании нужно относиться не как к автомобильной. Tesla — это технологическая компания, она покоряет рынок не шикарными кожаными салонами, а космическими технологиями, которые и ведут нас в будущее! Tesla по-своему завоевывает рынок, но это работает!

Компания уже является самой дорогой автомобильной компанией в мире, и не просто самой дорогой. Она суммарно дороже чем топ девять компаний под ней и связанно это именно с теми технологиями и перспективами, которые инвесторы видят в будущем в компании.

Ну а в связи с последними новостями о том, что и у нас в стране наконец-то начинают развивать инфраструктуру зарядок для электромобилей, да и сам Маск допустил открытие завода Tesla в России стоит ожидать, что возможно и у нас скоро можно будет отправить свою Model 2 в соседний ларек за шавермой!

Ну и что ж, теперь мы ждем машину от Apple, Google или Amazon! Очень уж интересно что эти ребята смогут нам показать.

Как работает распознавание лиц? Разбор

Сегодня мы поговорим про системы распознавания лиц. Разберем как оно работает поэтапно и попытаемся понять, что с технологией будет в будущем?
aka_opex 7 июля 2021 в 08:18

Среднестатистический человек может идентифицировать знакомое лицо в толпе с точностью 97,53%. Вы скажете, это немало и будете правы. Но это ничто по сравнению с современными алгоритмами, которые добились точности 99,8% еще в 2014 году. А в последние несколько лет они достигли практически совершенства! Современный алгоритм, использующийся в камерах видеонаблюдения в Москве способен обрабатывать 1 миллиард изображений менее чем за полсекунды с точностью близкой к 100%.

Этот алгоритм насколько крут, что уже в этом году в Московском Метро планируют ввести систему прохода по лицу — FacePay. При этом нам обещают, что система будет работать даже если человек в медицинской маске.

Как вы понимаете, жизнь уже не будет прежней. Поэтому давайте разберемся:

  • Как работают алгоритмы распознавания лиц?
  • Страшны ли эти алгоритмы на самом деле и где их применяют во благо?
  • А также поговорим какого будущего нам ждать.

Причины

Технологии машинного зрения и распознавания лиц развивались очень активно с середины прошлого века. Но только сейчас стали по-настоящему хорошо работать. Причин тому три штуки:

  1. Появились действительно мощные компьютеры, способные справиться с задачей. За это спасибо закону Мура.
  2. Появились базы данных с нашими с вами фотографиями. За что спасибо социальным сетям.
  3. Ну и конечно, произошел прорыв в области нейросетей.

Все эти события позволили создать практически идеальные алгоритмы распознавания лиц. Так давайте же разберемся, как они работают.

Этап 1. Обнаружение

В первую очередь, для того, чтобы лицо распознать, надо его сначала обнаружить. Задача на самом деле не тривиальная. Для этого мы бы могли использовать натренированные нейросети, но это слишком долго, дорого и ресурсоемко. Поэтому для обнаружения лица используется очень простой метод Виолы — Джонса, разработанный еще в 2001 году.

Как эта штука работает?

Этот алгоритм просто сканирует изображение при помощи вот таких прямоугольников, они называются примитивами Хаара:

И еще вот таких прямоугольников:

Задача этих объектов — находить более светлые и темные области на изображении, характерных конкретно для человеческих лиц.

Например, если усреднить значения яркости область глаз будет темнее щек или лба, а переносица будет светлее бровей.

В общем таких характерных признаков много и естественно не только у человеческих лиц могут быть подобные паттерны. Поэтому алгоритм работает в несколько этапов:

Сначала находится первый признак, система понимает: «В этой области может быть лицо». Тогда она начинает там же искать второй признак, а потом третий. И если в одной области найдено 3 признака, уже можно уверенно сказать — да, это лицо! После чего система получает область изображения, в котором есть только лицо.

Этап 2. Антропометрические точки

Получив область для анализа, дальше в дело вступает главный секрет каждой системы распознавания — биометрический алгоритм.

Он расставляет на лице антропометрические точки, по которым впоследствии и будут вычисляться индивидуальные характеристики человека: разрез глаз, форма носа, подбородка, расстояние между ними и прочее. Таких признаков может быть много, вплоть до нескольких тысяч. Но в целом, таких точек должно быть как минимум 68.

Этап 3. Исправление искажений

А дальше начинается настоящая магия. В идеале нам нужно лицо, которое смотрит анфас, то есть прямо в камеру. Но такая удача бывает редко, особенно если речь идет о распознавании человека в толпе.

Поэтому система производит дополнительное преобразование изображения: устранятся поворот и наклон головы. А также проводится 3D-реконструкция лица из 2D-изображения. Таким образом, даже если человек на изображении смотрел вбок, мы всё равно можем получить четкий фронтальный снимок, что существенно повышает качество распознавания.

Этап 4. Вектор лица

Ну а дальше происходит самое главное. В бой вступает нейросеть, которая присваивает каждому лицу вектор признаков. Что это такое?

По сути, это просто какое-то число, которое складывается из суммы характеристик лица: расстояний между опорными точками, текстуры определенных областей на лице и прочее. Таких характеристик может быть множество. Основное правило: они должны описывать лицо независимо от посторонних факторов: макияжа, прически, возрастных изменений.

Этап 5. Идентификация

Ну а дальше остаётся сравнить полученный вектор с базой других векторов. И готово. Система вас идентифицировала.

Где и как используется?

Помимо очевидных кейсов применения, помимо обнаружения правонарушителей в общественных пространствах и оплаты билетов в метро. Где и как могут применяться эти технологии?

Во-первых, системы могут быть настроены не на идентификацию а на анализ поведения или настроения. В такси можно можно быстро вычислять неадекватных водителей или пассажиров. В магазинах, можно находить грустных покупателей и повышать уровень сервиса. Ритейлеры одежды или продуктовые магазины используют камеры для анализа поведения покупателя, чтобы проанализировать настроение покупателя на кассе. Или например в школах, можно искать скучающих детей и корректировать программу обучения. Так, кстати уже делают в Китае. Вот такой мир будущего, и мы уже в нём живём не зная этого.

Cisco

Также есть просто огромный пласт применения в бизнесе. К примеру, Cisco активно использует распознавание лиц в своих продуктах для конференций и совместной работы. Например, Cisco Webex умеет распознавать лица сотрудников на больших общи[ онлайн-конференциях и подписывать их имена, что очень полезно для крупных компаний.

Но самая крутая фича — это People Focus. Эта технология распознает лица и силуэты людей и оптимально подстраивает верстку приложения, чтобы всех было видно. И даже если в кадре сидят несколько человек, они всё равно будут распознаны и показаны в отдельном окошке с указанием имени. Вот бы в умные очки такую фичу!

Также распознавание лиц, активно используется не только в приложении Webex, но и в различных Webex-устройствах: это различные умные экраны, моноблоки, веб-камера и прочее оборудование, которое используется в переговорных, конференцзалах или даже индивидуальные кабинеты.

Так при помощи Webex-устройств можно считывать эмоции сотрудников на собраниях, собирать статистику о посещениях и реакции и много всего другого. В общем, ребята точно опережают время в корпоративном секторе.

Что будет в будущем?

Чего же нам ждать в будущем? Распознавание лиц для разблокировки iPhone, входа в Windows или во время конференций — это прекрасная, удобная технология, упрощающая жизнь и мы уже ей пользуемся. Но вот повсеместные камеры наблюдения в городах рисуют в воображении самые мрачные картины в духе Джорджа Оруэлла.

Отсюда возникает вопрос — можно ли защитить себя от систем видеонаблюдения? Конечно, с развитием технологий развиваются и средства обхода этих технологий.

Люди придумывают макияж и украшения, которые сбивают с толку алгоритм обнаружения лиц, тот самый из 2001 года, создают инфракрасные очки, засвечивающие сенсоры камер, а также делают всякую криповую одежду и маски.

Но по большому счету такой лук скорее больше привлечет внимания, а алгоритмы подстроятся под обманки. Поэтому единственный способ защиты — это закон. Бизнес активно не внедряет системы распознавания лиц только потому, что это несет большие юридические издержки. В ЕС активно разрабатывается новый закон, который уже прозвали GDPR 2: он будет строго регулировать системы распознавания лиц и прочие системы искусственного интеллекта, вызывающие законные опасения.

В России с этим пока что не так хорошо. Тем не менее отечественные компании, которые присутствуют на международном рынке также будут вынуждены соблюдать новые правила игры, как произошло с первым GDPR.

То есть, как вы поняли, есть светлая сторона технологии, которая упрощает нам жизнь и темная, что приближает нас к миру большого брата.

Как работают Android-приложения в Windows 11? Разбор

Сегодня мы расскажем о Windows 11 и о том, как работают или, точнее, будут работать Android-приложения на новой ОС от Microsoft.
aka_opex 4 июля 2021 в 09:45

Мы все очень ждали презентации Windows 11, но как-то нам ее подпортили. Незадолго до презентации слили рабочий билд и поэтому во время ивента ничего по-настоящему нового мы не увидели. Кроме одной вещи: Android-приложения на винде!

Вот это было действительно неожиданно. И мы даже успели немного порадоваться, но потом сразу возникли вопросы. А зачем это нужно и как это вообще будет работать?

Ведь не так давно Microsoft сильно облажались со своей Windows на архитектуре ARM, в которой очень плохо работали x86-приложения. А если у них ничего не получилось тогда, то по какой причине получится сделать фактически тоже самое сейчас, но только наоборот?

Разбираясь в этих вопросах мы буквально прозрели. И поняли, что на самом деле у Microsoft очень далеко идущие планы.

Поэтому сегодня мы узнаем как работает Rosetta от Microsoft, а заодно разберемся, чем эмулятор отличается от транслятора? Узнаем, как Windows стал на Линуксом? И поразмышляем о том, как Microsoft планируют завоевать мир?

Эмуляторы

Начнем с небольшой теоретической части. Программы общаются с процессором при помощи определенного набора инструкций. И для каждой архитектуры этот набор инструкций разный. Поэтому для того, чтобы запустить приложение ,написанное под архитектуру ARM на процессоре Intel с архитектурой x86 надо как-то пояснить процессору, что от него хочет чужеродная программа.

Сделать это можно разными способами. И один из самых распространённых — эмуляция.

Например, эмуляторов Android под Windows есть огромное множество. Но в чём же тогда проблема и зачем придумывать что-то еще?

Дело в том, что эмуляторы — неэффективны. По большому счету, эмулятор — это программа, которая прикидывается железом. То есть эмулятор — это софт, который пытается имитировать аппаратную часть платформы.

Программа, засунутая в эмулятор, даже «не понимает», что сейчас она находится в чужеродной среде. Она как Нео внутри «Матрицы». Вроде вокруг реальный мир, но иногда закрадываются сомнения. Потому что-то там подлагивает, подглючивает, ложки гнутся. Ну вы понимаете. А происходит это потому, что эмуляция несёт огромные накладные расходы.

Представьте, чтобы софт 100% правильно работал вам нужно эмулировать целый процессор и поэтому эмуляторы работают медленно.

И ладно, если речь идет про какую-нибудь простенькую восьмибитную консоль типа Dendy. Такие эмуляторы не смотря на тотальную неэффективность, будут работать быстро даже на смартфоне времен Windows Mobile. Но вот эмулировать какой-нибудь процессор Intel куда сложнее.

Отсюда и тормоза в Windows на ARM. Ведь Microsoft использовал именно эмулятор для запуска x86-приложений. Кстати, эмулятор назывался WOW64, но получилось совсем не WOW, как вы знаете.

Более того, до сих пор в Windows на ARM не поддерживается эмуляция 64-битных приложений, только 32-битных, то есть именно x86, а не x64, что еще сильнее усугубляет ситуацию. Но этому есть объяснение.

Эмулятор WOW64 изначально был придуман для запуска 32-битных приложений на 64-битной Windows, то есть под важную задачу Microsoft даже эмулятор новый не сделали, а скорее всего просто модифицировали старый.

Но в прошлом году Microsoft обещали, что поддержка 64-битных приложений появится, и очень скоро. И возможно она будет реализована совсем по-другому.

Как, спросите вы? Давайте для примера вспомним как это сделал Apple при переходе с процессоров Intel на свои собственные чипы на архитектуре ARM. При помощи невероятной штуки под названием Rosetta 2.

Ведь там на ARM’е каким-то чудесным образом запускаются x86-приложения практически без потери производительности.

Транслятор

Что такое Rosetta 2? По научному, — это двоичный транслятор, то есть переводчик. Rosetta просто переводит набор инструкций одной архитектуры в другую и всё.

Но чем же это лучше эмуляции? Дело в том, что эмуляция всегда происходит в реальном времени. А Rosetta переводит приложение заранее во время его установки или при первом запуске.

Поэтому когда пользователь открывает приложения он уже работает с нативным кодом, который исполняется без каких-либо дополнительных издержек. И в итоге все работает почти также быстро, как на родном железе!

Но, естественно, всё не так радужно! Иначе никто бы не собирал разные версии приложений под разные архитектуры. У трансляторов есть серьёзные недостатки.

Во-первых, перевести весь исходный код, исполняемый для целевой архитектуры — это весьма непростая задача, а в большинстве случаев просто невозможная. Некоторые части исполняемого кода доступны лишь во время использования приложения. Поэтому такие части транслируются динамически, «прямо на лету».

И этот процесс называется Just In Time компиляцией. Или JIT-компиляцией.

Естественно, это накладный процесс, но даже его можно оптимизировать. Результирующую последовательность динамического кода можно кешировать. А к фрагментам кода можно применить агрессивную оптимизацию. Поэтому в некоторых случаях, переведенный под другую архитектуру, но при этом оптимизированный код может выполняться даже быстрее оригинального.

И этот эффект я сам постоянно наблюдаю на новых Mac. Например, неадаптированный Блендер, через Rosetta работал быстрее, чем нативно на моем MacBook Pro 16. Но и за это приходится платить. Как думаете чем? Вашим SSD-диском. Переведенный код занимает много места, а динамическое кэширование изнашивает ресурс SSD. В особенности, такой эффект наблюдается на тяжеловесных программах, которые еще не пересобрали под ARM. Поэтому, приходится выбирать либо быстрая работа, либо долгоживущий SSD.

Intel Bridge

Но почему мы так долго говорим про Apple, если мы тут Windows 11 обсуждаем?

Дело в том, что для запуска Android-приложений в новой Windows, Microsoft решили сделать, примерно тоже самое, что сделали купертиновцы.

Вместе с Intel они разработали технологию Intel Bridge, которую они сами называют пост-компилятор. Но, по сути, это такой же двоичный транслятор.

Microsoft описывает эту технологию так:

«Создается нативное прокси-приложение которое, выступает мостиком между моделью приложения Android и моделью Windows приложения».

Иными словами, как и с Rosetta. Приложение будет переведено в нативный код еще на этапе установки. А недоступные фрагменты будут транслироваться на лету.

А с учетом того, что Android-приложения в своей массе достаточно простые почти не возникает сомнений, что с переводом будет всё в порядке.

WSL

В случае Windows, трансляция кода с x86 на ARM — это не основная сложность. Ведь тут еще и несовместимость на уровне ОС.

Android и Windows — это совершенно разные системы. Android основан на модифицированном ядре Linux, а в будущем планирует перейти на чистое ядро Linux. А Windows — это просто Windows. С Linux у Windows нет ничего общего. Так каким же образом тогда будут запускаться Android-приложения?

И вот тут неожиданный момент. Оказывается, еще в 2016 году Microsoft представили подсистему Windows для Linux, Windows Subsystem for Linux или WSL — Windows subsystem for Linux.

Это была специальная подсистема которая позволяла запускать Linux приложения в среде Windows. Система работала хорошо, но медленно, так как она работала поверх ядра Windows NT.

Запросы системы Linux переводились в запросы, понятные ядру Windows, и только потом отправлялись дальше. Это было долго.

Но в 2019 году анонсировали вторую версию подсистемы WSL 2, в которой ядро Linux работает параллельно ядру Windows, что ускорило работу системы в двадцать раз и фактически сделало Windows наполовину Linux.

g

То есть вы правильно поняли, WSL работает и на Windows 10, просто её нужно ставить отдельно. А вот в Windows 11 подсистема Linux будут встроена из коробки.

Как понимаете, наличие полноценного рабочего ядра Linux позволило Microsoft добиться максимальной совместимости с Android-приложениями.

По описанию Microsoft Android-приложения будут вести себя также как и обычные приложения Windows и этому можно верить:

  • Они будут открываться в отдельном окне
  • Можно будет закрепить приложение на панели задач
  • Будет полноценная поддержка: клавиатуры, мыши, тача и даже Bluetooth-наушников.
  • Более того — можно будет перекидываться файлами между Windows и Android-приложениями.
  • При этом уже сейчас Android поддерживает сборку универсальных APK, в которую можно запаковать бинарники как для ARM, так и для x86 архитектур? для чего нужно поставить одну галочку при сборке (разработчики исправьте меня в комментах если я не прав). Поэтому в каких-то случаях может Android-приложения даже не надо будет пропускать через транслятор Intel Bridge.

Да и вообще Android нынче уходит от классических APK и переходит на AAB, но в эту тему мы сейчас не будем углубляться.

Тем не менее, к реализации Android-приложений на Windows остаются вопросы.

Во-первых, что будет с поддержкой Google Play Сервисов? Скорее всего её не будет. Поэтому многие приложения, будут работать неполноценно, либо не будут работать вовсе.

И второй вопрос. А зачем это вообще всё надо? Ведь мобильными приложением на компе пользоваться просто не удобно.

Допустим, на MacBook я могу поставить массу приложений с iOS, но делать этого не хочется. Да на многих Windows-ноутбуках сенсорные экраны, но все равно.

Тогда зачем была проделана вся эта огромная работа по интеграции Linux в Windows, созданию транслятора Intel Bridge, доработки всей этой штуки под Android-приложения?

Будущее Windows

И тут мы готовы высказать смелое предположение. Нам кажется, что поддержка Android приложений это один из этапов полного отказа от ядра Windows NT и перехода на ядро Linux.

Да, это звучит дико. Но во-первых, не мы одни так думаем. Раньше такую же мысль высказал уважаемый человек, евангелист Open Source Эрик Реймонд.

Смотри сами как всё логично:

В мире почти все ОС основаны либо на Unix (как Mac OS) или Linux (Ubuntu, Android и прочее) и только Windows одна такая особенная сидит на своём ядре Windows NT, с которым куча проблем.

Во-первых, его нужно развивать на, что уходит много денег. А Linux-ядро бесплатное.

Во-вторых, в самом ядре куча уязвимостей, которые постоянно нужно прикрывать заплатками.

В-третьих, у Windows ничего не получилось в мобильном сегменте.

В-четвертых, Microsoft уже потратили много лет и ресурсов на создание подсистемы Linux под Windows.

Поэтому переход на ядро Linux вполне логичный шаг. Смотрите, как это может выглядеть:

Сначала мы все переходим на Windows 11 на архитектуре x86. И потихоньку привыкаем, что на Windows нормально работают Android-приложения.

Параллельно, благодаря стараниям Apple, все пилят софт под ARM архитектуру, отчего выигрывает и Microsoft. Поэтому мы потихоньку начинаем переходить на ARM Windows. На которой Android-приложения чувствует себя вообще как родные.

Постепенно Linux ядро становится основной средой, а Windows второстепенной.

А потом ядро Windows NT выпиливается, и Windows становится графической оболочкой для Linux. Ну а на ядре Windows NT остаются работать только серверы и различное оборудование, где наследие старой Windows никак не искоренить.

Это, конечно самый смелый сценарий. Тем не менее, он вполне возможен.

Но даже если этого не произойдёт. В любом случае поддержка Android-приложений — это очень интересный ход. И для Windows на ARM он точно будет полезен, вспоминая планшеты например!

Выводы

Ну и напоследок про сам Windows 11. Мы немного поигрались с новой Windows и у нас сложилось двоякое отношение.

С одной стороны, Windows 11 — это просто «десятка» с новой графической оболочкой. И это немного разочаровывает. Ведь если откинуть ядро Linux, которое теперь будет идти из коробки. Кроме дизайна под капотом не так многое поменялось, зато с совместимостью драйверов вроде проблем нет. Более того, до старого интерфейса, по-прежнему, очень легко добраться.

Тем не менее новый интерфейс действительно симпатичный и понятный.

В нем множество крутых фичей как с меню «Пуск», так и с окнами. Привыкаешь к нему буквально за 10 минут. После чего возвращаться к старому скину совершенно не хочется. Еще раз — получилось красиво и удобно! А значит переход на новую Windows пройдет безболезненно и пользователи в целом останутся довольны. А это уже победа…

А там еще можно вспомнить про новый магазин без комиссии для разработчиков с блэкджеком. Но это уже совсем другая история и другие планы Microsoft по завоеванию мира магазинов приложений и ответ лаунчерам.

Как устроены файлы? Разбор

Сегодня мы залезем в самую суть файлов и раскроем их метаданные! Чем TXT отличается от WAV и ZIP. Что значат буквы ODF и OOXML?
vedensky 21 июня 2021 в 10:22

Файлы… что вообще может быть проще? Мы все привыкли создавать, удалять, редактировать, перекидываться файлами.

Но можем ли мы заглянуть внутрь каждого файла и понять как он устроен? Конечно можем, поэтому сегодня мы немного покопаемся в бинарном коде и пощупаем метаданные.

Заодно узнаем, почему iPhone зависает от SMS и распотрошим PowerPoint.

Почему форматов файлов так много?

Если бы мы просто могли взглянуть на сырые данные, которые хранятся внутри жесткого диска или SSD, то мы бы не увидели никаких файлов: мы бы увидели только нолики и единички. Потому как, в любом случае, в памяти компьютера всё хранится в виде сплошного потока двоичного кода.

Но как же тогда понять, где заканчивается один файл и начинается другой?

Поначалу эту проблему человечество решало брутально. Люди записывали один файл на один жесткий диск, чтобы уж точно не ошибиться. Поэтому раньше словом файл называли не отдельную область на жестком диске, а прям целое устройство. К примеру IBM 305.

CTSS (Compatible Time-Sharing System)

Но потом, люди придумали файловые системы. Если очень упростить, это такое оглавление в котором указано имя файла, где он начинается и его длина. А также всякие метаданные, типа время создания, изменения, и можно ли его перезаписывать.

Но для того чтобы прочитать файл, знать его местоположение и границы на жестком диске недостаточно, ведь нам нужно как-то расшифровать бинарный код.

Для этого и существуют различные форматы файлов. В большинстве операционных систем форматы файлов указываются в виде расширения, которое отделяется точкой от имени файла. А если вы не видите расширения, это нормально. Потому что, по умолчанию, современные ОС их скрывают, но можно поставить галочку в настройках.

Расширение даёт подсказку операционной системе и программам, о том какой тип данных он содержит и как это всё структурировано. Например, увидев файл droider.jpg операционная система и мы, люди, сразу понимаем, что это картинка в формате JPEG.

Естественно, для типов данных и разных задач оптимальной будет разная структура файла. Поэтому и форматов файлов существует огромная масса.

Поэтому давайте разберем, как устроены наиболее популярные форматы файлов от более простых к более сложным.

TXT

Один из самый простых форматов — это TXT. Это текстовый формат. Знаменитое приложение «Блокнот» в Windows работает как раз с этим форматом.

TXT — формат незамысловатый. Он может хранить в себе только простой неформатированный текст, то есть в нем нет никаких выделений, подчеркиваний, курсивов, отступов, разных шрифтов. Только голый текст, а точнее просто символы.

Каждый символ в TXT-формате хранится в виде бинарного кода.

Hello, world!

То что мы с вами видим как осмысленный текст, операционная система видит вот так:

01001000 01100101 01101100 01101100 01101111 00101100 00100000 01110111 01101111 01110010 01101100 01100100 00100001

Каждые 8 цифр, то есть 8 бит этого кода — это отдельный символ.

Например, 01001000 — это “H”, 01100101 — это “e”, и так далее.

01001000 — H

01100101 — e

01101100 — l

01101100 — l

01101111 — o

Но как операционная система расшифровывает эти данные? Всё просто. Операционной системе требуется загрузить таблицу, в которой описано соответствие бинарного кода конкретному символу. Таких таблиц много, самые известные сегодня — CP1251 (Windows), UTF-8 (Android, Mac) и так далее. Такие таблицы, часто называют кодировками. В данном файле используется кодировка UTF-8, то есть 8-битный Юникод.

Unicode Transformation Format, 8-bit — «формат преобразования Юникода, 8-бит»

Подобрав правильную кодировку остается дело техники. Система сопоставляет бинарный код с таблицей кодировки UTF-8 и готово! Но что будет если система подберет кодировку неправильно? Вариантов не много, скорее всего мы увидим крякозябры:

çÁ%%?Œ€Ï?Ê%À (кодировка EBCDIC).

И такое часто случается, так как TXT-файл не содержит никакой дополнительной информации о кодировке. И это большой недостаток формата.

Еще интересный момент. Исторически, компьютеры «знали» только латиницу, которая используется в большинстве европейских языков. И тут произошла проблема: 8-бит — это всего лишь 256 возможных значений. Это немного, но этого было достаточно, чтобы закодировать все базовые символы + латинские буквы.

И вдобавок, эту таблицу нужно было загрузить в оперативную память при загрузке компьютера, а у типового ПК в начале 80-х годов редко было больше 640 килобайт оперативки. А использовать 16-битные таблицы (65536 вариантов) было просто невозможно, такая таблица просто не влезла бы в память.

Но мощность компьютеров росла и проблема ушла. К таблицам с латинскими символами добавились кириллические, которые занимали уже не по 8 бит, а по 16 бит каждый. Поэтому текст на русском занимает в два раза больше памяти, при том же количестве символов.

11010000 10011111 11010001 10000000 11010000 10111000 11010000 10110010 11010000 10110101 11010001 10000010 00101100 00100000 11010000 10111100 11010000 10111000 11010001 10000000 00100001

11010000 10011111 — П

11010001 10000000 — р

10111000 11010000 — и

11010000 10110010 — в

Привет, мир!

Старики помнят лайфхак, если писать SMS на латинице, то влезет в два раза больше текста. Всё это как раз из-за кодировки.

Кстати, помните все эти случаи, когда iPhone умирал от присланного сообщения со странными символами или картинки? Это как раз связано с тем, что система не могла правильно распознать присланные символы и правильно определить их длину.

Например, вот такое сообщение в своё время заставляло любой айфон уйти в цикличный ребут:

Power
لُلُصّبُلُلصّبُررً ॣ ॣh ॣ ॣ

WAV

Так вот, чтобы у операционной системы не было проблем с пониманием как прочитать файл. Помимо самих данных, в разные форматы стали добавлять данные о данных. То есть метаданные, которые хранятся прямо внутри файла и содержат дополнительную информацию о том, как этот файл прочитать.

К примеру, возьмём файл в формате WAV.

Это простой аудиоформат, который содержит несжатый. Всё CD диски записаны в формате WAV.

Первые 44 байта классического WAV-файла содержат заголовок, к котором указывается полезнейшая информация:

  • количество аудио каналов,
  • частота дискретизации,
  • битовая глубина
  • и многое другое.

Все эти данные позволяют быть уверенным, что аудио будет воспроизведено корректно.

Открытые и проприетарные форматы

Структура WAV хорошо известна и наверное такой файл сможет прочитать практически любой плеер. Всё потому, что WAV-файл — это пример открытого формата.

Есть и другие открытые форматы, которыми вы ежедневно пользуетесь. Например:

  • язык разметки web-страниц — HTML
  • картинки — PNG
  • аудио в формате — OGG
  • архива — ZIP,
  • видео — MKV,
  • электронной книги — EPUB
  • и другие…

Но бывают и закрытые форматы файлов, а точнее проприетарные. Открытие и редактирование таких файлов сторонним софтом часто либо вообще запрещено, либо распространяется по лицензиям.

Проприетарные форматы всем прекрасны, но в отдельных случаях они препятствуют конкуренции в сфере программного обеспечения, так как приводят к замыканию на поставщике. Есть даже такой термин Vendor lock-in.

Старый офис

Например, раньше такая ситуация была с форматами Microsoft Office: DOC, XLS, PPT.

Мало того, что это были проприетарные форматы компании Microsoft и работали только с фирменным ПО. Так еще Microsoft постоянно меняли свою структуру файлов от одной версии MS Office к другой. И в результате? при выходе новой версии офисного пакета? файлы из старого редактора уже не читались новым, а наоборот — и подавно.

Такая ситуация не очень нравилась Европейскому Союзу. Поэтому, ЕС взъелся на тему ограничения конкуренции. В итоге, форматы файлов опубличили, и все научились хотя бы их читать, но для записи в старые форматы, по-прежнему, нужна лицензия Microsoft. И параллельно этому начали разрабатываться открытые форматы.

ODF и OOXML

1 мая 2006 года на свет появился формат формат ODF, что буквально расшифровывается как открытый формат документов для офисных приложений. Он был разработан консорциумом OASIS и Sun Microsystems.

  • ODF — Open Document Format for Office Application
  • OASIS — Organization for the Advancement of Structured Information Standards

Формат основан на универсальном языке разметки XML. А сам файл ODF представляет из себя ZIP-архив с папками, XML-файлами и всякими вложениями в виде картинок, видео и прочим. Иными словами, если открыть такой файл через архиватор мы можем спокойно увидеть все внутренности. Вот так пример открытости!

Microsoft тоже не спал. Под давлением Европейского суда они объединились с рядом компаний в ассоциацию ECMA и разработали свой открытый формат Office Open XML, который появился на свет чуть позже в 2006 году.

OOXML стандартизирован European Computer Manufacturers Association. Standard ECMA-376

К привычным форматом конце добавилась буква X и мы получили: DOCX, XLSX, PPTX.

OOXML — Office Open XML (DOCX, XLSX, PPTX)

OOXML, в целом, очень похож на ODF. Он также основан на XML-разметке и также представляет из себя ZIP-архив. Поэтому вы также можете заглянуть внутрь офисных файлов при помощи любого архиватора. Можно даже вытащить картинки и даже подменить их, что бывает особенно удобно при работе с презентациями или когда вам присылают текстовый документ с картинками внутри файла.

Несмотря на кажущуюся простоту, формат реально сложный. Только основная документация — это 5 тысяч страниц. И это практически без картинок.

Тем не менее, кто-то всё таки смог прочитать всю эту документацию и поэтому на свет появились классные офисные пакеты, например МойОфис, которые умеют работать и ODF форматом, и с Office Open XML, и даже с устаревшими форматами типа DOC.

Но есть важная ремарка про старые форматы. Как правило, современный софт умеет их только читать, но не записывать, потому как это действие требует приобретение лицензии Microsoft. Впрочем, в наше время это действие, мягко говоря, бессмысленно.

МойОфис

Перейдём теории к практике. Как видите, форматов файлов много. У всех форматов есть своя специфика и история. Поэтому, если мы говорим про офисное ПО, важно, чтобы оно работало как с можно большим количеством форматов. И что приятно, такой софт есть. Одно из таких приложений сделали нашими разработчики и назвали его МойОфис.

Вообще, МойОфис — это хороший пример, современного приложения. Во-первых, есть бесплатные десктопная и мобильная версии приложения для работы с текстом и таблицами. На секундочку, это не урезанные, полнофункциональные приложения, без рекламы!

Во-вторых, мобильную версию приложения «МойОфис Документы» хочется отдельно похвалить, хотя у него и так высокий рейтинг в AppStore и GooglePlay. Приложение очень удобное и быстрое. Приложение работает со всеми форматами OOXML, OpenDocument, и даже с устаревшими бинарными форматами (DOC, XLS).

А еще все работает в одном приложении. Вместо того чтобы отдельно качать программу для презентаций, таблиц, текста и даже PDF, достаточно поставить «МойОфис Документы» и готово. Почему все так не делают?

Также ребята первыми в мире добавили в офисное приложение функцию аудиокомментариев. Чтобы вы понимали, это не голосовой ввод с клавиатуры, когда просто вводишь текст голосом, то этот голос улетает на расшифровку на сторонние серверы, обрабатывается там и возвращается обратно в виде текста. Тут же всё устроено просто и безотказно: приложение записывает голос и размещает аудиозапись внутри документа. То есть голос не покидает пределов пользовательского устройства, и хранится только внутри самого документа. Прогрессивненько. А что так можно было?

В десктопной версии есть тоже куча мелочей ускоряющих работу:

  • Меню быстрых действий, которое можно открыть сочетанием клавиш [Ctrl]+[/] в любом месте документа.
  • Есть подсказки быстрых клавиш
  • Более удобная работа с абзацами и прочее, прочее.
  • А главное, приложение просто удобное и понятное. Без труда сможет разобраться хоть школьник, хоть бабушка.

В общем, попробуйте программы МойОфис у себя дома и на смартфоне. Вы точно ничего не потеряете, потому как бесплатные версии со всем необходимым функционалом для частного использования и щедрые пробные версии для офисов.

Итого

Что мы в итоге узнали? Файлы бывают нескольких типов:

Самые базовые — бинарные. Такие форматы любят придумывать компании, чтобы никто не понял, как их программы хранят данные.

Более открытый вариант — xml-контейнеры. К счастью, большинство популярных офисных форматов сейчас такие. Если хотите работать со всеми этими файлами хоть дома, хоть на бегу, скачивайте программы МойОфис! На этом у нас сегодня всё.