Тим Кук уходит. Apple делает самый рискованный выбор в своей истории

Apple объявила об уходе Тима Кука: с 1 сентября 2026 года компанию возглавит Джон Тернус. Кук пробыл CEO 15 лет, капитализация выросла в 11 раз.
Павел Ельцов 21 апреля 2026 в 08:11

С 1 сентября 2026 года Apple официально переходит от управленца, который выстроил одну из самых эффективных корпоративных машин в мире, к человеку, чья сила — в создании продуктов. Новость о смене генерального директора в Apple — это скорее история о смене эпохи внутри самой компании, нежели обычная кадровая перестановка.

Тим Кук уходит в момент, когда его наследие практически невозможно оспорить. Приняв компанию от Стив Джобса в 2011 году после его смерти, он фактически сформировал современную Apple в сверхэффективную, масштабируемую и финансово доминирующую корпорацию. Кук сделал Apple не столько изобретателем, сколько идеальным исполнителем. И именно в этом заключается парадокс: модель, которая привела компанию к четырём триллионам долларов, больше не гарантирует ей лидерство в будущем.

На этом фоне выбор Джон Тернус выглядит одновременно очевидным и тревожным. Он не публичная фигура в классическом смысле, но именно под его руководством создавались ключевые продукты последних лет: от Mac на собственных чипах до Apple Vision Pro. Внутри компании его репутация строится на умении доводить сложные инженерные решения до реального массового продукта качестве, которое в Apple всегда ценилось выше громких заявлений. В другой момент времени такой CEO выглядел бы логичным продолжением курса.

Основная проблема в том, что Apple меняет лидера в не самый удобный для этого период. Компания одновременно сталкивается с несколькими вызовами, каждый из которых требует не только инженерного мышления, но и стратегической гибкости. Главный из них — это искусственный интеллект. Пока Google и Samsung уже перестраивают пользовательский опыт вокруг генеративных моделей, Apple Intelligence до сих выглядит осторожной, запаздывающей и откровенно провальной. Сама ситуация уже не про «доработать и догнать» — это борьба за саму логику взаимодействия человека с устройством.

Параллельно компания делает ставку на продукты, которых ещё нет в её текущем портфолио: складной iPhone, умные очки и дальнейшее развитие Vision-линейки. Это уже не эволюция, а попытка нащупать новый источник роста. И здесь возникает ключевой вопрос: способен ли человек, который идеально умеет доводить сложные инженерные проекты до продукта, стать тем, кто будет задавать эти идеи и направления?

Дополняет картину геополитика. Зависимость Apple от китайского производства остаётся её системной уязвимостью, а давление со стороны регуляторов и правительств только усиливается. При этом важно, что Кук не уходит полностью из этой зоны: он остаётся в совете директоров и продолжит заниматься взаимодействием с государствами, регуляторами и ключевыми рынками. Это означает, что значительная часть внешнеполитической и регуляторной функции Apple на ближайшее время остаётся за ним.

Сам факт его присутствия смягчает переход, но не отменяет главного: ответственность за стратегию теперь лежит на новом CEO. И первый же год станет для него проверкой не столько инженерной компетентности, сколько способности управлять неопределённостью.

 

Осенняя презентация может стать символической точкой отсчёта. Если Apple покажет убедительный ответ на ИИ-вызов и намекнёт на новую продуктовую категорию, Тернус начнёт с позиции силы. Если же компания снова будет выглядеть догоняющей, рынок быстро напомнит, что статус самой дорогой компании мира — это не гарантия лидерства, а постоянный экзамен.

В итоге Apple делает ставку на идею, которая уже однажды сработала при Стиве Джобсе: что сильный продуктовый лидер способен переопределить будущее компании. Разница лишь в том, что тогда Apple нужно было выжить, а теперь — удержаться на вершине. И это, как показывает практика, куда сложнее. Будем следить.

Samsung поставит дисплеи для складного iPhone — эксклюзивный контракт на три года

Apple заключила эксклюзивный трёхлетний контракт с Samsung Display на гибкие OLED для складного iPhone. Альтернативных поставщиков нет.
Павел Ельцов 13 апреля 2026 в 11:00

8 апреля корейское издание The Elec сообщило: Apple договорилась с Samsung Display об эксклюзивных поставках гибких OLED-панелей для складного iPhone сроком на три года. Условия выдвинула сама Samsung, Apple их приняла — во многом потому, что альтернативные поставщики, в том числе BOE, не смогли обеспечить требуемый уровень качества. В первой партии ожидается около трёх миллионов панелей.

Парадокс сделки очевиден: Samsung является главным конкурентом Apple на рынке смартфонов и уже много лет поставляет дисплеи для обычных iPhone. Теперь это партнёрство распространяется и на принципиально новую категорию. Складной iPhone по-прежнему ожидается к осени 2026 года вместе с серией iPhone 18 — Bloomberg’s Марк Гурман настаивает, что устройство остаётся в графике, несмотря на инженерные трудности, о которых сообщила Nikkei Asia неделей ранее.

Apple впервые в истории стала лидером рынка смартфонов

Apple впервые возглавила мировой рынок смартфонов в Q1 — 21% против 20% у Samsung. Рынок упал на 6% из-за дефицита памяти.

По данным Counterpoint Research, в первом квартале 2026 года Apple впервые в истории заняла первое место на глобальном рынке смартфонов именно в начале года — традиционно самом слабом квартале для компании. Доля Apple составила 21% при росте поставок на 5% год к году. Samsung оказалась на второй строчке с долей 20% и падением поставок на 6%. При этом весь рынок сократился на 6% на фоне нехватки чипов памяти DRAM и NAND и роста цен.

Драйвером успеха Apple стал устойчивый спрос на серию iPhone 17, агрессивные программы трейд-ин и заметное усиление позиций в Индии, Японии и Китае, где продажи в первые девять недель года выросли на 23%. Samsung, напротив, пострадала из-за задержки запуска Galaxy S26 и слабости в бюджетном сегменте. Примечательно, что Google Pixel показала рост на 14%, а Nothing — на 25%, хотя обе марки работают с куда меньшей базы. Xiaomi просела на 13% — острее всего дефицит памяти ударил именно по чувствительному к цене нижнему сегменту.

Складной iPhone под угрозой срыва — акции Apple рухнули на 4%

Nikkei сообщила о задержке складного iPhone из-за проблем с шарниром и дисплеем. Акции Apple упали на 4%. Bloomberg настаивает на сентябрьском запуск
Павел Ельцов 9 апреля 2026 в 02:00

7 апреля издание Nikkei Asia сообщило: Apple столкнулась с серьёзными инженерными проблемами при разработке складного iPhone. Трудности возникли ещё на четвёртой из шести стадий производственной верификации — в компонентах шарнира и гибкого дисплея. По данным источников в цепочке поставок, «текущих решений недостаточно, нужно больше времени». Акции Apple в ответ упали на 4%.

Тем не менее Bloomberg’s Марк Гурман настаивает: устройство по-прежнему запланировано к анонсу в сентябре вместе с iPhone 18 Pro. Предположительно складной iPhone получит внутренний дисплей диагональю 7,8 дюйма, процессор A19 Pro, 12 ГБ оперативной памяти и батарею ёмкостью от 5 400 мАч. Ожидаемая цена составит около $2 000. Samsung Galaxy Z Fold 8 выйдет в июле, что даёт корейской компании фору минимум в несколько месяцев.

Тарифы Трампа ударили по гаджетам: смартфоны и ноутбуки могут подорожать на 40%

Новые тарифы США грозят поднять цены на ноутбуки на 40%, на смартфоны — на 25–30%. Производители пересматривают прайс-листы. Электроника резко дорожае

В первую неделю апреля вступили в силу новые американские тарифы на импорт электроники, в том числе на устройства из Китая, Вьетнама и Индии. По оценкам аналитиков, розничные цены на ноутбуки способны вырасти в среднем на 40%, смартфоны — на 25–30%. Большинство iPhone производится в Индии и Китае, большинство ноутбуков — во Вьетнаме и Китае.

Apple, Dell, HP и другие производители уже предупредили дистрибьюторов о пересмотре прайс-листов. Часть компаний рассматривает перенос финальной сборки на другие площадки, однако такой переход занимает от одного до трёх лет. На фоне уже существующего дефицита памяти и роста цен на CPU новые тарифы превращают 2026 год в, пожалуй, самый дорогой год для покупки электроники за последнее десятилетие.

Xiaomi хочет чипы каждый год

Xiaomi анонсировала ежегодный выпуск собственных процессоров и ИИ-ассистента для международных рынков.
Павел Ельцов 30 марта 2026 в 07:07

На MWC 2026 в Барселоне президент Xiaomi Лу Вэйбин заявил в интервью CNBC: компания намерена выпускать новый процессор собственной разработки ежегодно. В прошлом году Xiaomi представила первый SoC XRing O1 на 3-нм техпроцессе — и явно не собирается останавливаться.

Амбиции куда крупнее, чем кажется на первый взгляд. В этом году Xiaomi впервые объединит XRing O1, операционную систему HyperOS и собственного ИИ-ассистента в одном устройстве. Пока — только для Китая, но международный выход уже запланирован. Параллельно компания готовит собственного ИИ-агента для зарубежных рынков — он появится вместе с электромобилями Xiaomi в Европе, ожидаемыми в 2027 году. Клуб производителей собственных процессоров — Apple, Samsung, Huawei — пополняется.

Память дороже золота: ИИ убивает доступные смартфоны

ИИ-бум съедает мировые запасы памяти — смартфоны дорожают, бюджетный сегмент исчезает. IDC фиксирует рекордное падение рынка.

Мировой рынок смартфонов переживает крупнейший кризис за десятилетие. Цены на чипы памяти DRAM и HBM почти удвоились только за первый квартал 2026 года — производители памяти массово переориентируются на поставки для дата-центров ИИ, оставляя отрасль смартфонов без комплектующих.

По прогнозу IDC, в 2026 году мировые продажи смартфонов упадут на рекордные 12,9% до 1,12 млрд устройств — минимум за более чем десять лет. Средняя цена аппарата вырастет на 14%, до исторического максимума в $523. Смартфонов дешевле $100 не останется вовсе. Отрасль, десятилетиями жившая за счёт доступного сегмента, оказалась заложником искусственного интеллекта, которому нужна та же самая память.

Металинзы: будущее мобильной фотографии уже наступило

Металинзы тоньше волоса заменят громоздкие объективы в смартфонах. Технология от MIT, Гарварда и Canon — будущее мобильной фотографии без выступающих
Павел Ельцов 18 марта 2026 в 10:39

Мы уже привыкли, что блок камеры смартфона выступает. И если раньше речь шла о нескольких десятых миллиметра, то глядя на iPhone 15 Pro Max, Pixel 8 Pro или Xiaomi 13 Ultra становится страшно.

У всех перечисленных смартфонов камера выступает на полтора миллиметра и больше. Устройство даже можно схватить за блок камеры.

А ведь были времена, когда смартфоны были с камерой заподлицо. Мой любимый пример — HONOR 9. Просто посмотрите, какой красавец он был.

Или вот ещё из нашего телеграм-канала — Red Magic 9 Pro — абсолютно плоский. Но у нас сразу же возник вопрос: «А что там с камерами?» Выглядит как утопия.

И да, нам всё время говорят, что такие гигантские блоки из-за того, что НЕЛЬЗЯ ОБМАНУТЬ ФИЗИКУ. Именно она бессердечная не позволяет нам их сделать меньше.

А что если позволяет? Просто нужен немного иной подход.

И теперь представьте себе ультраширики и зум-объективы толщиной с волос. Кажется, это возможно!

К слову, эту технологию называют SSD в мире объективов!

Сегодня мы поговорим о том будущем, которого лично я жду, и имя ему — МЕТАЛИНЗЫ.

Разберёмся, что это за технология? Как она работает? Где уже применяется и когда ждать её в наших с вами устройствах.

Спойлер! Будет интересно! Ну и без наших людей тут не обошлось.

В чём собственно проблема?

Вернёмся к проблеме. Если коротко, то чем больше матрица, тем больше рабочий отрезок классического объектива. И собственно, сам объектив больше, потому что ему ещё надо как-то фокусироваться. И как следствие: чем больше размер матрицы, тем больше требуется толщина оптических элементов. Это если говорить о классике.

Производители смартфонов стараются её решить по-своему, и один из примеров — это призма или перископическая система линз, которая используется в зум-объективах. Благодаря применению этой технологии мы получаем оптический зум трёх с половиной, пяти или десятикратный без дополнительного увеличения толщины устройства.

И всё же это компромисс.

И тут нам нужно перенестись на семь лет назад — в университет Гарварда, точнее, в его научную лабораторию.

История: прорыв 2016 года

История начинается в 2016 году в Гарварде.

Тогда в журнале Science публикуется исследование про металинзы с видимой длиной волны. Подзаголовок статьи звучит просто и лаконично: «Дифракционно-ограниченная фокусировка и формирование изображений с субволновым разрешением».

Не бойтесь! Сейчас будем разбираться!

Из доклада следует, что учёным из Гарварда удалось сделать металинзу, которая тоньше человеческого волоса. Также в нём отмечено, что многое претерпело изменения в фотомире за предыдущие столетия, но революции в оптических элементах не было.

Что такое металинза?

Итак, что же предлагали учёные из Гарварда: вместо изогнутого куска стекла вы имеете слой прозрачного кварца толщиной с человеческий волос, покрытый миллионами крошечных столбиков диоксида титана. Эти столбики или «башни» расположены в виде узоров. Эти узоры при попадании на них света разрезают его на части и фокусируют. Получается, что каждый узор фокусирует свет разной длины волны, ну или разного цвета в спектре видимого для человеческого глаза света.

Ну прям обложка «Обратной стороны Луны». Эти столбики по сути своей делают с входящим светом то же самое, что и стеклянная линза, только без стекла. И вместо огромного и тяжёлого куска материала у нас тонкий диск размером с лист бумаги.

Помните про жидкие линзы? Кажется, это круче и реалистичнее.

Федерико Капассо и революционная технология

Федерико Капассо, профессор Гарвардского университета, заявил, что считает технологию революционной, ведь уже тогда качество изображений, полученных через металинзу, получилось не хуже объективов камер.

Он же и приводит отличный пример того, как работают металинзы. Представьте себе, что вы опускаете пальцы руки в ручей, и в зависимости от того, как вы их сгибаете, получается, что течение немного меняется. То же самое происходит, если изменять скорость течения.

По этой аналогии поток воды — это свет, а наши пальцы — это столбики на металинзе, которые называются мета-атомы. И конечно, размер и форма наших пальцев также будет влиять на результат. Ну а скорость течения — это почти как длина волны света!

При этом метаповерхности с миллионами таких наностолбиков разной формы позволяют контролировать фазу света, его амплитуду и его поляризацию! То есть фактически позволяют нам контролировать базовые параметры света!

Универсальность технологии

Давайте подведём предварительный итог: у нас получается некая универсальная линза, которая может становиться как выпуклой, так и вогнутой, но при этом не будет менять своей формы — во всяком случае, вы этого не увидите.

То есть, говоря проще, она сможет стать и зумом, и шириком. И фокусироваться тоже сможет!

Компания Metalenz

Кстати, в том же 2016 году появилась компания Metalenz, которую основали Роб Девлин и тот самый Федерико Капассо. Оба из Гарварда.

Компания обосновалась в Бостоне. И совсем недавно этот университетский стартап закрыл второй этап финансирования и получил 30 миллионов долларов. И его финансируют такие компании, как 3M Ventures, Applied Ventures LLC, Intel Capital, TDK Ventures и другие.

У них уже есть решения для смартфонов, AR и VR шлемов, дисплеев, носимых устройств, ноутбуков и планшетов.

Простота производства

Вернёмся собственно к металинзам, точнее, к их плюсам. Дело в том, что кроме крошечного размера и хорошего качества итогового изображения у них есть ещё один несомненный плюс в наше «кремниевое» время — их легко производить в промышленных масштабах.

Они буквально могут изготавливаться в тех же машинах, где и современные процессоры. TSMC, подвинься, нам нужно объективов для смартфонов произвести.

Samsung и заявления 2021 года

Кстати, в 2021 году на своей индустриальной презентации на тему нанотехнологий в Сеуле главы Samsung заявили об исследованиях в области металинз. С целью установки их в смартфоны и возвращения к конструкции устройства без выступающих элементов. Как мы понимаем сегодня, это исключительно блок камеры — больше в современных смартфонах так ничего не торчит и не выпирает.

Но с тех пор прошло уже несколько лет, а устройств всё нет. Получается, заявления Samsung оказались преждевременными?

Возможно. Но нам пора в другой университет — в MIT. Там тоже занимаются исследованием металинз, но у них другой подход и другой результат. А ещё они сравнивают технологию с прожаркой стейка.

MIT и русский учёный: новый подход

Кстати, интересно, что термин «метаматериалы» был придуман ещё в 1968 году советским физиком Виктором Веселаго! Однако до практической реализации было ещё далеко.

Разработка MIT 2021 года

И снова 2021 год. Идея металинз подхвачена инженерами из лаборатории по исследованию материалов (Materials Research Laboratory) в технологическом университете штата Массачусетс, что в Кембридже. Наверняка вы его знаете под названием MIT.

Они продолжили исследования в этой области и тоже смогли создать ультратонкую линзу без движущихся частей, при этом она не подвержена аберрациям и может фокусироваться без изменения физической позиции или своей выпуклости.

При этом фокусировка здесь происходит за счёт изменения температуры материала. Дело в том, что его атомная структура меняется, и метаповерхность перераспределяет свет, фокусируясь на более дальнем объекте. К слову, также это может работать ещё и с зумированием.

Метафора с прожаркой стейка

Интересно, что создатели этой технологии сравнивают её с прожаркой стейка. Они так и говорят: «Вы начинаете с сырого мяса и постепенно доводите до состояния Well Done, но можете выбрать медиум или медиум рэр состояние, остановившись на нём». Так и металинзы в будущем смогут позволить примерно на таком же уровне контролировать фокусное расстояние или автофокусировку.

Михаил Шалагинов

Кстати, эта метафора принадлежит Михаилу Шалагинову — учёному в области нано-оптики и мета-материалов, научному сотруднику MIT и выпускнику МФТИ.

Михаил Шалагинов — ведущий учёный в области нано-оптики и мета-материалов, научный сотрудник MIT, выпускник МФТИ, доктор физико-технических наук (PhD), со-основатель компании 2Pi Optics, занимающейся разработкой ультра-компактных оптических устройств на основе металинз.

Справедливости ради, Михаил всё же трудится в составе большой международной команды внутри MIT.

Отличия от разработки Гарварда

Чем отличается разработка команды MIT от Гарварда? В первую очередь, углом обзора. Прошлая наработка давала минимальный угол обзора в 60 градусов — это примерно соответствует полнокадровому объективу 35 миллиметров.

А разработка MIT показала, что можно делать ультраширокоугольную и даже Fish-Eye оптику. Забегая вперёд, они и телевик тоже сделали.

Что для этого надо? Кусок прозрачного стекла и нанесение на него метаматериала, но какого.

Материал GSST

Для своих металинз в MIT создали метаматериал с красивым названием GSST, но его формула на самом деле вот такая: Ge₂Sb₂Se₄Te.

Итак, у нас тут на атомарном уровне есть германий, сурьма (или антимонит), селен и теллур.

Это соединение обладает низкими оптическими потерями на длине волны 5,2 микрометра. Это так называемый ИК-диапазон.

И команде из MIT, судя по статье, которая вышла в июне 2022 года, удалось сделать аж две конструкции зум-металинз для достижения оптического увеличения в видимом и среднем ИК-диапазонах. Правда, тут же отмечено, что оба прототипа были монохроматическими, то есть чёрно-белыми.

В общем, вы поняли: металинзы пока чёрно-белые, но исследования идут полным ходом, да и учёные стремятся сделать их цветными с помощью других метаповерхностей. Но главное тут другое — кроме шириков уже есть ультраширики и зум-объективы.

DARPA: военное применение

И тут в нашем рассказе появляется компания DARPA, или, по-русски, Управление перспективных исследовательских проектов Министерства обороны США.

Если коротко, то исследование и разработка VR и AR ещё двадцать лет назад было под руководством DARPA. Экзоскелеты — тоже они. Шутка ли, но говорят, что DARPA приложила руку к созданию шутеров от первого лица типа Call Of Duty.

В общем, DARPA обычно в интересах национальной безопасности вписывается в разработку таких суперперспективных проектов, делает продукты для своих нужд, а уже потом многие решения становятся, скажем так, гражданскими.

Презентация DARPA Forward 2023

Тут на самом деле достаточно коротко. В феврале 2023 года DARPA провела свою презентацию, посвящённую национальной безопасности.

Мероприятие называлось DARPA Forward, и во время него доктор Рохит Чандрасекар, программный менеджер, ответственный за научные исследования в области обороны США, показал миру наработки в области металинз и представил рабочий прототип телескопа.

Судя по всему, этот малыш уже работает в NIR или ближнем инфракрасном диапазоне. Это первый телескоп с единственной метаповерхностью. И на него сняли NGC7000 или туманность Северная Америка.

Тут любопытно не зум и не качество — оно, кстати, весьма неплохое. Интересно, откуда сняли эту туманность: Кембридж, Массачусетс.

Пожалуй, это повод поговорить о применении металинз.

Где применять металинзы?

Ну, первое мы уже увидели — телескопы, причём как наземные, так и космические. Наверняка вы смотрели про телескоп Джеймса Уэбба, а теперь представьте, насколько можно уменьшить его вес уже сейчас, используя металинзу? Да, размер поверхности объектива не изменится, зато толщина и, как следствие, вес станет на порядок меньше!

Второе — конечно, смартфоны. Это то, с чего я начал: только представьте смартфон с тремя, четырьмя объективами с разным фокусным расстоянием, и при этом камера не будет выступать из корпуса. Утопия? Похоже, что нет.

Идём дальше? VR и AR — очевидно: можно значительно уменьшить все оптические сенсоры и камеры. И конечно, линзы для глаз, которые занимают много места! А для очков типа AR это вообще будет спасением, так как вместе с микролед-экранами позволит уменьшить размер и матриц, и самих линз.

То же самое с экшн-камерами, где размер суперкритичен. А в медицине можно уменьшить эндоскопы.

И теперь моё любимое, которое, судя по всему, тоже увидим в ближайшее время: объективы фотоаппаратов.

Да, с чего мы начали, к тому и пришли — революция в мире фото. И это не пустой звук, потому что.

Canon и производство металинз

На выставке Canon Expo 2023, которая прошла в городе Йокогама, японская компания показала свои наработки в области металинз.

Это довольно закрытое мероприятие, но мы знаем, что были показаны оптические элементы, то есть собственно МЕТАОБЪЕКТИВЫ от Canon. Но главное — компания показала свою машину по производству металинз.

Помните, я пошутил про TSMC? Кажется, Canon хочет стать как TSMC в мире чипсетов, ну или Sony Semiconductor в мире мобильных сенсоров.

В общем, у Canon уже есть машина для нанопечатной литографии. Это такая литография, когда рисунок на поверхность переносится не светом, как в машинах ASML, а фактически штамповкой! То есть структура как бы прессуется на поверхности!

Только такая штамповка — это создание структур размером в несколько десятков нанометров с невероятной точностью!

Эта технология называется Nanoimprint Lithography.

Дальше думайте сами, куда метят эти парни. Программа-минимум — сделать какой-нибудь супертелевик с фокусным расстоянием 500 или 1000 миллиметров размером с небольшой объектив.

Говорят, что технологии, показанные на форуме Canon Expo, обычно через пару лет выходят в свет. Что ж, посмотрим.

Актуальное состояние технологии

По состоянию на февраль 2026 года технология металинз перешла от лабораторных экспериментов к реальным коммерческим продуктам.

Samsung и POSTECH: прорыв августа 2025 года

13 августа 2025 года в престижном научном журнале Nature Communications была опубликована совместная работа Samsung Electronics и Университета POSTECH под названием «Compact eye camera with two-third wavelength phase-delay metalens».

Ключевые достижения:

  • Разработана ультракомпактная инфракрасная камера для глаз в XR-устройствах
  • Толщина камеры уменьшена на 20% — с 2,0 миллиметра до 1,6 миллиметра
  • Угол обзора составляет 120 градусов
  • Улучшение MTF (Modulation Transfer Function) с 50% до 72%
  • Снижение соотношения сторон наноструктуры до примерно 1:5

Инновация в дизайне. Команда впервые в мире предложила метод достижения дифракции света, используя фазовую задержку всего в две трети длины волны вместо полной. Это позволило значительно снизить высоту наноструктур без ущерба для оптических характеристик.

Будущие планы. Технология планируется к расширению на видимый спектр света и применению для минимизации выступа камеры в смартфонах и миниатюризации AR/VR-устройств.

Metalenz: массовое производство

18 августа 2025 года компания Metalenz объявила о расширении своего продуктового и патентного портфеля, который теперь включает метаповерхностные технологии и системные приложения для безопасной биометрии.

Достижения:

  • Более 140 миллионов метаоптических элементов уже интегрированы в потребительские устройства
  • Портфель насчитывает более 150 патентных заявок и выданных патентов
  • Запущено решение Polar ID — полностековое биометрическое решение для распознавания лиц
  • Партнёрство с UMC для массового производства

Polar ID. Это ультра-безопасное, компактное и доступное решение для аутентификации по лицу для потребительских устройств, которое использует уникальные возможности метаповерхностей по сортировке поляризованного света.

Рыночная оценка. Сторонние исследования Yole Group подтвердили наличие метаповерхностей в смартфонах и планшетах от ведущих OEM-производителей, что подтверждает широкое массовое внедрение этой новой оптической технологии. Рынок метаповерхностей, по прогнозам, превысит $2 миллиарда.

MetaOptics на CES 2026

8 декабря 2025 года сингапурская компания MetaOptics (Catalist: 9MT) анонсировала представление пяти революционных продуктов на основе металинз на CES 2026 (6-9 января 2026, Лас-Вегас, стенд 60213-7).

Продукты:

  1. 5G-смартфон с металинзами
  • Ультратонкий оптический модуль без выступающей камеры
  • Термостойкий дизайн на основе стекла
  • Бесконтактный 3D-биометрический сканер отпечатков пальцев на основе металинз
  • Процессор Qualcomm Dragonwing QCM6490
  1. AI-очки с металинзами
  • Процессор Qualcomm AR1 Snapdragon
  • Компактная цветная камера на основе металинз
  • Точное отслеживание и захват изображений
  • Интуитивное управление жестами
  1. Пикопроектор 2-го поколения
  • Вдвое меньше предшественника
  • USB-C подключение
  • Бесшумная безвентиляторная работа
  • Низкое энергопотребление
  1. Улучшенный алгоритм повышения резкости изображения
  • Разработан в партнёрстве с тайваньской компанией, специализирующейся на ИИ и машинном обучении
  • Работает на GPU Nvidia
  • Улучшает качество цветных изображений с IoT-камер
  1. Большая прямоугольная металинза на 12-дюймовой стеклянной пластине
  • Демонстрация масштабируемости производства

Заявление CEO. «Мы продолжаем прокладывать новые пути и раздвигать границы технологии металинз, переопределяя возможное в повседневных электронных устройствах», — сказал исполнительный председатель и CEO MetaOptics Тхнг Чон Ким.

Многослойные металинзы

22 сентября 2025 года учёные из ARC Centre of Excellence for Transformative Meta-Optical Systems опубликовали исследование в Optics Express о новом подходе к многослойным металинзам.

Прорыв:

  • Использование нескольких слоёв метаматериалов вместо одного
  • Преодоление фундаментальных ограничений фокусировки множественных длин волн
  • Алгоритмический подход создал сложные наноструктуры в форме клеверов, пропеллеров и квадратов
  • Независимость от поляризации
  • Улучшенная масштабируемость производства

Размеры наноструктур: около 300 нанометров в высоту и 1000 нанометров в ширину. Во-первых, у нас есть как минимум пара университетов, которые исследуют металинзы. И эти университеты одни из самых крутых в мире! Во-вторых, несколько стартапов, один из которых уже активно получает инвестиции и имеет более 140 миллионов своих продуктов в реальных устройствах. И, в-третьих, гиганты Samsung и Canon — уже в деле, причём последние не только делают металинзы, но и создают всё для их производства.

Но главное — технология уже вышла из лабораторий в реальные продукты.

Что мы получаем?

На CES 2026 (январь 2026) были представлены первые коммерческие смартфоны с металинзами без выступающих камер. Это уже не прототипы, а демонстрационные устройства, готовые к производству.

Samsung опубликовал исследование с 20% уменьшением толщины камер и планирует применение в видимом спектре для смартфонов.

Metalenz имеет более 140 миллионов своих метаоптических элементов в реальных устройствах — массовое производство уже идёт полным ходом.

Идеальная картинка

Идеальная картинка выглядит так: смартфон с сенсором от Sony, металинза от Canon или Metalenz. Ну, в большинстве флагмансов.

С другой стороны: флагманы Samsung с сенсорами ISOCELL, собственными металинзами и для широты картины Exynos под капотом. Кажется, это может влететь корейцам в копеечку.

По состоянию на февраль 2026 года будущее с невыступающими камерами в смартфонах уже не за горами — оно наступило. Первые коммерческие образцы показаны на CES 2026.

Ожидаемые сроки массового внедрения: 2026-2027 годы. Учитывая, что на CES 2026 уже показаны работающие прототипы, а Samsung и Metalenz активно ведут разработки, первые массовые смартфоны с металинзами могут появиться уже к концу 2026 — началу 2027 года.

Подозреваю, что через пару лет будем доплачивать за металинзы в смартфонах и за красивую плоскую заднюю стенку. В общем, за эстетическое удовольствие придётся заплатить, но в данном случае я точно не против!

Заключение

Металинзы — это не просто футуристическая концепция. Это реальность февраля 2026 года:

  • Более 140 миллионов метаоптических элементов уже в устройствах (Metalenz)
  • Первые коммерческие смартфоны без выступающих камер показаны на CES 2026 (MetaOptics)
  • Samsung продемонстрировал 20% уменьшение толщины камер (август 2025)
  • Canon производит оборудование для массового изготовления металинз
  • Технология работает не только в ИК, но и в видимом спектре

Революция в мобильной фотографии происходит прямо сейчас. И она обещает вернуть нам те самые красивые плоские смартфоны, о которых мы мечтали, глядя на HONOR 9.

Будущее уже здесь. И оно тоньше человеческого волоса.

Почему китайские смартфоны снимают лучше iPhone: вычислительная оптика, диффузионные модели и конец эпохи A-брендов

Почему китайские смартфоны снимают лучше iPhone? Разбираем алгоритмы Vivo, диффузионные модели BokehDiff и революцию в мобильной фотографии.

Последние несколько лет с камерами в смартфонах происходит нечто странное. Устоявшиеся лидеры рынка — Apple, Google, Samsung — словно застряли на месте. Каждое новое поколение приносит косметические улучшения: чуть больше мегапикселей, чуть точнее автофокус, чуть лучше ночной режим. Но прорыва, сопоставимого с тем, что когда-то совершил портретный режим или ночная съёмка на Pixel, не было уже давно.

А вот китайские производители — Vivo, OPPO, Xiaomi, Huawei — за тот же период совершили колоссальный рывок. Они больше не догоняют западных и корейских конкурентов. Они задают тренды.

Возникает закономерный вопрос: что происходит? Почему китайские компании так резко вырвались вперёд? Что они делают принципиально иначе? И самое главное — действительно ли речь идёт о технологическом прогрессе, или же всё это не более чем ловкий трюк с нейросетями?

В этом материале мы подробно разберёмся в ситуации. Значительная часть анализа будет посвящена компании Vivo — не в порядке рекламы, а потому что именно на примере их технологий проще всего проследить, куда движется вся индустрия мобильной фотографии. Vivo открыто публикуют свои научные работы, их инженеры охотно отвечают на вопросы, а количество накопленного исследовательского материала позволяет провести по-настоящему глубокий разбор.

Мы объясним, как устроен «китайский» портретный режим и почему смартфоны внезапно научились безупречно обрабатывать каждый волосок на голове модели. Поговорим о главной болезни современных камерофонов — так называемой нейромазне: откуда она берётся и почему раздражает пользователей. А в конце попробуем ответить на вопрос, который многие задают уже вслух: стоит ли Apple, Google и Samsung начинать нервничать? Или, быть может, уже поздно.

Информация, собранная в этой статье, уникальна — часть данных получена напрямую от инженеров Vivo Camera Research и не публиковалась ранее в русскоязычных источниках.

Вычислительная оптика: как всё началось

2016 год. Apple совершают очередную «революцию». В iPhone 7 Plus появляется вторая камера на задней панели — телефото-модуль. По меркам того времени решение далеко не очевидное. Но именно с этого момента принято отсчитывать эпоху вычислительной оптики в мобильной фотографии.

Чтобы понять, почему это событие стало столь значимым, необходимо вспомнить базовые принципы. Фотографии, сделанные большими профессиональными камерами, привлекают нас по нескольким причинам: высокая детализация, точная цветопередача, широкий динамический диапазон. Но главное — характерное, приятное глазу размытие фона, известное как боке.

По первым трём параметрам — детализации, цветам и динамическому диапазону — мобильные камеры к тому моменту уже довольно близко подобрались к профессиональным. В этом помогли быстрые процессоры и всё более совершенные алгоритмы обработки. Однако боке — это явление чисто оптическое. Для того чтобы получить красивое, естественное размытие фона, необходим большой объектив и большой сенсор. Разместить всё это в тонком корпусе смартфона физически невозможно. Таковы законы оптики, и никакая инженерия не способна их обойти.

Но маркетинг Apple, образно говоря, не привык считаться с подобными ограничениями. Было объявлено, что отныне iPhone снимает как профессиональная камера. Так родился знаменитый портретный режим.

Портретный режим: первые шаги

Идея, реализованная в Купертино, была элегантна в своей простоте: раз получить красивое боке оптическим путём невозможно — попробуем вычислить его математически.

Когда смартфон пытается программно имитировать размытие фона, перед ним встаёт одна главная задача: понять трёхмерную структуру сцены. Иными словами, необходимо построить так называемую карту глубины. Это чёрно-белое изображение, в котором закодировано расстояние от каждой точки сцены до объектива камеры. Чем светлее пиксель — тем он ближе к камере; чем темнее — тем дальше.

Возникает ключевой вопрос: откуда вообще взять эти данные о расстоянии? У человека для определения глубины есть два глаза, работающих совместно. Apple пошли тем же путём: раз у iPhone теперь две камеры сзади — почему бы этим не воспользоваться?

Так в портретном режиме iPhone начал снимать сцену одновременно на две камеры и по разнице между полученными изображениями вычислять карту глубины — по принципу стереоскопического зрения, свойственного человеку.

Однако полученная таким образом карта оказывалась весьма грубой. Поэтому Apple сразу дополнили систему алгоритмами машинного обучения, призванными сгладить края и исправить наиболее очевидные ошибки.

Результат получился… терпимым. При условии, что зритель не всматривается слишком пристально. Первые версии портретного режима работали исключительно с лицами людей. Алгоритм старался удерживать в фокусе лицо, а всё остальное аккуратно замыливал — во многом для того, чтобы замаскировать огрехи сегментации и неточности в карте глубины.

Иными словами, несмотря на громкие маркетинговые заявления, до реальной замены большой оптики было ещё очень далеко.

Google Pixel 2: вторая камера не нужна

Прогресс, однако, не стоял на месте. Уже через год в игру вступила компания Google со своим Pixel 2 — и продемонстрировала, что для создания портретного размытия вторая камера вообще не обязательна.

Вместо неё инженеры Google использовали фокусировочные субпиксели единственного сенсора — технологию PDAF (Phase-Detect Auto-Focus, фазовый автофокус). Суть её в том, что каждый пиксель матрицы фактически разделён на два субпикселя. Камера получает два почти идентичных изображения, между которыми существует микроскопический параллакс — ничтожный сдвиг, обусловленный тем, что свет попадает на каждый субпиксель под чуть разным углом.

Этой минимальной разницы между двумя изображениями оказалось достаточно, чтобы строить карту глубины не хуже, чем у iPhone. То есть тоже — весьма посредственно.

В последующие годы все производители двигались по накатанной колее. Алгоритмы становились умнее, сегментация — аккуратнее, края — чище. К двум камерам добавлялся LiDAR-сканер (Apple), Time-of-Flight сенсоры (Samsung, Huawei), всё более сложные нейросетевые модели для определения глубины.

Но за почти десять лет ни один производитель так и не научился идеально имитировать реальную оптику.

Портретный режим оставался инструментом «для домашнего альбома и социальных сетей». Приемлемым — но далёким от совершенства. Любой, кто хоть раз всматривался в границы между объектом и размытым фоном на портретном снимке со смартфона, видел характерные артефакты: ореолы вокруг волос, размытые кончики ушей, резко «обрезанные» контуры плеч.

Vivo входит в игру

И тут к игре подключилась компания Vivo. Без громких пресс-конференций, без обещаний революции, без хвастливых слайдов с надписью «лучшая камера в истории» — их смартфоны просто начали фотографировать на уровне, который заставил индустрию обратить внимание.

Размытие — естественное. Каждый волосок, каждая ниточка, каждая шерстинка — идеально проработаны. Количество ошибок сведено к минимуму. Некоторые кадры откровенно трудно отличить от снимков, сделанных на полноценную беззеркальную камеру.

Как компания, которую за пределами Китая многие знают лишь понаслышке, сумела сделать то, что лидеры рынка не добились за десять лет?

Логичное предположение: они нашли способ строить идеальную карту глубины. Но нет. Ответ оказался куда более неожиданным.

В Vivo честно признали: построить точную карту глубины на смартфоне — задача нерешаемая в принципе. Ограничения, заложенные в самой физике маленького сенсора и короткого базиса между камерами, не позволяют этого сделать. Но вместо того чтобы биться головой о стену, инженеры Vivo нашли обходной путь.

Они решили создавать весь размытый фон целиком. Генерировать его с нуля.

Да, именно так. Тот красивый размытый фон на портретных снимках со смартфонов Vivo — это не результат «умного» размытия исходного изображения. Это генерация. И, забегая вперёд, скажем, что размытие — далеко не единственное, что генерируется.

Но прежде чем хвататься за сердце и обвинять Vivo в «нейросатанизме», стоит разобраться в том, как именно работает эта технология. Потому что она, по существу, гениальна.

Диффузионные модели: почему боке на смартфонах не работало

Чтобы понять, в чём заключается прорыв Vivo, необходимо сначала осознать, почему все предшествующие методы имитации боке неизбежно давали сбой.

Ахиллесова пята всех существующих алгоритмов программного размытия — это области с так называемым разрывом глубины. Границы, где происходит резкий переход от близких объектов к дальним: контур головы на фоне далёкой стены, пальцы руки перед размытым пейзажем, прядь волос, выбившаяся из общей массы.

Именно на этих границах даже самые продвинутые алгоритмы начинают давать ошибки. Причина фундаментальна: все существующие методы строго опираются на карту глубины. Если в карте есть неточности — а они неизбежны, — то неточности возникнут и в размытии. Избежать этого практически невозможно в местах, где присутствует множество мелких деталей: волосы, мех, ветви деревьев, складки ткани.

В результате алгоритм попадает в одну из двух ловушек.

Либо он размывает то, что размывать нельзя — и вокруг объекта появляется характерный мутный ореол, «свечение», которое мгновенно выдаёт программную природу размытия.

Либо, напротив, не размывает то, что следовало бы — и по контуру объекта возникают жёсткие, неестественные края, словно фигуру вырезали ножницами и наклеили на размытый фон.

Самое обидное в этой ситуации — всё остальное может быть сделано безупречно: экспозиция, цвета, общая композиция, характер размытия вдали от границ. Но эти мелкие дефекты на переходах мгновенно бросаются в глаза и разрушают всю иллюзию.

У Vivo же — именно там, где все прочие спотыкаются, — внезапно всё работает. Как?

Ответ связан с технологией, которая в последние годы перевернула всю индустрию генеративного искусственного интеллекта. Речь о диффузионных моделях — тех самых нейросетях, на которых построены Midjourney, Stable Diffusion и их многочисленные аналоги. Именно они генерируют бесконечные потоки изображений: от фотореалистичных портретов до фантастических пейзажей.

Рассуждение инженеров Vivo было логичным: если диффузионная модель способна генерировать любые изображения в высоком разрешении с впечатляющей детализацией — почему бы не обучить её генерировать изображения с оптически корректным размытием?

Так появился алгоритм BokehDiff.

Как работает BokehDiff

BokehDiff — это диффузионная модель, построенная на базе архитектуры Stable Diffusion XL. Разработчики этого не скрывают: соответствующая научная работа опубликована в открытом доступе на arxiv.org и была принята на конференцию ICCV 2025 — одну из наиболее авторитетных площадок в области компьютерного зрения.

Однако работает BokehDiff совершенно нестандартно.

Для понимания необходимо кратко напомнить, как функционируют обычные диффузионные модели. По своей сути это чрезвычайно продвинутые системы подавления шума, наделённые, образно говоря, богатым воображением.

Базовый принцип прост. Модели предъявляется изображение, состоящее из случайного шума, и даётся указание: «На этой картинке — суслик. Убери шум и покажи суслика». Модель шаг за шагом удаляет шум, на каждом этапе «воображая» всё больше деталей. Через сотню, две сотни, пять сотен итераций шум исчезает — а суслик действительно появляется.

Существует и другой сценарий использования. Берётся готовое изображение в низком качестве, к нему добавляется шум, а затем модели сообщают: «На самом деле это превосходная фотография в высоком разрешении. Просто шум мешает её разглядеть». Нейросеть послушно удаляет шум и попутно дорисовывает детали, которых в исходном изображении не существовало.

Но в этом подходе кроются две фундаментальные проблемы.

Во-первых, диффузию невозможно применить «чуть-чуть». Каждый раз, добавляя шум к изображению, мы разрушаем его исходную структуру и затем собираем заново. В процессе картинка неизбежно меняется: модель привносит собственные «фантазии», искажает детали, подменяет текстуры.

Во-вторых, сотни итераций — это огромные вычислительные затраты. Для серверных GPU это терпимо, но для мобильного процессора — совершенно неприемлемо. Пользователь не станет ждать минуту, пока смартфон обработает портретный снимок.

Требовался алгоритм, который работает быстро, не фантазирует лишнего и при этом соблюдает физику оптического размытия.

И здесь инженеры Vivo в буквальном смысле перевернули саму идею диффузионных моделей.

Они решили вообще не добавлять шум к исходному изображению. Вместо этого они взяли чёткую, необработанную фотографию — без каких-либо изменений — и «сказали» нейросети: «Это зашумлённая версия снимка с боке. Найди этот шум и удали его. Но главное — сделай всё за один проход».

С точки зрения нейросети, чёткое изображение — «неправильное». Оно «испорчено шумом», который скрывает под собой «истинную» размытую версию. Задача сети — найти этот «шум» и удалить его. И попытка — всего одна.

Результат превзошёл ожидания. Никаких сотен итераций. Никаких неконтролируемых фантазий. На выходе — аккуратное, визуально убедительное боке за один вычислительный шаг.

PISA: физика на страже реализма

Но одной лишь генерации недостаточно. Принципиально важно, чтобы размытие выглядело не просто красиво, а оптически корректно — как у настоящей камеры с большим объективом.

Поэтому в архитектуру BokehDiff встроен специализированный модуль, выполняющий роль строгого надзирателя за физической достоверностью результата. Он называется PISA — Physics-Inspired Self-Attention, «физически вдохновлённый модуль самовнимания».

Чтобы понять его роль, нужно знать, что в обычных диффузионных моделях механизмы самовнимания (self-attention) отвечают за общее понимание структуры изображения. Они следят за композицией и обеспечивают целостность: без них нейросеть могла бы нарисовать глаз «где-нибудь» в произвольном месте; с ними она понимает, что глаз должен располагаться строго определённым образом относительно носа, рта и другого глаза.

В BokehDiff модуль самовнимания выполняет иную задачу. PISA следит не за композицией картинки, а за физикой размытия, контролируя соблюдение трёх ключевых принципов.

Первый принцип — сохранение энергии (Energy-Conserved Normalization). Свет не возникает из ниоткуда и не исчезает бесследно. Когда пиксель размывается, его яркость не пропадает — она перераспределяется между соседними пикселями. PISA следит за тем, чтобы суммарная яркость сцены оставалась неизменной. Это устраняет тёмные пятна и засветы, типичные для программного размытия.

Второй принцип — ограничение кругом нерезкости (Circle-of-Confusion Spatial Constraint). В реальной оптике всё устроено просто: чем дальше объект от плоскости фокусировки, тем сильнее он размывается. PISA воспроизводит эту зависимость программно. Модуль берёт карту глубины, выбранную точку фокусировки и виртуальную диафрагму, после чего для каждого пикселя рассчитывает допустимый радиус размытия. В итоге степень размытия не скачет хаотично от пикселя к пикселю: объекты вблизи фокуса остаются чёткими, удалённые плавно уходят в боке, а размер кружков нерезкости определяется значением виртуальной диафрагмы — в точности как у настоящего объектива.

Третий принцип — маска самоокклюзии (Self-Occlusion Mask). Это, пожалуй, самый важный из трёх. PISA следит за тем, чтобы размытый фон не «наезжал» на объекты переднего плана. Модуль попиксельно строит маску видимости, определяя, что принадлежит переднему плану (и должно располагаться «поверх» всего), а что является фоном (и уходит на задний слой).

Именно благодаря маске самоокклюзии алгоритм столь успешно справляется с волосами, шерстью, нитками и полупрозрачными деталями — теми самыми элементами, на которых неизменно спотыкались все предшествующие методы. Границы остаются чистыми, без ореолов и грубых краёв.

И ещё одно важное следствие: даже если карта глубины содержит ошибки (а она неизбежно их содержит), на финальном результате это почти не сказывается. Почему? Ответ — в том, как модель обучали.

Как приручить BokehDiff: секрет обучающих данных

Классическая проблема в мире нейросетей — качество обучающих данных. Чтобы обучить алгоритм уровня BokehDiff, в идеале необходимы тысячи, а лучше десятки тысяч идеальных пар фотографий: одна — полностью резкая, и она же — с настоящим оптическим боке, снятая в абсолютно идентичных условиях.

Где взять такой массив данных? Снять его на реальную камеру невозможно: между двумя кадрами камера неизбежно чуть сдвинется, изменится освещение, подует ветер — а для обучения критична даже минимальная разница между парами. Создать датасет средствами трёхмерного рендеринга тоже не выход: сгенерированные сцены выглядят неестественно и «пластмассово», а обученная на них модель будет плохо работать с реальными фотографиями.

Инженеры Vivo нашли остроумное решение. Раз они и так работают с диффузионными моделями, способными генерировать фотореалистичные изображения, — почему бы не сгенерировать идеальный обучающий датасет? Процесс был устроен следующим образом. Сначала было собрано большое количество реальных, высококачественных фотографий фонов, снятых с максимальной резкостью и глубиной. Затем поверх этих подлинных фонов с помощью диффузионных моделей генерировались фотореалистичные объекты переднего плана: люди, животные, предметы — причём сразу с альфа-каналом, то есть с идеально проработанной прозрачностью и краями. После этого фон размывался физически корректным образом — с учётом точно известных параметров: расстояния до каждого объекта, диафрагмы, фокусного расстояния.

В результате получился датасет, о котором можно только мечтать: идеальные пары фотографий — резкая и размытая версии — с любой диафрагмой на выбор и безупречной маской сегментации.

Но самое интересное — и самое принципиальное — решение последовало далее. В реальности ничего идеального не бывает. Карта глубины, которую смартфон строит в полевых условиях, всегда содержит ошибки, шум и неточности. Поэтому при обучении инженеры начали целенаправленно портить карту глубины, подаваемую на вход модели. Вносили ошибки, шум, снижали точность и разрешение — имитируя те несовершенства, с которыми алгоритм неизбежно столкнётся в реальной жизни.

В результате BokehDiff научился не полагаться слепо на карту глубины и не «паниковать» из-за ошибок, а принимать решения по контексту — опираясь на своё «понимание» того, как должно выглядеть оптически корректное размытие. Именно поэтому на практике алгоритм демонстрирует поразительную устойчивость к неточностям входных данных.

Можно без преувеличения сказать, что BokehDiff — это прорыв в вычислительной оптике, которого индустрия ждала почти десять лет.

Тем не менее необходимо сделать оговорку. На момент публикации этого материала (середина 2025 года) BokehDiff используется только в новейших флагманах Vivo 300-й серии, и то не во всех режимах. К примеру, портретная съёмка на фронтальную камеру по-прежнему опирается на более ранние методы обработки. Но компания заявляет о планах по значительно более широкому внедрению алгоритма в будущих устройствах.

Нейромазня: слон в комнате

BokehDiff — далеко не единственная нейросеть, работающая в камерах смартфонов Vivo. И если портретное размытие вызывает преимущественно восхищение, то другие нейросетевые модели порождают куда более противоречивые чувства.

Прежде чем перейти к деталям, уместен вопрос: откуда вообще стало известно, что именно алгоритм BokehDiff используется в смартфонах Vivo — и конкретно в моделях X300 и X300 Pro?

Ответ прост. Был отправлен запрос напрямую одному из авторов научной работы — ведущему инженеру подразделения Vivo Camera Research. И он ответил. Более того, он не только подтвердил предположение относительно BokehDiff, но и предоставил информацию о четырёх других моделях, которые уже функционируют в камерах смартфонов Vivo прямо сейчас.

Все четыре модели, как и BokehDiff, являются диффузионными. Но есть принципиальное отличие: они не размывают детали, а, напротив, дорисовывают их.

Модель первая: TSD-SR — универсальное сверхразрешение

TSD-SR (One-Step Diffusion with Target Score Distillation for Real-World Image Super-Resolution) — алгоритм повышения чёткости и детализации. Он работает практически постоянно, обрабатывая все фотографии целиком — вне зависимости от режима съёмки.

Как и BokehDiff, модель функционирует в один шаг, что делает её примерно в сорок раз быстрее аналогичных диффузионных алгоритмов сверхразрешения. При этом, согласно опубликованным бенчмаркам, TSD-SR демонстрирует лучшее качество среди всех конкурирующих методов.

Результаты действительно впечатляют. На сравнительных иллюстрациях, приведённых в научной работе, видно, как алгоритм восстанавливает мельчайшие текстуры оперения птиц, структуру радужной оболочки глаза, узоры на крыльях бабочек — детали, которые в исходном изображении были либо смазаны, либо отсутствовали вовсе.

Модель вторая: TriFlowSR — сверхразрешение для архитектуры

TriFlowSR (Ultra-High-Definition Reference-Based Landmark Image Super-Resolution with Generative Diffusion Prior) — узкоспециализированный алгоритм сверхразрешения, предназначенный исключительно для архитектурных объектов.

Результаты этой модели выглядят почти невероятно. Размытые, едва различимые декоративные элементы зданий — лепнина, черепица, резьба по камню — после обработки приобретают такую степень детализации, что возникает ощущение, будто фотография была переснята с близкого расстояния.

Отдельного внимания заслуживает сравнение с универсальным TSD-SR на тех же архитектурных сценах: специализированная модель неизменно выигрывает. Это объясняет, зачем в смартфон необходимо интегрировать сразу несколько разных нейросетей: универсальный алгоритм в принципе не способен достичь того качества, которое обеспечивает модель, обученная на узком классе изображений.

Модель третья: TADiSR — сверхразрешение для текста

TADiSR (Text-Aware Real-World Image Super-Resolution via Diffusion Model with Joint Segmentation Decoders) — ещё один специализированный алгоритм, на сей раз ориентированный на текст в изображениях.

Номера домов, уличные вывески, надписи на этикетках — всё, что при цифровом увеличении обычно превращается в нечитаемую кашу, TADiSR аккуратно восстанавливает, возвращая буквам чёткие очертания. Практичная и полезная технология, не вызывающая никаких этических вопросов.

Модель четвёртая: AuthFace — и тут начинаются проблемы

AuthFace (Towards Authentic Blind Face Restoration with Face-oriented Generative Diffusion Prior) — модель реконструкции лиц. И именно на ней Vivo, мягко говоря, споткнулись.

Когда смартфон дорисовывает детали архитектуры или повышает чёткость текста — никто не возражает. Пользователи рады дополнительным деталям. Но когда нейросеть начинает «работать» с лицами людей, отношение меняется кардинально.

Что, как правило, первым делом делает новый владелец смартфона Vivo? Ищет способ отключить все бьютификации и нейросетевую дорисовку лиц. Профильные форумы переполнены жалобами и рецептами «как это выключить». Увы, сделать это безболезненно и без компромиссов — практически невозможно.

Но в чём причина недовольства? Неужели алгоритм плох? Отнюдь. С технической точки зрения AuthFace — один из лучших в своём классе. На сравнительных иллюстрациях из научной работы хорошо видно: там, где конкурирующие модели (GFP-GAN, CodeFormer, DR2, BFRffusion, SUPIR) выдают откровенные артефакты и деформации, AuthFace показывает весьма достойный результат.

Но — не идеальный. И в этом заключается ключевая проблема.

Если нейросеть дорисовала лишнюю травинку на газоне или несуществующую текстуру на кирпичной кладке — это, по большому счёту, никого не волнует. Но если она добавила или изменила хотя бы одну деталь на лице — морщину, родинку, форму брови — это ошибка, которой нет прощения. Человеческий мозг натренирован распознавать лица с невероятной точностью, и любое, даже незначительное отклонение от ожидаемого вызывает мгновенное ощущение «неправильности».

Аналогия с кулинарией здесь напрашивается сама собой. Нейросети в камере — как приправы в блюде. Применённые уместно и в меру, они превращают пресную кашу из серых пикселей во вкусную, аппетитную фотографию. Но стоит переборщить — и блюдо становится несъедобным.

У китайских производителей уже есть все необходимые ингредиенты. Осталось лишь немного подправить рецепт — найти правильный баланс между агрессивной обработкой и естественностью. Впрочем, не исключено, что дело попросту в различии вкусов: внутренний рынок Китая традиционно благосклонен к заметной обработке лиц, тогда как западная и российская аудитория предпочитает естественность.

Аппаратный фундамент: железо и оптика

Если до сих пор речь шла преимущественно о программных алгоритмах, то теперь пришло время взглянуть на аппаратную составляющую — и понять, почему крупнейшим брендам действительно есть о чём беспокоиться.

На протяжении многих лет Apple, Samsung и Google продавали по премиальной цене довольно среднее — по нынешним меркам — железо. Сенсоры в их смартфонах меньше, чем у китайских конкурентов. Оптика слабее: хроматические аберрации, потеря резкости по краям кадра и, в случае Apple, ставшие притчей во языцех блики от ярких источников света.

Справедливости ради, долгое время это работало. За счёт превосходных алгоритмов обработки, мощных специализированных чипов и жёсткой вертикальной интеграции аппаратного и программного обеспечения те же iPhone, пусть и не блистая по «железным» характеристикам, стабильно выдавали качественный и, что не менее важно, предсказуемый результат. Пользователь знал: нажал кнопку — получил хорошую фотографию. Без сюрпризов.

Сейчас ситуация изменилась. iPhone стабильно уступают китайским флагманам в слепых сравнениях фотографий. Причём речь не только о Vivo — они проигрывают практически всем: Huawei, Xiaomi, OPPO и даже OnePlus.

В области видеосъёмки iPhone пока удерживает позиции — это правда. Однако разрыв стремительно сокращается. И на то есть объективные причины.

Китайские производители за последние годы совершили качественный скачок не только в нейросетевых алгоритмах, но и в аппаратной части — буквально по всем фронтам.

Возьмём Vivo в качестве примера. Компания не просто приобретает «с полки» самый дорогой и крупный сенсор, доступный на рынке, и устанавливает его в смартфон. Vivo совместно с Sony и Samsung проектируют сенсоры по собственным техническим заданиям. Иными словами, сенсоры заточены под конкретный конвейер обработки изображений, используемый в их устройствах.

Аналогичная ситуация с оптикой. Vivo разрабатывают оптические модули самостоятельно, а также — если верить маркетинговым материалам — в сотрудничестве с немецкой компанией ZEISS. Вне зависимости от степени участия ZEISS, главное остаётся фактом: оптика кастомная, созданная под конкретные задачи, а не взятая из каталога стандартных компонентов.

Но, пожалуй, наиболее примечательные вещи происходят в области специализированных чипов обработки изображений.

Два ISP-чипа: VS1 и V3+

В модели X300 Pro установлены сразу два процессора обработки изображений (ISP — Image Signal Processor), разработанных собственным подразделением Vivo.

Первый — VS1. Он отвечает за предварительную обработку: экспозицию, автофокус, HDR-стекинг (объединение нескольких кадров с разной экспозицией), первичное шумоподавление. VS1 работает ещё до того, как фотография «станет» фотографией. Он анализирует сцену в реальном времени, помогает правильно экспонировать кадр, навести фокус и собрать максимально чистые исходные данные. Именно поэтому уже «на входе» у Vivo картинка отличается высоким качеством.

Кроме того, VS1 отвечает за превью в приложении камеры. Благодаря этому пользователь видит на экране смартфона практически финальный результат — включая портретное размытие в реальном времени, — ещё до нажатия кнопки спуска. Долгие годы эта функциональность была эксклюзивной прерогативой Apple.

Второй чип — V3+. Он отвечает за постобработку: берёт на себя все наиболее сложные и ресурсоёмкие задачи, в том числе запуск всех описанных выше нейросетевых алгоритмов — BokehDiff, TSD-SR, TriFlowSR, TADiSR, AuthFace.

Интеграция в Dimensity 9500: переломный момент

Однако самое важное событие произошло в 2025 году. Vivo заключили соглашение с компанией MediaTek, и чип V3+ был интегрирован непосредственно в системный чипсет Dimensity 9500.

Это означает, что процессор обработки изображений теперь находится на одном кристалле с центральным процессором, графическим ядром, памятью и всей остальной логикой — и выполнен по самому передовому на сегодня техпроцессу: 3 нанометра.

Практические следствия этого решения значительны. Максимальная скорость обработки при минимальном энергопотреблении и нагреве. Минимальные задержки при передаче данных между компонентами.

Результаты ощутимы на практике. Смартфон меньше нагревается при длительной работе камеры. Быстрее снимает и обрабатывает кадры. И может позволить себе такую роскошь, как запись 4K-видео в портретном режиме при 60 кадрах в секунду. Или запись 4K LOG с частотой 120 кадров в секунду — напрямую во внутреннюю память. iPhone на момент публикации этого материала подобных возможностей не предоставляет.

Прежде встроить кастомный ISP непосредственно в систему на кристалле могли позволить себе лишь Apple (со своими чипами серии A и M), Samsung (с линейкой Exynos) и отчасти Google (с процессорами Tensor, хотя, справедливости ради, это не помогло им совершить прорыв в качестве фото). Теперь в этом элитном клубе — и Vivo.

Более того, Vivo не закрывают доступ к своему ISP для других производителей, использующих платформу Dimensity 9500. Возможно, именно поэтому OPPO Find X9, построенный на том же чипсете, фотографирует на уровне, вплотную приближающемся — а порой и превосходящем — результаты самого Vivo. Вероятно, свою роль играет и собственное партнёрство OPPO с Hasselblad.

Главное наблюдение: судя по темпам прогресса, китайские производители не собираются останавливаться.

Стоит ли выбрасывать iPhone?

Итак, напрашивается вопрос: настало ли время массово переходить на китайские смартфоны и отказываться от Apple, Google и Samsung?

Ответ — нет. По крайней мере, не для всех.

В формате «достал и снял, не задумываясь о настройках» iPhone и Google Pixel по-прежнему остаются чемпионами. Особенно iPhone — это, пожалуй, самая удобная, самая надёжная и, что критично для многих пользователей, самая предсказуемая камера на рынке. Вы знаете, какой результат получите. Каждый раз.

С китайскими флагманами, особенно с Vivo, придётся потрудиться. Разобраться в многочисленных настройках, которых там действительно много. Сделать сотни тестовых снимков. Понять, какой режим и для какой сцены лучше подходит. Найти оптимальный баланс нейросетевой обработки — или научиться её отключать.

Но если вам интересна мобильная фотография как таковая, если вы готовы экспериментировать с настройками, изучать возможности камеры и стремитесь к максимально возможному качеству снимков со смартфона — китайские бренды сегодня заслуживают самого пристального внимания.

По крайней мере, в области фотографии они объективно опережают нынешних лидеров рынка на пару поколений. И куда вся эта история приведёт нас дальше — пожалуй, самый интригующий вопрос, ответ на который ещё только предстоит узнать.

История фотовспышки: от взрывоопасных порошков до умных светодиодов

История фотовспышек: от взрывоопасного магниевого порошка до умной подсветки в смартфонах. Как эволюция освещения изменила фотографию.
Павел Ельцов 25 февраля 2026 в 06:25

На что вы готовы ради крутой фотографии? Готовы, например, рискнуть здоровьем? А люди в 19 веке были готовы. Первые вспышки для фотографий буквально взрывались. Да, это не шутка. В конце позапрошлого века приходилось использовать химические порошки — они воспламенялись и создавали яркую вспышку света, но были настолько опасны, что могли вызвать ожоги или даже небольшой пожар, если их неосторожно использовать.

Как работали химические вспышки до 20 века? Как выглядели первые такие устройства в классических камерах? Как и какие технологии дошли до телефонов и смартфонов? И наконец, самое странное: как связана фотовспышка и «Звёздные войны»?

Сегодня мы буквально осветим путь к отличным фотографиям.

Первые шаги: История появления вспышек

Представьте: середина 19 века. Мы на заре фотографии. В крупных городах начинает появляться всё больше диковинных лавочек — фотоателье.

В эти места люди приходили, чтобы запечатлеть воспоминания о важных моментах жизни, да и вообще, чтобы прикоснуться к этой новой моде — фотографии.

Зависимость от естественного света

Первые фотоателье старались открывать в местах с отличным освещением. Старые студии, в том числе и самая первая фотомастерская в Российской Империи, открытая в 1840 году Алексеем Грековым, были больше похожи на мастерские художников. Обычно они были залиты естественным светом из больших окон и стеклянного потолка. Основным источником света было солнце, и рабочие часы студии были лимитированы погодой и временем суток. Ведь все знают, что главный враг любого фотографа — низкая освещённость. И какое-то время с этим приходилось мириться.

Друммондов свет

Отдельные умельцы, конечно, использовали друммондов свет. Это такой тип освещения на основе нагрева негашёной извести.

Свет в этом устройстве получался с помощью кислородно-водородного пламени, направленного на цилиндр из оксида кальция. Соответственно, оксид кальция начинал нагреваться, а он может нагреваться до белого каления и при этом не плавиться. Но больше такие системы были популярны в театрах того времени.

Магниевая проволока

Популярнее среди фотографов к 60-м годам 19-го века стало использование для освещения магниевой проволоки. Особенно распространён такой способ искусственного освещения был в Англии.

Он довольно бесхитростный. Скрученную ленту или проволоку из магния просто поджигали обычной спичкой, и она горела примерно минуту, выделяя при этом яркий свет. В это время и делался снимок.

Но это всё ещё была не совсем «вспышка». Ведь вспышка — это нечто мгновенное и яркое. Поэтому часто историю фотовспышек начинают с применения магниевого порошка, а не проволоки.

Рождение настоящей вспышки: магниевый порошок

Вообще, взрывать порошок магния было довольно очевидной идеей, но долго не получалось делать это эффективно и хотя бы чуть-чуть безопасно.

Долгое время учёные и инженеры не могли найти идеальное сочетание порошков. Получилось это в 1887 году у Адольфа Митте и Йоханнеса Гедика. Получившийся продукт назвали флэш-порошком, и он стал основным источником искусственного света для получения фотоснимков на много лет вперёд. Собственно, тогда и возник сам термин «вспышка».

Как работали первые вспышки

Магниевый порошок стал важной деталью фотоэпохи того времени — именно такие взрывающиеся вспышки мы видим в фильмах про конец девятнадцатого — начало двадцатого века.

Как работали первые вспышки? Порошок насыпался на полку специального держателя и поджигался пистонным или кремниевым механизмом. При поджиге порошок быстро воспламенялся, ярко вспыхивал, громко хлопал и заполнял любое помещение невероятным количеством дыма.

Опасности и ограничения

Казалось бы, эффект достигнут! Но такой способ был невероятно травмо- и пожароопасным. Вдобавок процесс съёмки со вспышкой был очень грязным в прямом смысле слова. Облако дыма от вспышки, рассеявшись под потолком помещения, вскоре выпадало в виде белого порошка, оседая на одежде.

Фотографы того времени, снимавшие со вспышкой на светских приёмах, сразу после снимка спешили скрыться, пока не обнаружился скандал из-за чьего-то испорченного костюма.

По этой причине, а также из-за пожарной опасности, во многих местах фотосъёмка со вспышкой вскоре была запрещена.

Долгая жизнь магниевых вспышек

Несмотря на это, магниевые вспышки использовались вплоть до середины двадцатого века. Причина проста: порошок был довольно дёшевым. Новые же технологии с применением одноразовых флэш-ламп были дорогими, и не все фотолюбители могли их себе позволить.

Кроме того, магниевые вспышки давали мягкий свет, плавно затухающий к краям, что сложно повторить даже с современными софтбоксами.

Однако с 1930-х годов более удобные и безопасные вспышки начали вытеснять пиротехнические.

Эволюция: флэш-лампы

На замену магниевому порошку пришли флэш-лампы. Что это такое и как работает? Обычно устройство представляет собой запаянный баллон с кислородом и пониженным давлением. Внутри чаще всего находилась горючая фольга или, чуть позже, специальный горючий скомканный тонкий провод и пара контактов, соединённых с цоколем.

Выглядит так, будто кто-то просто засунул фольгу в обычную лампу накаливания. Фактически, это и есть просто лампочка, только имеющая целью быструю, яркую и мощную вспышку вместо долгого горения.

Пресс-камеры и журналисты

Первые такие лампы стали популярны среди журналистов в так называемых пресс-камерах. И вы наверняка видели такие в кино.

Кстати, о кино. История, которую нельзя обойти стороной.

Связь со «Звёздными войнами»

Перед вами, пожалуй, самая знаменитая камера фирмы Graflex. Вы наверняка её видели. Не узнаёте? Присмотритесь. Да, это рукоятка светового меча из «Звёздных войн».

Роджер Кристиан, декоратор оригинального фильма, в поисках реквизита наткнулся на старенькую пресс-камеру сороковых годов, а Джон Стирс превратил вспышку этой камеры в рукоять самого культового в массовой культуре оружия.

Принцип работы флэш-ламп

Извините, мы немного отвлеклись. Так как же работали флэш-лампы?

При подаче на контакты электрического импульса фольга загорается, кислородная среда помогает ей сгореть быстро и ярко, а пониженное давление должно защитить от взрыва колбы.

Но у этого подхода есть существенный недостаток. Уже догадались? Да, такая лампа вспыхивает ровно один раз.

Решения проблемы одноразовости

И производители предлагали самые разные способы решения этой проблемы.

Интересное решение предложила компания Kodak — флэшкубики, которые ставились на популярные тогда фотоаппараты Instamatic. Позже и другие компании стали предлагать что-то подобное.

Эти кубики были условно многоразовыми и состояли из четырёх флэш-ламп. Поставил — сделал кадр — повернул — снова сделал кадр. Один кубик, четыре вспышки.

Таких полумногоразовых вспышек было выпущено немало. Например, компания General Electric выпускала свой вариант под названием Flip-Flash. Это были такие картриджи, в них около десяти ламп, которые срабатывали по очереди. Вставляешь картридж — и можно фотографировать, пока все лампы не израсходуются.

Такой подход для создания искусственного освещения был популярен довольно долго, пока на смену флэш-лампам наконец не пришли электронные вспышки.

Электронные вспышки

На самом деле электронные вспышки появились ещё в тридцатых годах, но популярность набрали только во второй половине двадцатого века.

Ксеноновые вспышки

Первые электронные вспышки были ксеноновыми. Ага, как фары в автомобилях.

Как это работает? Такие вспышки накапливают заряд в конденсаторе и разряжают его на лампу. Импульсная лампа — это запаянная трубка с газом и электродами.

Но почему именно ксенон? Он удобен своими свойствами, в первую очередь — спектром, который почти равномерно заполняет видимый диапазон.

Синхронизация с затвором

Импульсные лампы создают мощный свет на доли секунды. Причём очень важна синхронность, ведь нужно, чтобы вспышка сработала одновременно с открытием затвора камеры. Иначе она может погаснуть, пока затвор ещё не полностью открыт. В итоге освещённой будет только часть кадра.

Синхронизация вспышки с затвором гарантирует, что всё происходит в правильном порядке. Сначала открывается затвор, потом срабатывает вспышка, и только после этого затвор закрывается.

Выдержка синхронизации

Однако это не всегда возможно. Есть такое понятие, как «выдержка синхронизации».

Когда выдержка становится короче 1/200 или 1/500 секунды, шторки затвора начинают двигаться не последовательно, а следуют друг за другом, оставляя узкую щель. Чем короче выдержка, тем уже эта щель.

Выдержка синхронизации — это как раз та минимальная выдержка, при которой затвор успевает полностью открыться до срабатывания вспышки.

При коротких выдержках всё усложняется. Чтобы использовать вспышку с выдержкой короче синхронизации, существуют технологии высокоскоростной синхронизации. Суть заключается в замене одного мощного импульса на серию быстрых, но более слабых.

Автоматика TTL

Все параметры можно настроить вручную, но современные вспышки могут предложить и более умный подход. Он называется TTL (Through The Lens — через объектив).

Может, вы замечали, что вспышка иногда как будто моргает дважды? Вот это как раз TTL.

Вспышка по команде от камеры делает предварительный слабый импульс, по которому камера рассчитывает необходимую мощность, после чего передаёт вспышке настройки и уже производит съёмку.

Светодиодные вспышки

Чуть позже появился ещё один вид электронных вспышек — светодиодные. Светодиод не вспыхивает и гаснет на манер импульсной лампы, зато его можно довольно быстро зажечь и погасить. Количество выделяемого света, конечно, сильно меньше, чем от ксеноновой лампы, однако иногда и этого оказывается вполне достаточно.

Сегодня для профессиональных фотографов светодиоды не являются заменой импульсных ламп для вспышек, но заняли определённую нишу — они особенно распространены в телефонах.

Вспышки в телефонах: Рождение камерофонов

В начале 2000-х годов производители мобильных телефонов начали интегрировать камеры в свои устройства.

Sharp J-SH04

Первым коммерчески успешным телефоном с камерой был Sharp J-SH04. До этого, конечно, был ещё Kyocera VP-210, но мы говорим о первом удачном таком устройстве. А продавался Sharp действительно неплохо, что на самом деле удивляет, учитывая то, как пугающе выглядит его реклама.

Это была простенькая камера, она могла снимать только низкокачественные изображения. Никакой вспышки, конечно же, не было.

Sony Ericsson T68i

Важной вехой в истории вспышек в мобильной фотографии стал Sony Ericsson T68i. Причём это очень интересно. Впрочем, смотрите сами.

Заметили что-то странное? Да, в самом корпусе телефона не было даже камеры. Она была отдельным устройством и подключалась через специальный порт внизу гаджета. И вот уже в этом внешнем девайсе была вспышка.

Качество снимков всё ещё оставляло желать лучшего, но подход был очень интересным.

Помните, несколько лет назад все носились с идеей модульных смартфонов? Ну да: всё новое — это хорошо забытое старое.

Sharp J-SH53

Такие аксессуары выпускали и для других телефонов, а вот уже более привычный подход использовала Sharp в своём J-SH53.

Это один из первых телефонов с интегрированной вспышкой, сделавший фото в условиях слабого освещения реальностью. Вышло это чудо техники всего 21 год назад, в 2003 году.

В этом телефоне, как и во многих более поздних моделях, использовался один простой светодиод. Этого какое-то время было достаточно, но с ростом требований к качеству фотографии стало необходимо двигаться дальше.

Nokia и ксеноновые вспышки в телефонах

В 2007 году Nokia, тогда ещё мощный игрок рынка, затевает небольшую революцию в мобильных вспышках.

Был представлен Nokia N82, один из первых телефонов с ксеноновой вспышкой. Но несмотря на отличное качество освещения, такие вспышки быстро исчезли из телефонов из-за своих недостатков. Они занимали больше места, потребляли много энергии и требовали времени для перезарядки между снимками. Это сделало их менее практичными по сравнению со светодиодными вспышками, которые продолжали развиваться.

Развитие светодиодных вспышек в смартфонах

Многие производители начали экспериментировать с добавлением нескольких светодиодов. Это позволяет улучшить качество освещения и осветить объект более равномерно.

iPhone 5S и True Tone

Например, в iPhone 5S, который вышел в далёком 2013 году, была вспышка с несколькими светодиодами, что обеспечивало лучшую цветопередачу и яркость. Apple называет это True Tone вспышками.

Принцип простой — один светодиод излучает холодный белый свет, а другой — тёплый. Это позволило устройству подбирать баланс освещения в зависимости от окружающих условий, делая фотографии более естественными.

Современные решения

Современные смартфоны используют тройные или даже четверные вспышки. Они работают в комплексе с камерами, позволяя динамически подстраиваться под условия съёмки — от ночных режимов до портретов.

Конечно, нельзя не упомянуть Nothing Phone с подсветкой Glyph. Да, технически это уже и вспышкой назвать нельзя. Это скорее заполняющий свет, и он больше нужен для видео, чем для фотографии. Хотя и в режиме вспышки тоже работает.

Роль искусственного интеллекта

Плюс не обошлось без ИИ. В современных флагманах используются интеллектуальные алгоритмы для управления вспышкой. Алгоритмы подбирают не только яркость и цветовую температуру, но и учитывают расстояние до объекта и наличие окружающего света.

Будущее вспышек

Несколько светодиодов и изменение температуры цвета — это безусловно здорово и позволяет делать действительно хорошие снимки, но что нас ждёт в будущем?

Интеграция с датчиками

Вероятно, вспышки будут всё более интегрированы с датчиками камеры, такими как сенсоры глубины и LiDAR. Это позволит не только улучшить качество освещения, но и более точно подсвечивать объекты на основе их формы и расстояния до камеры.

Возможное исчезновение физических вспышек?

Вы удивитесь, но некоторые эксперты прогнозируют, что физические вспышки в смартфонах могут и вовсе постепенно исчезнуть. Кажется, это всё же маловероятно. Но благодаря развитию ночных режимов и технологий улучшения съёмки при низкой освещённости, таких как Google Night Sight, Apple Night Mode и другие, камеры действительно могут обходиться без вспышек в большинстве случаев, используя искусственный интеллект для увеличения яркости и чёткости без лишнего света.

Смешанная реальность

А вдруг завтра вообще наступит светлое будущее с повсеместным применением технологий смешанной реальности? Тогда нам нужна будет такая вспышка, которая работает с AR и учитывает не только физические объекты, но и виртуальные элементы в кадре. Но это всё пока что фантазии.

Заключение

Вспышки прошли огромный путь от опасных магниевых взрывов до умных и безопасных светодиодных систем. Технология, которая когда-то требовала специальной подготовки и создавала множество проблем, теперь интегрирована в наши смартфоны.

И на примере развития вспышки можно заметить, насколько ниже становился порог входа в фотографию буквально с каждым десятилетием.

От опасных химических взрывов в 19 веке до интеллектуальных систем освещения в современных смартфонах — история фотовспышки отражает общий технологический прогресс человечества. То, что когда-то было доступно только профессионалам, готовым рисковать здоровьем, сегодня находится в кармане каждого владельца смартфона.

Фотография стала по-настоящему массовой именно благодаря таким, казалось бы, незаметным технологическим достижениям, как эволюция вспышки. И кто знает, какие новые открытия ждут нас в будущем — возможно, через несколько лет мы будем с улыбкой вспоминать сегодняшние светодиодные вспышки так же, как сейчас вспоминаем взрывающийся магниевый порошок.