До недавнего времени гуманоидный робот был предметом роскоши — уделом крупных корпораций, государственных лабораторий и венчурных стартапов с неограниченным финансированием. Ценники начинались от пятидесяти тысяч долларов и уходили в бесконечность. Затем появилась компания из Ханчжоу, которая решила, что это неправильно.
Unitree Robotics — один из самых неочевидных феноменов современной робототехники. Основанная в 2016 году, компания сегодня насчитывает более пятисот сотрудников и занимает около семидесяти процентов мирового рынка четвероногих роботов. Тем не менее широкой публике она известна прежде всего по вирусным роликам: роботы-акробаты, собаки-каратисты, человекоподобные машины, исполняющие народные танцы на китайском телевидении.
Секрет успеха компании прост и труднодостижим одновременно: Unitree производит роботов, которые по возможностям не уступают конкурентам, а по цене — превосходят их в разы. Робособака Go2, выполняющая примерно восемьдесят процентов задач флагманского Spot от Boston Dynamics, стоит от 1 600 долларов — тогда как Spot обойдётся покупателю в 74 500 долларов. Это не просто конкурентное преимущество: это принципиально иная философия продукта.
Человек, который строит роботов дешевле всех
За этой философией стоит конкретный человек — Ван Синсин, основатель и генеральный директор Unitree. Родившийся в 1990 году, он с детства отличался тем, что плохо давались гуманитарные предметы и превосходно — всё, что можно было разобрать, собрать или смастерить. Учитель английского прямо говорил его родителям: сын «глуповат». Между тем в начальной школе тот собирал автомобили с ветровым двигателем, в средней — уже с турбореактивным. Однажды едва не отравил семью хлором, проводя электролиз воды на кухне.
Первого двуногого робота Ван Синсин построил на первом курсе института — за двести юаней, то есть примерно за тридцать долларов. Из инструментов под рукой были только дрель, ножовка и ножницы. Настоящую известность ему принесла магистерская работа в Шанхайском университете: четвероногий робот XDog. Ключевое решение, которое тогда же определило всю последующую стратегию компании, — вместо дорогостоящей гидравлики, которую использовала Boston Dynamics, Ван выбрал электроприводы. Это позволило радикально снизить стоимость конструкции без принципиальных потерь в функциональности.
XDog не просто закрыл диплом: разработка выиграла восемьдесят тысяч юаней на местном конкурсе робототехники — около тринадцати тысяч долларов по тогдашнему курсу. С таким портфолио Ван без труда устроился в DJI, мировых лидеров в производстве дронов. Но задержался там ненадолго: видеозаписи с XDog разошлись по сети, на молодого инженера посыпались предложения от инвесторов. В 2016 году он уволился и основал Unitree Robotics. В феврале 2025 года Ван Синсин был представлен Си Цзиньпину — рядом стоял Жэнь Чжэнфэй, основатель Huawei.
Как устроена компания: вертикальная интеграция как конкурентное оружие
Название «Unitree» восходит к китайской идиоме, которую можно перевести примерно как «зажигать дерево технологий». Это не просто красивый образ — это буквальное описание бизнес-модели. Компания с самого начала выстраивала производство по принципу вертикальной интеграции: все ключевые компоненты — двигатели, редукторы, контроллеры, лидары, алгоритмы управления движением — разрабатываются и производятся внутри. Каждая освоенная технология открывает следующий уровень.
Такой подход даёт сразу несколько преимуществ. Во-первых, полный контроль над качеством и себестоимостью на каждом этапе. Во-вторых, возможность быстро переносить новые разработки из одного продукта в другой. В-третьих, независимость от внешних поставщиков — особенно ценная в условиях нестабильных цепочек поставок. В-четвёртых — патенты: к 2026 году Unitree располагает более чем 180 зарегистрированными патентами и значительным числом заявок в процессе рассмотрения. Примечательно, что подвес для гарнитуры Apple Vision Pro — простое, но остроумное решение: трос с противовесом, снимающий нагрузку с головы пользователя — Ван Синсин запатентовал прежде, чем гарнитура попала ему в руки.
Принципиально важно и то, что с первого дня Unitree ориентировалась на коммерческий, а не академический рынок. Научные гранты и государственные контракты компания не отвергала, но никогда не делала на них ставку. Это означало, что каждый продукт должен был окупаться, масштабироваться и вызывать спрос — не в узком кругу исследователей, а у широкой аудитории университетов, промышленных предприятий и частных покупателей. Такой подход сформировал культуру ускоренной разработки: в среднем Unitree выводит новую модель на рынок ежегодно.
От робособаки к андроиду: линейка продуктов
Путь компании начался с Laikago — первой коммерческой робособаки, появившейся в 2017 году и названной в честь Лайки, первого животного, выведенного на земную орбиту. Технически это был сильный продукт: три степени свободы в каждой лапе, инерциальные датчики, датчики давления в стопах, бесщёточные двигатели собственной разработки и — прецедент для отрасли — полностью открытый SDK с поддержкой Python и C++. Цена в базовой конфигурации составляла около 25 000 долларов; для сравнения, Spot от Boston Dynamics стоил тогда 75 000 долларов.
Laikago немедленно привлёк к себе технические университеты, научные центры и промышленные предприятия. Почти каждый последующий год питомник Unitree пополнялся новыми разработками — для заводов, для образования, для охраны и развлечений. Неизменным оставалось лишь одно: каждая следующая модель была мощнее предыдущей и стоила дешевле. Сегодня Go2 — наследник той самой Laikago — начинается от 1 600 долларов и занимает около семидесяти процентов мирового рынка четвероногих роботов. В 2024 году компания продала 23 700 таких машин.
К гуманоидам компания подошла по тому же сценарию: сначала дорогая и функциональная флагманская модель, затем — удешевление. В 2023 году появился H1: рост 180 сантиметров, вес от 47 до 70 килограммов, скорость до 12 километров в час, грузоподъёмность 30 килограммов, цена — от 90 000 долларов. Вполне предсказуемо, H1 ориентировался на промышленное и научное применение. Уже в 2024 году компания представила G1 — компактнее, легче и почти в шесть раз дешевле: базовая версия стоит 13 500 долларов, максимальная конфигурация — до 27 000 долларов. G1 умеет бегать, делать сальто, отрабатывает боевые искусства и, по официальной статистике, стал самым продаваемым гуманоидным роботом в мире: в первой половине 2025 года было отгружено более пяти тысяч единиц. В октябре 2025 года к линейке добавился H2 — полноразмерный гуманоид высотой 182 сантиметра, стоимостью от 29 900 долларов.
Unitree R1: первый андроид для широкого рынка
В июле 2025 года Unitree объявила о выпуске R1 — и журнал TIME включил его в список лучших изобретений года. Базовая версия стоит 5 900 долларов — абсолютный рекорд для полноценного гуманоидного робота. Несколько месяцев спустя появилась ещё более доступная конфигурация, R1 Air, начиная от 4 900 долларов. Первые серийные поставки стартовали в апреле 2026 года.
Механически R1 наследует лучшее из G1 в более лёгком и компактном корпусе. Рост — 121–123 сантиметра, вес — 25–29 килограммов в зависимости от конфигурации. Количество степеней свободы в стандартной версии составляет 26 — это даже больше, чем у G1. Именно они обеспечивают возможности, которые компания заявляет в качестве ключевых: R1 умеет бегать, ходить на руках, делать колесо и боковое сальто, прыгать и осваивать боевые искусства. Нагрузка на одну руку — 2 килограмма, скорость ходьбы — до 9 километров в час. Корпус изготовлен из композитных материалов и инженерного пластика, что объясняет и меньший вес, и более низкую цену по сравнению с металлическим G1.
Сенсорная система включает бинокулярную стереокамеру, два инерциальных измерительных блока, датчики крутящего момента в суставах, массив из четырёх микрофонов и стереоколонки — робот способен распознавать речь и отвечать голосом. За вычисления отвечает восьмиядерный процессор с интегрированным графическим ускорителем; в версии EDU опционально устанавливается модуль NVIDIA Jetson Orin. Ключевой программной особенностью является встроенная мультимодальная языковая модель UnifoLM: робот понимает одновременно голосовые команды и визуальный контекст, то есть воспринимает не только то, что ему говорят, но и то, что происходит перед его камерой.
Батарея, как и у всей линейки Unitree, быстросъёмная. Время автономной работы составляет около часа — вдвое меньше, чем у G1. Это главный компромисс, на который пошли разработчики ради снижения веса и цены. Для большинства исследовательских и образовательных задач, под которые R1 в первую очередь и проектировался, этого достаточно.
Для кого R1 — и о чём честно предупреждают сами создатели
Unitree позиционирует R1 как продукт для университетов, разработчиков, образовательных учреждений, парков развлечений и технически подготовленных энтузиастов. Как и все роботы компании, R1 поставляется с открытым SDK на базе Linux и интерфейсами ROS 2, что делает его полноценной исследовательской платформой. Из коробки доступны готовые сценарии: ходьба, бег, акробатика, боевые стойки, голосовое взаимодействие.
Вопрос о том, является ли R1 готовым домашним помощником, требует честного ответа: пока нет. Мультимодальная языковая модель позволяет роботу понимать команды и реагировать на них, однако научить его практическим бытовым задачам — уборке, переноске вещей, помощи на кухне — невозможно простым показом или просмотром обучающего видео. Для этого требуется работа с SDK, то есть определённый технический уровень владельца. Для рядового пользователя R1 сегодня — скорее интеллектуальный компаньон на ножках с впечатляющими двигательными способностями, нежели полноценный бытовой ассистент. Впрочем, та же характеристика три-четыре года назад вполне описывала и смартфон в роли рабочего инструмента.
Контекст и осложнения: IPO, патенты и вопросы безопасности
Параллельно с коммерческим успехом Unitree оказалась в центре нескольких острых дискуссий. В 2025 году американский Конгресс направил запрос в Министерство торговли и Министерство обороны с просьбой проверить возможные связи компании с китайскими военными структурами. Поводом послужили кадры из военных учений, на которых Go2 с прикреплённым оружием участвовал в тренировках Народно-освободительной армии. Unitree отрицает поставки армии напрямую и придерживается официальной политики продаж исключительно для гражданских применений — однако механизмы контроля вторичного рынка фактически отсутствуют. В сентябре 2025 года независимые исследователи опубликовали отчёт об уязвимостях в прошивке — обнаружены баги, позволяющие получить полный контроль над устройствами через Bluetooth на близком расстоянии; Unitree выпустила исправления, однако репутационный осадок остался.
На финансовом фронте компания движется к публичному размещению акций. В июне 2025 года завершился раунд финансирования серии C с оценкой 12 миллиардов юаней — около 1,7 миллиарда долларов. Среди инвесторов — Alibaba, Tencent, China Mobile, ByteDance и Geely Capital. Целевая оценка на IPO, которое планируется провести на Шанхайской бирже STAR Market в 2026 году, — около 7 миллиардов долларов. По итогам 2024 года выручка компании превысила один миллиард юаней, а прибыль компания фиксирует каждый год, начиная с 2020-го.
Точка невозврата
Чтобы оценить значение R1, достаточно одной цифры из истории самой Unitree. В 2017 году первая робособака Laikago стоила 25 000 долларов. Сегодня Go2, по объективным показателям превосходящий Laikago, стоит 1 600 долларов — снижение цены в 15 раз примерно за восемь лет. Если такая же кривая применима к гуманоидам, то четвероногие пути от сегодняшних 5 900 к нескольким сотням долларов в начале следующего десятилетия — не фантастика, а экстраполяция.
R1 — пока не идеальная машина. Час работы от батареи, отсутствие лидара в базовой конфигурации, необходимость разбираться в SDK для обучения нетривиальным задачам — всё это вполне реальные ограничения. Но именно такими были первые смартфоны, первые электромобили и первые персональные компьютеры: продуктами для энтузиастов, в которых угадывалась будущая форма массового устройства. Unitree делает ставку на открытость экосистемы и на то, что тысячи разработчиков по всему миру найдут для R1 применения, о которых сами создатели не задумывались. Именно так развивалась история смартфонов — не по плану одной компании, а по совокупному воображению рынка.
Почему китайские смартфоны снимают лучше iPhone: вычислительная оптика, диффузионные модели и конец эпохи A-брендов
Почему китайские смартфоны снимают лучше iPhone? Разбираем алгоритмы Vivo, диффузионные модели BokehDiff и революцию в мобильной фотографии.
Последние несколько лет с камерами в смартфонах происходит нечто странное. Устоявшиеся лидеры рынка — Apple, Google, Samsung — словно застряли на месте. Каждое новое поколение приносит косметические улучшения: чуть больше мегапикселей, чуть точнее автофокус, чуть лучше ночной режим. Но прорыва, сопоставимого с тем, что когда-то совершил портретный режим или ночная съёмка на Pixel, не было уже давно.
А вот китайские производители — Vivo, OPPO, Xiaomi, Huawei — за тот же период совершили колоссальный рывок. Они больше не догоняют западных и корейских конкурентов. Они задают тренды.
Возникает закономерный вопрос: что происходит? Почему китайские компании так резко вырвались вперёд? Что они делают принципиально иначе? И самое главное — действительно ли речь идёт о технологическом прогрессе, или же всё это не более чем ловкий трюк с нейросетями?
В этом материале мы подробно разберёмся в ситуации. Значительная часть анализа будет посвящена компании Vivo — не в порядке рекламы, а потому что именно на примере их технологий проще всего проследить, куда движется вся индустрия мобильной фотографии. Vivo открыто публикуют свои научные работы, их инженеры охотно отвечают на вопросы, а количество накопленного исследовательского материала позволяет провести по-настоящему глубокий разбор.
Мы объясним, как устроен «китайский» портретный режим и почему смартфоны внезапно научились безупречно обрабатывать каждый волосок на голове модели. Поговорим о главной болезни современных камерофонов — так называемой нейромазне: откуда она берётся и почему раздражает пользователей. А в конце попробуем ответить на вопрос, который многие задают уже вслух: стоит ли Apple, Google и Samsung начинать нервничать? Или, быть может, уже поздно.
Информация, собранная в этой статье, уникальна — часть данных получена напрямую от инженеров Vivo Camera Research и не публиковалась ранее в русскоязычных источниках.
Вычислительная оптика: как всё началось
2016 год. Apple совершают очередную «революцию». В iPhone 7 Plus появляется вторая камера на задней панели — телефото-модуль. По меркам того времени решение далеко не очевидное. Но именно с этого момента принято отсчитывать эпоху вычислительной оптики в мобильной фотографии.
Чтобы понять, почему это событие стало столь значимым, необходимо вспомнить базовые принципы. Фотографии, сделанные большими профессиональными камерами, привлекают нас по нескольким причинам: высокая детализация, точная цветопередача, широкий динамический диапазон. Но главное — характерное, приятное глазу размытие фона, известное как боке.
По первым трём параметрам — детализации, цветам и динамическому диапазону — мобильные камеры к тому моменту уже довольно близко подобрались к профессиональным. В этом помогли быстрые процессоры и всё более совершенные алгоритмы обработки. Однако боке — это явление чисто оптическое. Для того чтобы получить красивое, естественное размытие фона, необходим большой объектив и большой сенсор. Разместить всё это в тонком корпусе смартфона физически невозможно. Таковы законы оптики, и никакая инженерия не способна их обойти.
Но маркетинг Apple, образно говоря, не привык считаться с подобными ограничениями. Было объявлено, что отныне iPhone снимает как профессиональная камера. Так родился знаменитый портретный режим.
Портретный режим: первые шаги
Идея, реализованная в Купертино, была элегантна в своей простоте: раз получить красивое боке оптическим путём невозможно — попробуем вычислить его математически.
Когда смартфон пытается программно имитировать размытие фона, перед ним встаёт одна главная задача: понять трёхмерную структуру сцены. Иными словами, необходимо построить так называемую карту глубины. Это чёрно-белое изображение, в котором закодировано расстояние от каждой точки сцены до объектива камеры. Чем светлее пиксель — тем он ближе к камере; чем темнее — тем дальше.
Возникает ключевой вопрос: откуда вообще взять эти данные о расстоянии? У человека для определения глубины есть два глаза, работающих совместно. Apple пошли тем же путём: раз у iPhone теперь две камеры сзади — почему бы этим не воспользоваться?
Так в портретном режиме iPhone начал снимать сцену одновременно на две камеры и по разнице между полученными изображениями вычислять карту глубины — по принципу стереоскопического зрения, свойственного человеку.
Однако полученная таким образом карта оказывалась весьма грубой. Поэтому Apple сразу дополнили систему алгоритмами машинного обучения, призванными сгладить края и исправить наиболее очевидные ошибки.
Результат получился… терпимым. При условии, что зритель не всматривается слишком пристально. Первые версии портретного режима работали исключительно с лицами людей. Алгоритм старался удерживать в фокусе лицо, а всё остальное аккуратно замыливал — во многом для того, чтобы замаскировать огрехи сегментации и неточности в карте глубины.
Иными словами, несмотря на громкие маркетинговые заявления, до реальной замены большой оптики было ещё очень далеко.
Google Pixel 2: вторая камера не нужна
Прогресс, однако, не стоял на месте. Уже через год в игру вступила компания Google со своим Pixel 2 — и продемонстрировала, что для создания портретного размытия вторая камера вообще не обязательна.
Вместо неё инженеры Google использовали фокусировочные субпиксели единственного сенсора — технологию PDAF (Phase-Detect Auto-Focus, фазовый автофокус). Суть её в том, что каждый пиксель матрицы фактически разделён на два субпикселя. Камера получает два почти идентичных изображения, между которыми существует микроскопический параллакс — ничтожный сдвиг, обусловленный тем, что свет попадает на каждый субпиксель под чуть разным углом.
Этой минимальной разницы между двумя изображениями оказалось достаточно, чтобы строить карту глубины не хуже, чем у iPhone. То есть тоже — весьма посредственно.
В последующие годы все производители двигались по накатанной колее. Алгоритмы становились умнее, сегментация — аккуратнее, края — чище. К двум камерам добавлялся LiDAR-сканер (Apple), Time-of-Flight сенсоры (Samsung, Huawei), всё более сложные нейросетевые модели для определения глубины.
Но за почти десять лет ни один производитель так и не научился идеально имитировать реальную оптику.
Портретный режим оставался инструментом «для домашнего альбома и социальных сетей». Приемлемым — но далёким от совершенства. Любой, кто хоть раз всматривался в границы между объектом и размытым фоном на портретном снимке со смартфона, видел характерные артефакты: ореолы вокруг волос, размытые кончики ушей, резко «обрезанные» контуры плеч.
Vivo входит в игру
И тут к игре подключилась компания Vivo. Без громких пресс-конференций, без обещаний революции, без хвастливых слайдов с надписью «лучшая камера в истории» — их смартфоны просто начали фотографировать на уровне, который заставил индустрию обратить внимание.
Размытие — естественное. Каждый волосок, каждая ниточка, каждая шерстинка — идеально проработаны. Количество ошибок сведено к минимуму. Некоторые кадры откровенно трудно отличить от снимков, сделанных на полноценную беззеркальную камеру.
Как компания, которую за пределами Китая многие знают лишь понаслышке, сумела сделать то, что лидеры рынка не добились за десять лет?
Логичное предположение: они нашли способ строить идеальную карту глубины. Но нет. Ответ оказался куда более неожиданным.
В Vivo честно признали: построить точную карту глубины на смартфоне — задача нерешаемая в принципе. Ограничения, заложенные в самой физике маленького сенсора и короткого базиса между камерами, не позволяют этого сделать. Но вместо того чтобы биться головой о стену, инженеры Vivo нашли обходной путь.
Они решили создавать весь размытый фон целиком. Генерировать его с нуля.
Да, именно так. Тот красивый размытый фон на портретных снимках со смартфонов Vivo — это не результат «умного» размытия исходного изображения. Это генерация. И, забегая вперёд, скажем, что размытие — далеко не единственное, что генерируется.
Но прежде чем хвататься за сердце и обвинять Vivo в «нейросатанизме», стоит разобраться в том, как именно работает эта технология. Потому что она, по существу, гениальна.
Диффузионные модели: почему боке на смартфонах не работало
Чтобы понять, в чём заключается прорыв Vivo, необходимо сначала осознать, почему все предшествующие методы имитации боке неизбежно давали сбой.
Ахиллесова пята всех существующих алгоритмов программного размытия — это области с так называемым разрывом глубины. Границы, где происходит резкий переход от близких объектов к дальним: контур головы на фоне далёкой стены, пальцы руки перед размытым пейзажем, прядь волос, выбившаяся из общей массы.
Именно на этих границах даже самые продвинутые алгоритмы начинают давать ошибки. Причина фундаментальна: все существующие методы строго опираются на карту глубины. Если в карте есть неточности — а они неизбежны, — то неточности возникнут и в размытии. Избежать этого практически невозможно в местах, где присутствует множество мелких деталей: волосы, мех, ветви деревьев, складки ткани.
В результате алгоритм попадает в одну из двух ловушек.
Либо он размывает то, что размывать нельзя — и вокруг объекта появляется характерный мутный ореол, «свечение», которое мгновенно выдаёт программную природу размытия.
Либо, напротив, не размывает то, что следовало бы — и по контуру объекта возникают жёсткие, неестественные края, словно фигуру вырезали ножницами и наклеили на размытый фон.
Самое обидное в этой ситуации — всё остальное может быть сделано безупречно: экспозиция, цвета, общая композиция, характер размытия вдали от границ. Но эти мелкие дефекты на переходах мгновенно бросаются в глаза и разрушают всю иллюзию.
У Vivo же — именно там, где все прочие спотыкаются, — внезапно всё работает. Как?
Ответ связан с технологией, которая в последние годы перевернула всю индустрию генеративного искусственного интеллекта. Речь о диффузионных моделях — тех самых нейросетях, на которых построены Midjourney, Stable Diffusion и их многочисленные аналоги. Именно они генерируют бесконечные потоки изображений: от фотореалистичных портретов до фантастических пейзажей.
Рассуждение инженеров Vivo было логичным: если диффузионная модель способна генерировать любые изображения в высоком разрешении с впечатляющей детализацией — почему бы не обучить её генерировать изображения с оптически корректным размытием?
Так появился алгоритм BokehDiff.
Как работает BokehDiff
BokehDiff — это диффузионная модель, построенная на базе архитектуры Stable Diffusion XL. Разработчики этого не скрывают: соответствующая научная работа опубликована в открытом доступе на arxiv.org и была принята на конференцию ICCV 2025 — одну из наиболее авторитетных площадок в области компьютерного зрения.
Однако работает BokehDiff совершенно нестандартно.
Для понимания необходимо кратко напомнить, как функционируют обычные диффузионные модели. По своей сути это чрезвычайно продвинутые системы подавления шума, наделённые, образно говоря, богатым воображением.
Базовый принцип прост. Модели предъявляется изображение, состоящее из случайного шума, и даётся указание: «На этой картинке — суслик. Убери шум и покажи суслика». Модель шаг за шагом удаляет шум, на каждом этапе «воображая» всё больше деталей. Через сотню, две сотни, пять сотен итераций шум исчезает — а суслик действительно появляется.
Существует и другой сценарий использования. Берётся готовое изображение в низком качестве, к нему добавляется шум, а затем модели сообщают: «На самом деле это превосходная фотография в высоком разрешении. Просто шум мешает её разглядеть». Нейросеть послушно удаляет шум и попутно дорисовывает детали, которых в исходном изображении не существовало.
Но в этом подходе кроются две фундаментальные проблемы.
Во-первых, диффузию невозможно применить «чуть-чуть». Каждый раз, добавляя шум к изображению, мы разрушаем его исходную структуру и затем собираем заново. В процессе картинка неизбежно меняется: модель привносит собственные «фантазии», искажает детали, подменяет текстуры.
Во-вторых, сотни итераций — это огромные вычислительные затраты. Для серверных GPU это терпимо, но для мобильного процессора — совершенно неприемлемо. Пользователь не станет ждать минуту, пока смартфон обработает портретный снимок.
Требовался алгоритм, который работает быстро, не фантазирует лишнего и при этом соблюдает физику оптического размытия.
И здесь инженеры Vivo в буквальном смысле перевернули саму идею диффузионных моделей.
Они решили вообще не добавлять шум к исходному изображению. Вместо этого они взяли чёткую, необработанную фотографию — без каких-либо изменений — и «сказали» нейросети: «Это зашумлённая версия снимка с боке. Найди этот шум и удали его. Но главное — сделай всё за один проход».
С точки зрения нейросети, чёткое изображение — «неправильное». Оно «испорчено шумом», который скрывает под собой «истинную» размытую версию. Задача сети — найти этот «шум» и удалить его. И попытка — всего одна.
Результат превзошёл ожидания. Никаких сотен итераций. Никаких неконтролируемых фантазий. На выходе — аккуратное, визуально убедительное боке за один вычислительный шаг.
PISA: физика на страже реализма
Но одной лишь генерации недостаточно. Принципиально важно, чтобы размытие выглядело не просто красиво, а оптически корректно — как у настоящей камеры с большим объективом.
Поэтому в архитектуру BokehDiff встроен специализированный модуль, выполняющий роль строгого надзирателя за физической достоверностью результата. Он называется PISA — Physics-Inspired Self-Attention, «физически вдохновлённый модуль самовнимания».
Чтобы понять его роль, нужно знать, что в обычных диффузионных моделях механизмы самовнимания (self-attention) отвечают за общее понимание структуры изображения. Они следят за композицией и обеспечивают целостность: без них нейросеть могла бы нарисовать глаз «где-нибудь» в произвольном месте; с ними она понимает, что глаз должен располагаться строго определённым образом относительно носа, рта и другого глаза.
В BokehDiff модуль самовнимания выполняет иную задачу. PISA следит не за композицией картинки, а за физикой размытия, контролируя соблюдение трёх ключевых принципов.
Первый принцип — сохранение энергии (Energy-Conserved Normalization). Свет не возникает из ниоткуда и не исчезает бесследно. Когда пиксель размывается, его яркость не пропадает — она перераспределяется между соседними пикселями. PISA следит за тем, чтобы суммарная яркость сцены оставалась неизменной. Это устраняет тёмные пятна и засветы, типичные для программного размытия.
Второй принцип — ограничение кругом нерезкости (Circle-of-Confusion Spatial Constraint). В реальной оптике всё устроено просто: чем дальше объект от плоскости фокусировки, тем сильнее он размывается. PISA воспроизводит эту зависимость программно. Модуль берёт карту глубины, выбранную точку фокусировки и виртуальную диафрагму, после чего для каждого пикселя рассчитывает допустимый радиус размытия. В итоге степень размытия не скачет хаотично от пикселя к пикселю: объекты вблизи фокуса остаются чёткими, удалённые плавно уходят в боке, а размер кружков нерезкости определяется значением виртуальной диафрагмы — в точности как у настоящего объектива.
Третий принцип — маска самоокклюзии (Self-Occlusion Mask). Это, пожалуй, самый важный из трёх. PISA следит за тем, чтобы размытый фон не «наезжал» на объекты переднего плана. Модуль попиксельно строит маску видимости, определяя, что принадлежит переднему плану (и должно располагаться «поверх» всего), а что является фоном (и уходит на задний слой).
Именно благодаря маске самоокклюзии алгоритм столь успешно справляется с волосами, шерстью, нитками и полупрозрачными деталями — теми самыми элементами, на которых неизменно спотыкались все предшествующие методы. Границы остаются чистыми, без ореолов и грубых краёв.
И ещё одно важное следствие: даже если карта глубины содержит ошибки (а она неизбежно их содержит), на финальном результате это почти не сказывается. Почему? Ответ — в том, как модель обучали.
Как приручить BokehDiff: секрет обучающих данных
Классическая проблема в мире нейросетей — качество обучающих данных. Чтобы обучить алгоритм уровня BokehDiff, в идеале необходимы тысячи, а лучше десятки тысяч идеальных пар фотографий: одна — полностью резкая, и она же — с настоящим оптическим боке, снятая в абсолютно идентичных условиях.
Где взять такой массив данных? Снять его на реальную камеру невозможно: между двумя кадрами камера неизбежно чуть сдвинется, изменится освещение, подует ветер — а для обучения критична даже минимальная разница между парами. Создать датасет средствами трёхмерного рендеринга тоже не выход: сгенерированные сцены выглядят неестественно и «пластмассово», а обученная на них модель будет плохо работать с реальными фотографиями.
Инженеры Vivo нашли остроумное решение. Раз они и так работают с диффузионными моделями, способными генерировать фотореалистичные изображения, — почему бы не сгенерировать идеальный обучающий датасет? Процесс был устроен следующим образом. Сначала было собрано большое количество реальных, высококачественных фотографий фонов, снятых с максимальной резкостью и глубиной. Затем поверх этих подлинных фонов с помощью диффузионных моделей генерировались фотореалистичные объекты переднего плана: люди, животные, предметы — причём сразу с альфа-каналом, то есть с идеально проработанной прозрачностью и краями. После этого фон размывался физически корректным образом — с учётом точно известных параметров: расстояния до каждого объекта, диафрагмы, фокусного расстояния.
В результате получился датасет, о котором можно только мечтать: идеальные пары фотографий — резкая и размытая версии — с любой диафрагмой на выбор и безупречной маской сегментации.
Но самое интересное — и самое принципиальное — решение последовало далее. В реальности ничего идеального не бывает. Карта глубины, которую смартфон строит в полевых условиях, всегда содержит ошибки, шум и неточности. Поэтому при обучении инженеры начали целенаправленно портить карту глубины, подаваемую на вход модели. Вносили ошибки, шум, снижали точность и разрешение — имитируя те несовершенства, с которыми алгоритм неизбежно столкнётся в реальной жизни.
В результате BokehDiff научился не полагаться слепо на карту глубины и не «паниковать» из-за ошибок, а принимать решения по контексту — опираясь на своё «понимание» того, как должно выглядеть оптически корректное размытие. Именно поэтому на практике алгоритм демонстрирует поразительную устойчивость к неточностям входных данных.
Можно без преувеличения сказать, что BokehDiff — это прорыв в вычислительной оптике, которого индустрия ждала почти десять лет.
Тем не менее необходимо сделать оговорку. На момент публикации этого материала (середина 2025 года) BokehDiff используется только в новейших флагманах Vivo 300-й серии, и то не во всех режимах. К примеру, портретная съёмка на фронтальную камеру по-прежнему опирается на более ранние методы обработки. Но компания заявляет о планах по значительно более широкому внедрению алгоритма в будущих устройствах.
Нейромазня: слон в комнате
BokehDiff — далеко не единственная нейросеть, работающая в камерах смартфонов Vivo. И если портретное размытие вызывает преимущественно восхищение, то другие нейросетевые модели порождают куда более противоречивые чувства.
Прежде чем перейти к деталям, уместен вопрос: откуда вообще стало известно, что именно алгоритм BokehDiff используется в смартфонах Vivo — и конкретно в моделях X300 и X300 Pro?
Ответ прост. Был отправлен запрос напрямую одному из авторов научной работы — ведущему инженеру подразделения Vivo Camera Research. И он ответил. Более того, он не только подтвердил предположение относительно BokehDiff, но и предоставил информацию о четырёх других моделях, которые уже функционируют в камерах смартфонов Vivo прямо сейчас.
Все четыре модели, как и BokehDiff, являются диффузионными. Но есть принципиальное отличие: они не размывают детали, а, напротив, дорисовывают их.
Модель первая: TSD-SR — универсальное сверхразрешение
TSD-SR (One-Step Diffusion with Target Score Distillation for Real-World Image Super-Resolution) — алгоритм повышения чёткости и детализации. Он работает практически постоянно, обрабатывая все фотографии целиком — вне зависимости от режима съёмки.
Как и BokehDiff, модель функционирует в один шаг, что делает её примерно в сорок раз быстрее аналогичных диффузионных алгоритмов сверхразрешения. При этом, согласно опубликованным бенчмаркам, TSD-SR демонстрирует лучшее качество среди всех конкурирующих методов.
Результаты действительно впечатляют. На сравнительных иллюстрациях, приведённых в научной работе, видно, как алгоритм восстанавливает мельчайшие текстуры оперения птиц, структуру радужной оболочки глаза, узоры на крыльях бабочек — детали, которые в исходном изображении были либо смазаны, либо отсутствовали вовсе.
Модель вторая: TriFlowSR — сверхразрешение для архитектуры
TriFlowSR (Ultra-High-Definition Reference-Based Landmark Image Super-Resolution with Generative Diffusion Prior) — узкоспециализированный алгоритм сверхразрешения, предназначенный исключительно для архитектурных объектов.
Результаты этой модели выглядят почти невероятно. Размытые, едва различимые декоративные элементы зданий — лепнина, черепица, резьба по камню — после обработки приобретают такую степень детализации, что возникает ощущение, будто фотография была переснята с близкого расстояния.
Отдельного внимания заслуживает сравнение с универсальным TSD-SR на тех же архитектурных сценах: специализированная модель неизменно выигрывает. Это объясняет, зачем в смартфон необходимо интегрировать сразу несколько разных нейросетей: универсальный алгоритм в принципе не способен достичь того качества, которое обеспечивает модель, обученная на узком классе изображений.
Модель третья: TADiSR — сверхразрешение для текста
TADiSR (Text-Aware Real-World Image Super-Resolution via Diffusion Model with Joint Segmentation Decoders) — ещё один специализированный алгоритм, на сей раз ориентированный на текст в изображениях.
Номера домов, уличные вывески, надписи на этикетках — всё, что при цифровом увеличении обычно превращается в нечитаемую кашу, TADiSR аккуратно восстанавливает, возвращая буквам чёткие очертания. Практичная и полезная технология, не вызывающая никаких этических вопросов.
Модель четвёртая: AuthFace — и тут начинаются проблемы
AuthFace (Towards Authentic Blind Face Restoration with Face-oriented Generative Diffusion Prior) — модель реконструкции лиц. И именно на ней Vivo, мягко говоря, споткнулись.
Когда смартфон дорисовывает детали архитектуры или повышает чёткость текста — никто не возражает. Пользователи рады дополнительным деталям. Но когда нейросеть начинает «работать» с лицами людей, отношение меняется кардинально.
Что, как правило, первым делом делает новый владелец смартфона Vivo? Ищет способ отключить все бьютификации и нейросетевую дорисовку лиц. Профильные форумы переполнены жалобами и рецептами «как это выключить». Увы, сделать это безболезненно и без компромиссов — практически невозможно.
Но в чём причина недовольства? Неужели алгоритм плох? Отнюдь. С технической точки зрения AuthFace — один из лучших в своём классе. На сравнительных иллюстрациях из научной работы хорошо видно: там, где конкурирующие модели (GFP-GAN, CodeFormer, DR2, BFRffusion, SUPIR) выдают откровенные артефакты и деформации, AuthFace показывает весьма достойный результат.
Но — не идеальный. И в этом заключается ключевая проблема.
Если нейросеть дорисовала лишнюю травинку на газоне или несуществующую текстуру на кирпичной кладке — это, по большому счёту, никого не волнует. Но если она добавила или изменила хотя бы одну деталь на лице — морщину, родинку, форму брови — это ошибка, которой нет прощения. Человеческий мозг натренирован распознавать лица с невероятной точностью, и любое, даже незначительное отклонение от ожидаемого вызывает мгновенное ощущение «неправильности».
Аналогия с кулинарией здесь напрашивается сама собой. Нейросети в камере — как приправы в блюде. Применённые уместно и в меру, они превращают пресную кашу из серых пикселей во вкусную, аппетитную фотографию. Но стоит переборщить — и блюдо становится несъедобным.
У китайских производителей уже есть все необходимые ингредиенты. Осталось лишь немного подправить рецепт — найти правильный баланс между агрессивной обработкой и естественностью. Впрочем, не исключено, что дело попросту в различии вкусов: внутренний рынок Китая традиционно благосклонен к заметной обработке лиц, тогда как западная и российская аудитория предпочитает естественность.
Аппаратный фундамент: железо и оптика
Если до сих пор речь шла преимущественно о программных алгоритмах, то теперь пришло время взглянуть на аппаратную составляющую — и понять, почему крупнейшим брендам действительно есть о чём беспокоиться.
На протяжении многих лет Apple, Samsung и Google продавали по премиальной цене довольно среднее — по нынешним меркам — железо. Сенсоры в их смартфонах меньше, чем у китайских конкурентов. Оптика слабее: хроматические аберрации, потеря резкости по краям кадра и, в случае Apple, ставшие притчей во языцех блики от ярких источников света.
Справедливости ради, долгое время это работало. За счёт превосходных алгоритмов обработки, мощных специализированных чипов и жёсткой вертикальной интеграции аппаратного и программного обеспечения те же iPhone, пусть и не блистая по «железным» характеристикам, стабильно выдавали качественный и, что не менее важно, предсказуемый результат. Пользователь знал: нажал кнопку — получил хорошую фотографию. Без сюрпризов.
Сейчас ситуация изменилась. iPhone стабильно уступают китайским флагманам в слепых сравнениях фотографий. Причём речь не только о Vivo — они проигрывают практически всем: Huawei, Xiaomi, OPPO и даже OnePlus.
В области видеосъёмки iPhone пока удерживает позиции — это правда. Однако разрыв стремительно сокращается. И на то есть объективные причины.
Китайские производители за последние годы совершили качественный скачок не только в нейросетевых алгоритмах, но и в аппаратной части — буквально по всем фронтам.
Возьмём Vivo в качестве примера. Компания не просто приобретает «с полки» самый дорогой и крупный сенсор, доступный на рынке, и устанавливает его в смартфон. Vivo совместно с Sony и Samsung проектируют сенсоры по собственным техническим заданиям. Иными словами, сенсоры заточены под конкретный конвейер обработки изображений, используемый в их устройствах.
Аналогичная ситуация с оптикой. Vivo разрабатывают оптические модули самостоятельно, а также — если верить маркетинговым материалам — в сотрудничестве с немецкой компанией ZEISS. Вне зависимости от степени участия ZEISS, главное остаётся фактом: оптика кастомная, созданная под конкретные задачи, а не взятая из каталога стандартных компонентов.
Но, пожалуй, наиболее примечательные вещи происходят в области специализированных чипов обработки изображений.
Два ISP-чипа: VS1 и V3+
В модели X300 Pro установлены сразу два процессора обработки изображений (ISP — Image Signal Processor), разработанных собственным подразделением Vivo.
Первый — VS1. Он отвечает за предварительную обработку: экспозицию, автофокус, HDR-стекинг (объединение нескольких кадров с разной экспозицией), первичное шумоподавление. VS1 работает ещё до того, как фотография «станет» фотографией. Он анализирует сцену в реальном времени, помогает правильно экспонировать кадр, навести фокус и собрать максимально чистые исходные данные. Именно поэтому уже «на входе» у Vivo картинка отличается высоким качеством.
Кроме того, VS1 отвечает за превью в приложении камеры. Благодаря этому пользователь видит на экране смартфона практически финальный результат — включая портретное размытие в реальном времени, — ещё до нажатия кнопки спуска. Долгие годы эта функциональность была эксклюзивной прерогативой Apple.
Второй чип — V3+. Он отвечает за постобработку: берёт на себя все наиболее сложные и ресурсоёмкие задачи, в том числе запуск всех описанных выше нейросетевых алгоритмов — BokehDiff, TSD-SR, TriFlowSR, TADiSR, AuthFace.
Интеграция в Dimensity 9500: переломный момент
Однако самое важное событие произошло в 2025 году. Vivo заключили соглашение с компанией MediaTek, и чип V3+ был интегрирован непосредственно в системный чипсет Dimensity 9500.
Это означает, что процессор обработки изображений теперь находится на одном кристалле с центральным процессором, графическим ядром, памятью и всей остальной логикой — и выполнен по самому передовому на сегодня техпроцессу: 3 нанометра.
Практические следствия этого решения значительны. Максимальная скорость обработки при минимальном энергопотреблении и нагреве. Минимальные задержки при передаче данных между компонентами.
Результаты ощутимы на практике. Смартфон меньше нагревается при длительной работе камеры. Быстрее снимает и обрабатывает кадры. И может позволить себе такую роскошь, как запись 4K-видео в портретном режиме при 60 кадрах в секунду. Или запись 4K LOG с частотой 120 кадров в секунду — напрямую во внутреннюю память. iPhone на момент публикации этого материала подобных возможностей не предоставляет.
Прежде встроить кастомный ISP непосредственно в систему на кристалле могли позволить себе лишь Apple (со своими чипами серии A и M), Samsung (с линейкой Exynos) и отчасти Google (с процессорами Tensor, хотя, справедливости ради, это не помогло им совершить прорыв в качестве фото). Теперь в этом элитном клубе — и Vivo.
Более того, Vivo не закрывают доступ к своему ISP для других производителей, использующих платформу Dimensity 9500. Возможно, именно поэтому OPPO Find X9, построенный на том же чипсете, фотографирует на уровне, вплотную приближающемся — а порой и превосходящем — результаты самого Vivo. Вероятно, свою роль играет и собственное партнёрство OPPO с Hasselblad.
Главное наблюдение: судя по темпам прогресса, китайские производители не собираются останавливаться.
Стоит ли выбрасывать iPhone?
Итак, напрашивается вопрос: настало ли время массово переходить на китайские смартфоны и отказываться от Apple, Google и Samsung?
Ответ — нет. По крайней мере, не для всех.
В формате «достал и снял, не задумываясь о настройках» iPhone и Google Pixel по-прежнему остаются чемпионами. Особенно iPhone — это, пожалуй, самая удобная, самая надёжная и, что критично для многих пользователей, самая предсказуемая камера на рынке. Вы знаете, какой результат получите. Каждый раз.
С китайскими флагманами, особенно с Vivo, придётся потрудиться. Разобраться в многочисленных настройках, которых там действительно много. Сделать сотни тестовых снимков. Понять, какой режим и для какой сцены лучше подходит. Найти оптимальный баланс нейросетевой обработки — или научиться её отключать.
Но если вам интересна мобильная фотография как таковая, если вы готовы экспериментировать с настройками, изучать возможности камеры и стремитесь к максимально возможному качеству снимков со смартфона — китайские бренды сегодня заслуживают самого пристального внимания.
По крайней мере, в области фотографии они объективно опережают нынешних лидеров рынка на пару поколений. И куда вся эта история приведёт нас дальше — пожалуй, самый интригующий вопрос, ответ на который ещё только предстоит узнать.
DeepSeek в топе новостей года: Китай догнал США в ИИ
DeepSeek R1 и V3.2: как китайский стартап обвалил акции Nvidia, сравнялся с GPT-5 и запустил гонку open-source ИИ. Китайский ИИ-прорыв 2025.
Китайский стартап DeepSeek стал одной из главных tech-историй 2025 года. В январе компания выпустила модель R1, которая взорвала App Store и обвалила акции Nvidia на 18%. Стоимость обучения — $6 миллионов против $100 миллионов у OpenAI.
DeepSeek доказал, что американские санкции на чипы работают не так, как планировалось. Компания тренировала модели на урезанных Nvidia H800, но результат сопоставим с GPT-4 и Claude. В декабре вышла DeepSeek-V3.2, которая по бенчмаркам сравнялась с GPT-5.
Китайские open-source модели теперь скачивают чаще американских — 17% против 15,8%. DeepSeek запустил гонку за открытые модели: Alibaba, Moonshot AI и даже OpenAI выпустили свои open-source версии. Китай из догоняющего превратился в серьёзного конкурента — всего за один год.
Китай готовит космический штурм: 8600 спутников к 2030 году
Китай планирует выводить по 8600 спутников в год к 2030-му. Масштабные проекты State Grid и Qianfan. Подробности космической гонки.
Начал ли Starlink работу в Китае? Нет, но стало известно о грандиозных планах по развертыванию национальных спутниковых группировок State Grid и Qianfan — в общей сложности около 28 тысяч аппаратов.
Если в 2025 году счёт идёт на сотни запусков, то к 2027-му их число превысит тысячу, а к 2030 году Китай планирует выводить в космос более 8600 спутников ежегодно.
Плотина «Три ущелья»: гигант, изменивший географию и планету
«Три ущелья» — не только рекордная гидроэлектростанция, но и объект с огромным экологическим, геологическим и даже глобальным влиянием.
Вы слышали, что земные сутки стали длиннее? И дело тут не в космосе, а в нас — человечестве! Мы смогли изменить течение времени вместе… с течением рек.
Когда речь заходит о крупнейших и самых тяжёлых объектах, построенных людьми, многие вспоминают океанские лайнеры, небоскрёбы или пирамиды (сарказм: на самом деле их якобы строили инопланетяне). Но всё это просто «карлики» по сравнению с рекордсменом: китайской плотиной «Три ущелья», самой большой и мощной гидроэлектростанцией в мире.
Её масса сравнима с 173 миллионами статуй Свободы, 49 миллиардами Volkswagen Beetle или 229 триллионами iPhone. Чтобы её построить «человечеством», понадобилось бы 80 планет, населённых людьми, то есть в 80 раз больше населения Земли.
Сегодня мы разберёмся, как китайцы переписали географию и физику, построив самую массивную дамбу в истории, во сколько обошёлся проект, сколько людей пришлось переселить, сколько городов было затоплено и как плотина замедлила вращение Земли.
История длиной в сто лет
Когда мы говорили о массе «Трёх ущелий», имелась в виду общая масса конструкции и удерживаемой ей воды. Сама плотина весит около 67 миллионов тонн — много, но ничтожно мало по сравнению с 40 миллиардами тонн воды в водохранилище. Совокупно это делает «Три ущелья» самым тяжёлым объектом, когда-либо созданным человеком.
Для сравнения: знаменитая плотина Гувера в США примерно в 10 раз легче, а объём удерживаемой воды меньше в 1000 раз.
Сам путь к строительству был долгим и тернистым: с момента идеи до завершения строительства прошло почти 100 лет.
В 1919 году премьер-министр партии Гоминьдан Сунь Ятсен предложил проект.
В 1939 году японцы, оккупировав округ Ичан, провели расчёты плотины, но планы сорвала Вторая мировая война.
В 1944 году интерес проявили американцы: они подготовили проект и обучили китайских специалистов, но вмешалась гражданская война.
В 1970 году Китай построил дамбу «Гэчжоуба» ниже по течению, частично финансируя будущий проект.
1992 год — правительство одобряет строительство новой плотины.
1994–2012 годы — основное строительство, завершение отдельных шлюзов к 2015 году.
Стоимость проекта оценивается в 20–30 млрд долларов, включая выплаты переселённым жителям.
Инженерный подвиг: строительство гиганта
В 1997 году китайским инженерам пришлось частично перекрыть реку Янцзы — третью по полноводности в мире и крупнейшую в Евразии. Ширина реки в месте строительства достигала 200–300 метров, а во время разливов — до полукилометра. Глубина варьировалась от 30 до 80 метров.
Для создания временного барьера были построены обходные каналы, а в реку сбросили тысячи тонн камня. Учитывая размеры плотины, строительство стало настоящим инженерным подвигом.
Внутри сооружения установили 32 гигантских турбины по 6000 тонн каждая, мощностью более 800 МВт и диаметром около 10 метров. Каждая способна пропускать до 1000 кубометров воды в секунду.
OLYMPUS DIGITAL CAMERA
Плотина оснащена современной системой датчиков температуры, давления, деформации и GPS-модулями для отслеживания малейших сдвигов. На строительстве работало более 40 000 человек, для которых был построен целый город. Но за колоссальными масштабами стоят человеческие судьбы — тысячи людей лишились домов и земли.
Масштабы строительства и переселение населения
По официальным данным, в процессе строительства было переселено около 1,5 миллиона человек, а по неофициальным — до 2 миллионов. Затоплено около 630 км², что сопоставимо с территорией Москвы или Сингапура, а суммарная площадь водохранилища превышает 1000 км².
Несколько цифр для масштаба:
Затоплено 13 крупных городов и более 1500 населённых пунктов.
Под водой оказалось свыше 1000 археологических памятников.
Высота плотины — 181 м (как две статуи Свободы), длина — 2,3 км.
Потрачено около 28 млн кубометров бетона — хватило бы, чтобы залить 4000 футбольных полей метровым слоем.
Но все эти усилия и потери не случайны — «Три ущелья» созданы ради самой мощной гидроэлектростанции мира.
Гидроэлектростанция «Три ущелья»: рекордная мощность
Эта плотина — настоящий энергетический монстр. Мощность установки достигает 22,5 ГВт, что почти в пять раз больше Чернобыльской АЭС и сопоставимо с 20–30 крупными ТЭЦ. Для сравнения, второе место занимает ГЭС Байхэтань мощностью 16 ГВт.
В 2020 году на фоне муссонных паводков годовая выработка электроэнергии достигла 111,8 млрд кВт⋅ч, абсолютный рекорд. Этого хватило бы, чтобы обеспечить электроэнергией две Швейцарии или весь Казахстан.
Несмотря на стоимость строительства — 20–30 млрд долларов — мощность плотины окупилась всего за несколько лет. Правда, на Китай она обеспечивает менее 2% всей электроэнергии, хотя изначально рассчитывалось на 10%. Рост экономики и энергопотребления страны превысил ожидания инженеров.
«Хорошая» сторона плотины
Плотина не только генерирует электричество:
Защищает от наводнений. До её постройки на Янцзы погибло около полумиллиона человек, ущерб от одного крупного паводка мог быть сопоставим со стоимостью всей плотины. После постройки в 2010 году крупные наводнения прошли без жертв.
Улучшает судоходство: водоём достигает 170 метров в пике, объемы перевозок выросли в 10 раз, а цены на транспортировку снизились в 2–3 раза.
Для судов создан лифт-подъёмник: поднимает суда до 3000 тонн на высоту более 100 метров за 40 минут.
Снижает сжигание ископаемого топлива, орошает земли, способствует научным исследованиям, развитию туризма и стабилизирует работу гидроэлектростанций ниже по течению.
Польза очевидна: энергия, защита от наводнений и развитие региона. Но у медали есть обратная сторона…
«Плохая» плотина: экологические и геологические риски
Мы уже говорили о затопленных городах и памятниках, но последствия строительства «Трёх ущелий» выходят далеко за эти рамки. Плотина разрушила местную экосистему — настолько, что, вероятно, полностью вымер китайский речной дельфин байцзи. Даже если отдельные особи выжили, восстановить популяцию уже невозможно.
После строительства вода в реке замедлилась, что привело к активному цветению воды и снижению её качества. Также в регионе участились оползни. Учёные опасаются влияния плотины на сейсмическую активность: колоссальная масса воды может усилить естественные толчки.
Но главная угроза — возможный прорыв дамбы. Она удерживает почти 40 млрд кубометров воды, и разрушение приведёт к катастрофе невиданных масштабов. По разным сценариям, в зоне риска может оказаться от 30 до 400 миллионов человек, а последствия для экономики страны будут сравнимы с войной. Ниже по течению находятся нефтехимические предприятия, работающие с токсичными веществами — их разрушение только усугубит катастрофу.
«Три ущелья» и экстремальные события
В 2020 году рекордные паводки подняли уровень водохранилища до 175 метров, близко к расчётному пределу плотины. С учётом изменения климата нельзя исключать сценария мегапаводка, с которым плотина может не справиться.
Строители рассчитывали, что дамба выдержит землетрясения до 7 баллов по шкале Рихтера, но это далеко не предел возможных толчков. В СМИ появлялись слухи о смещении конструкции на 1,05 дюйма, но подтверждённых данных не было. Компания China Three Gorges Corporation заявляет о смещении в 3 см, что находится в пределах допустимого.
Влияние на Землю
Самое невероятное — плотина повлияла на вращение планеты. Вода весом около 40 млрд тонн изменила момент инерции Земли, замедлив её вращение на 60 наносекунд и сместив ось на 2 см.
Это сравнимо с фигуристом, который раскрывает руки для регулировки скорости вращения. Эффект мал, но современные инструменты позволяют зафиксировать изменения. Конечно, на длину суток влияют и другие факторы: гравитация Луны, таяние ледников, землетрясения и вулканы.
«Три ущелья» — только начало
Плотина остаётся одним из самых сложных инженерных проектов человечества. В Китае обсуждаются ещё более амбициозные проекты:
Дамба на реке Ярлунг-Цангпо (Брахмапутра) с ГЭС до 60 ГВт, почти втрое мощнее «Трёх ущелий».
Grand Inga Dam в Конго — серия из семи плотин мощностью 40–70 ГВт, которые тоже повлияют на вращение Земли.
Эти проекты пока не одобрены, так что «Три ущелья» останется крупнейшей и самой мощной плотиной ещё много лет.
«Три ущелья» — не только рекордная гидроэлектростанция, но и объект с огромным экологическим, геологическим и даже глобальным влиянием. Человечество научилось изменять планету, но каждый такой шаг несёт риски.
ByteDance ограничит использование TikTok для детей младше 14 лет до 40 минут в день
Правда, данная инициатива распространяется лишь на территорию Китая. Это стало возможным благодаря специальному «детскому режиму».
Недавно власти Китая ограничили доступ младшего поколения к играм. Теперь по этому же пути пошел ByteDance, который ввел новый «детский режим» для детей младше 14 лет в своем приложение Douyin. Если вы не в курсе, то это полный аналог TikTok — точнее его локальная китайская версия.
С активизацией этого режиме, все пользователи, которым не исполнилось 14 лет смогут пользоваться программой всего 40 минут в день.
Интересно, что ByteDance тут же представил еще одно приложение под названием Xiao Qu Xing или по-русски «Маленькая веселая звезда». Это приложение для просмотра коротких видео в стиле TikTok с ограниченным количеством материалов, таким же ограничением по времени в 40 минут и возможностью ставить лайки, но не загружать или делиться видео.
Кроме ограничения по времени, дети в Китае не смогут заходить в Douyin с 10 вечера до 6 утра. Новые ограничения касаются только тех пользователей, которые указали свои настоящие имена и возраст, поэтому Douyin попросил родителей зарегистрировать настоящие данные своих детей. ByteDance также добавил больше контента образовательного характера, такими как наука, история искусств, история и многое другое. Новое приложение, Xiao Qu Xing, видимо, будет поставлять исключительно образовательный контент.
Ограничения на игры, введенные ранее, стали еще более жесткими: детям до 14 лет разрешается играть всего три часа в неделю. При этом играть можно будет только в период с восьми до девяти вечера в пятницу, а также в выходные и праздничные дни. Ранее дети могли играть в течение 90 минут в день и трех часов в праздничные дни. Изменение правил было введено для борьбы с игровой зависимостью.
Стоит отметить, что ограничения на TikTok затронут не так много детей, как кажется. Согласно исследованию издания South China Morning Post, только 0,34 процента пользователей Douyin младше 12 лет, а 4,18 процента — 13-19 лет. Не факт, что цифры правдивы, ведь Douyin официально не публикует демографические данные.
Компания также признала, что обойти новые правила может быть просто. С целью выявления «лазеек» в процессе входа и регистрации, она начала целую кампанию.
Приложение такси Didi удалили из App Store
В выходные стало на одно меньше сервисов такси. Рассказываем, что за конфликт и как он отразится на заказе такси в России.
На прошлой неделе разгорелся скандал между китайскими властями и агрегатором такси Didi, который в прошлом году пришёл и на российский рынок. Суть конфликта: Didi захотел выйти на биржу, тем самым став публичной компанией, что в свою очередь не понравилось властям.
Сначала компании было приказано «внести изменения в соответствии с китайскими правилами защиты данных» в своё приложение, а буквально на прошедших выходных оно окончательно исчезло из магазинов, включая App Store, в Китае.
Интересно, что IPO компания успела провести. На этой неделе Didi привлёк не меньше 4 миллиардов долларов на Нью-Йоркской фондовой бирже!
В своём заявлении Didi успокоила пользователей: компания встала на путь «исправления» и ведёт переговоры с китайскими властями (чтобы в ближайшие сроки приложение вернули). Также стало известно, что в минувшую субботу Didi остановил регистрацию новых пользователей. Для существующих пользователей приложение остаётся в рабочем состоянии.
В России же и других странах приложение скачать можно, также как и зарегистрироваться там и заказать себе машину. Проверили, всё нормально. Но не стоит забывать, что для Didi именно Китай — главный рынок!
Суд США запретил признавать Xiaomi военной компанией КНР
Суд США встал на сторону Xiaomi и не признал её китайской коммунистической военной компанией. В компанию можно инвестировать, как минимум пока…
12 марта суд США запретил Министерству обороны признавать Xiaomi в качестве китайской коммунистической военной компании и предпринимать на основании этого соответствующие действия. В рамках гарантированных обеспечительных мер Суд в полном объеме и с немедленным вступлением в силу постановил отменить ограничения на покупку гражданами США ценных бумаг Xiaomi и требование к гражданам США об отзыве своих инвестиций в компанию в соответствии с Указом Президента США № 13959.
Таким образом, через Суд удалось добиться временной справедливость. В Xiaomi отмечают, что являются публичной компанией с независимым менеджментом, которая создаёт бытовую технику и электронику для гражданского и коммерческого использования.
В официальном заявлении компании сообщается: «Xiaomi считает, что решение присвоить ей статус китайской коммунистической военной компании является необдуманным и нелепым, с чем согласился и судья. Xiaomi продолжит настаивать на том, чтобы суд заявил о незаконности данного действия и добился его безоговорочной отмены».
OPPO впервые обогнал HUAWEI в Китае
Следует признать, что всё к этому шло и гегемонии HUAWEI на родном рынке пришёл конец. Спасибо санкциям США.
OPPO стал самым продаваемым брендом смартфонов в Китае и впервые обогнал HUAWEI. Это данные Counterpoint Research, который отметил, что в январе OPPO захватил 21 процент самого большого рынка смартфонов в мире. Он оказался впереди vivo и HUAWEI, которые получили по 20% рынка. Apple и Xiaomi на китайском рынке входят в пятёрку и идут бок о бок с 16 процентами рынка.
Продажи смартфонов OPPO за прошлый год выросли на 26 процентов и на 33 процента за предыдущий месяц. Причиной стал запуст серии Reno5, который стоит дешевле чем Reno4.
Но у лидерства OPPO есть и обратная сторона медали, ведь компания вышла на первое место не своими силами. К сожалению, американские санкции продолжают буквально душить HUAWEI и это сказывается уже даже на китайском рынке. Доля также упала после продажи бренда HONOR.
HUAWEI создаст свой электромобиль?
Американские санкции продолжают действовать и усиливаться. Из-за этого HUAWEI меняет вектор и уходит с рынка телекоммуникаций.
Сегодня стало известно, что президент США Джо Байден не намерен изменять последние указы своего предшественника Дональда Трампа, касающиеся санкций, наложенных на китайские компании.
В то же время HUAWEI собирается сменить курс развития компании и сосредоточиться на других областях. В частности компания собирается создать свои электромобили. Причем, в ближайшее время.
Судя по всему, для китайского гиганта это будет не трудно, ведь у них уже есть много наработок, касаемо автомобильного софта, 5G технологий и различный автомобильных сенсоров. Сейчас компания договаривается о сотрудничестве с Changan Automobile и BluePark New Energy Technology, а также с рядом автопроизводителей. При этом источники знакомые с ситуацией отмечают, что перговоры идут во всю и скорее всего о сотрудничестве будет объявлено достаточно скоро.
В HUAWEI отметили, что не занимаются разработкой и созданием электромобилей сами. Но при этом никто не отрицает, что компания ищет стороннего партнёра.
Китай — это один из самых быстрорастущих рынков электромобилей. Считается, что к 2025 году электромобили будут составлять 20% от всех продаваемых в стране машин.