Компания Dyson планирует к 2025 году удвоить свой ассертимет и выйти за границы сегмента домашней техники. Компания собирается инвестировать в новые технологии 2,75 млрд фунтов стерлингов и сконцентрировать их в трёх точках: в Сингапуре, на Филлипинах и в Великобритании. Наиболее серьезное развитие будет сконцентрировано в программировании. машинном обучении и робототехнике.
Dyson к 2025 году — это робототехника, двигатели нового поколения, «умные продукты», машинное обучение, коммуникации и исследование материалов. Ключевым направлением станет собственная технология Dyson — твердотельные аккумуляторы. Она разрабатывается в США, Великобритании, Японии и Сингапуре.
В Сингапуре будет открыт новый международный головной офис. Также тут планируется создать передовые научно-исследовательские центры и лаборатории. В Сингапуре планируется запустить университетскую исследовательскую программу, чтобы стимулировать разработку продуктов.
На Филлипинах будет создане специализированный центр разработки ПО. А в Великобритании, в технологическом комплексе на лётном поле в Халлавингтоне, будут расширены разработки в области робототехники и искусственного интеллекта.
Disney создал робота, который имитирует человеческий взгляд
Выглядит это конечно странно и крипово. У робота на шее что-то вроде Kinect, но главное — в Disney забыли натянуть на него кожу.
Компания Disney Research занимается созданием роботов аниматронов. Gizmodo сообщил, что компания добилась серьёзных успехов в робототехнике — они создали гуманоида, который реалистично имитирует человеческий взгляд и движения головы. Автоматон без кожи, но с настоящими глазами выглядит странно и напоминает кибернетического зомби.
Интересно, что на груди у автоматона специальный фотосенсор, который немного напоминает Kinect.
Благодаря морганию, движению глаз робот напоминает живое существо, а не камеру с искусственным интеллектом.
https://youtu.be/SvjDrFqwNCs
Скорее всего данная технология разрабатывается для тематических парков и аттракционов таких как Disneyland и других. Скорее всего его прокачают, натянув кожу и он не будет пугать посетителей парка, а наоброт будет служить им: общаться и информировать посетителей, а также заботиться об одиноких.
Для синхронизации губ в Cyberpunk 2077 использовали ИИ
Процедурная генерация движений губ в Cyberpunk 2077 проводилась для 10 языков, включая русский. Беда Ведьмака не повторится…
Многие из нас помнят один из главных косяков игры Ведьмак: Дикая охота — полное непопадание героев в движение губ и к тому же странные ускорения и замедления текста. Чего уж скрывать, это и правда бесило… Но с Cyberpunk 2077 такого не будет, ведь на помощью пришёл искусственный интеллект.
Диалоги в игре переведены на 10 языков, включая полную русскую озвучку. Также будут субтитры на нескольких языках. При этом для того чтобы движения губ были синхронизированы и таким образом качество игры возросло в CD Project Red использовали ИИ для синхронизации движения губ. Также речь идёт о движении глаз и бровей.
Об этом сообщил ведущий технический директор по персонажам Матеуш Поплавски. Версии на 10 языках получили полный липсинк: Английский, Немецкий, Испанский, Французский, Итальянский, Польский, Портгальский Бразильский, Мандарин (Китайский), Японский и конечно же Русский.
Использовалось решение Jali Research, которое и позволло сделать подобную штуку.
Напомним, что игра выйдет уже 19 ноября.
Как работают нейросети? Разбор
В наших материалах постоянно звучат слова Искусственный Интеллект и Нейросети. Так почему бы на просто примере не разобраться, как работают нейросети?
Нейросети, машинное обучение, искусственный интеллект. Звучит круто, но как это всё работает?
Объясню на простом примере. Представьте школьника, который пыхтит над контрольной по математике. И вот он подобрался к последнему уравнению, где нужно было вычислить несколько неизвестных (a, b и c) и посчитать ответ.
(a+b)*c=?
Он решает задачу и вдруг краем глаза замечает, что правильный ответ 10, а у него вообще не то — 120 тысяч. Что делать? По-хорошему, надо бы заново всё считать. Но времени мало. Поэтому он решает просто подогнать значения в уравнении, чтобы получился правильный ответ.
Он это делает и понимает, что значения a, b и с он посчитал неправильно еще в предыдущем уравнении. Поэтому там тоже надо всё быстро поправить. Он это делает и сдаёт работу.
Естественно, учительница палит, что он просто подогнал решение под правильный ответ и ставит ему двойку. И зря! Потому что, жульничество школьника на контрольной, можно считать прообразом метода машинного обучения, который позволил нейросетям совершить революцию в развитии компьютерного зрения, распознавания речи и искусственного интеллекта в целом. На разработку этого метода ушло целых 25 лет! И называется он алгоритмом обратного распространения ошибки.
Да-да, машинное обучение — это фактически подгонка уравнения под правильный ответ. Но давайте немного углубимся и поймем как это всё работает на самом деле, на примере простейшей нейросети.
Классические алгоритмы
Допустим, мы хотим научить компьютер распознавать рукописные цифры.
Как решить эту задачу? Отличник бы воспользовался классическими математическими методами.
Он бы написал программу, которая может определять специфические признаки, которые отличают одну цифру от другой. Допустим в 8-ке есть два кружочка, в 7-ке две длинные прямые линии и так далее. Вот только выявлять, что это за признаки и описывать их программе ему бы пришлось вручную. Короче надо было проделать кучу работы, и он бы всё равно обломался.
С такими задачами отлично справляются нейросети, потому как нейросеть может выявлять и находить эти специфические признаки самостоятельно. Как она это делает?
Для примера возьмём нейросеть с классической структурой, под названием многослойный перцептрон.
Структура нейросети
Нейросеть состоит из нейронов, а каждый нейрон — это ячейка, которая хранит в себе какой-то ограниченный диапазон значений. В нашем случае это будут значения от 0 до 1. На вход каждого нейрона поступает множество значений, а на выходе он отдаёт только одно. Наша нейросеть называется многослойной, потому, что нейроны в ней организованы в столбцы, а каждый столбец — это отдельный слой. Как видите тут целых четыре слоя.
Самый первый слой называется — входным. По сути, туда просто поступают входные данные.
Например, если мы хотим распознать картинку с цифрой размером 28 на 28 пикселей нам нужно, чтобы в первом слое нашей сети было 784 нейрона, по количеству пикселей в картинке.
Так как нейросеть может хранить только значения от 0 до 1 закодируем яркость каждого пикселя в этом диапазоне значений.
Следующие два слоя называются скрытыми. Количество нейронов в скрытых слоях может быть каким угодно, это подбирается методом проб и ошибок. Именно эти слои отвечают за выявление специфических признаков.
Значения из входного слоя поступают в скрытые слои, там происходит специфическая математика, значения преобразуются и отправляются в последний слой, который называется выходным.
В том нейроне выходного слоя, в котором окажется самое высокое значение, и высчитывается ответ. Поскольку в нашей нейросети мы распознаем цифры, то в выходном слое у нас 10 нейронов, каждый из которых обозначает ответ от 0 до 9.
Веса и смещения
Структура примерно понятна, но какие данные передаются по слоям и что за специфическая математика там происходит?
Разберем на примере одного из нейронов второго слоя.
В этот нейрон, как и в другие нейроны скрытого слоя, поступает сумма всех значений нейронов входного слоя. Напомню, что задача нейронов второго слоя — находить какие-то признаки. Например, этот нейрон мог бы искать горизонтальную линию в верхней части цифры 7.
Если бы мы действовали в логике классического алгоритма, то мы бы могли присвоить разным областям разные коэффициенты. Например мы предполагаем, что в верхней части изображения должны быть яркие пиксели, например горизонтальная палочка у 7-ки. Для этой области мы можем задать повышенные коэффициенты, а для других областей — пониженные. Такие коэффициенты в нейросетях принято называть весами. В формулах обычно обозначаются буквой w.
Теперь смотрите: перемножая входные значения яркостей на веса мы понимаем, была в этой области палочка или нет. Если признак найден, то в нейрон будет записано большое число, а если признака не было — число будет маленьким.
Но для того, чтобы активировать нейрон, нам нужно подать туда достаточно высокое число, выше какого-то порогового значения. В противном случае, нейрон выпадет из игры и дальше ничего не передаст.
Как это делается?
Мы знаем, что нейрон может содержать значения от 0 до 1. Но входяшие данные могут иметь значение существенно больше: мало того, что мы суммируем все значения из первого слоя, так мы еще их перемножаем на веса. Поэтому полученное значение нам нужно нормировать, например, при помощи функции типа сигмоиды или ReLU.
Но представьте, что на исходных картинках может быть шум, какие-то точки, черточки и прочее. Этот шум нужно как-то отсекать. Для этого в формулу вводится коэффициент смещения, по английски Bias, и он обозначается буквой b. Например, если Bias отрицательный — нейрон будет активироваться реже.
Вся эта функция, кстати называется функцией активации.
Все веса и смещения для каждого нейрона настраиваются отдельно. Но даже в небольшой нейросети типа нашей, весов и смещений более 13 тысяч. Поэтому вручную их настроить не получится. И как же нам задать правильные веса?
Обучение
А никак! Мы просто даем нейросети произвольные значения весов и смещений. И в итоге, естественно, мы получаем совершенно случайные ответы на выходе.
И вот тут мы можем вспомнить, что у нас, как и у двоечника в начале рассказа, есть преимущество. Мы знаем правильные ответы, а значит в каждом конкретном случае. мы можем указать нейросети насколько она ошиблась. И тут в бой вступает тот самый алгоритм обратного распространения ошибки! В чем его суть?
Допустим, мы загрузили в нейросеть цифру 2. если бы нейросеть работала идеально в выходном нейроне отвечающем за распознавание двойки было бы максимальное значение равное единице. А в остальный нейронах были бы нолики. Это значит что нейросеть на 100% уверена, что это двойка, а не что-то иное. Но мы получили другие значения.
Однако, поскольку мы знаем правильный ответ, мы можем вычесть из неправильных ответов правильные и подсчитать насколько нейросеть ошиблась в каждом случае. А дальше зная степень ошибки, мы можем отрегулировать веса и смещения для каждого нейрона пропорционально тому, насколько они способствовали общей ошибке.
Естественно, проделав такую операцию один раз мы не сможем добиться правильных значений на выходе. Но с каждой попыткой общая ошибка будет уменьшаться. И только после сотен тысяч циклов прямого распространения ошибки и обратного, нейросеть сможет сама подобрать оптимальные веса и смещения. Вот и всё! Так и работают нейросети и машинное обучение.
Другие структуры
Мы с вами рассмотрели самый простой пример нейросети. Но существуют масса архитектур нейросетей:
Благодаря искусственному интеллекту мы получили «актуальную» версию легендарного фильма Братьев Люмьер — Прибытие поезда на вокзал Ла-Сьота в 4K-разрешении и со скоростью 60 кадров в секунду.
Денис Ширяев создал эту версию фильма с помощью Gigapixel AI от Topaz Labs, которая отвечала за перевод в 4K, а также Dain.
Зачем нам нужны нейронные процессоры?
Нейросети и нейропроцессоры — это наше настоящее и, безусловно, наше будущее! Именно искусственный интеллект помогает смартфонам стать ещё круче!
Нейросети сейчас называют новым электричеством. Мы их не замечаем, но пользуемся каждый день. Face ID в iPhone, умные ассистенты, сервисы перевода, и даже рекомендации в YouTube — всё это нейросети. Они развиваются настолько стремительно, что даже самые потрясающие открытия выглядят как обыденность.
Например, недавно в одном из самых престижных научных журналов Nature опубликовали исследование группы американских ученых. Они создали нейросеть, которая может считывать активность коры головного мозга и преобразовывать полученные сигналы в речь. С точностью 97 процентов. В будущем, это позволит глухонемым людям «заговорить».
И это только начало. Сейчас мы стоим на пороге новой технической революции сравнимой с открытием электричества. И сегодня мы объясним вам почему.
Как работают нейросети?
Центральный процессор — это очень сложный микрочип. Он умеет выполнять выполнять кучу разных инструкций и поэтому справляется с любыми задачами. Но для работы с нейросетями он не подходит. Почему так?
Сами по себе нейросетевые операции очень простые: они состоят всего из двух арифметических действий: умножения и сложения.
Например, чтобы распознать какое-либо изображение в нейронную сеть нужно загрузить два набора данных: само изображение и некие коэффициенты, которые будут указывать на признаки, которые мы ищем. Эти коэффициенты называются весами.
Вот например так выглядят веса для рукописных цифр. Похоже как будто очень много фоток цифр наложили друг на друга.
А вот так для нейросети выглядит кошка или собака. У искусственного интеллекта явно свои представления о мире.
Но вернёмся к арифметике. Перемножив эти веса на исходное изображение, мы получим какое-то значение. Если значение большое, нейросеть понимает:
— Ага! Совпало. Узнаю, это кошка.
А если цифра получилась маленькой значит в областях с высоким весом не было необходимых данных.
Вот как это работает. Видно как от слоя к слою сокращается количество нейронов. В начале их столько же сколько пикселей в изображении, а в конце всего десять — количество ответов. С каждым слоем изображение упрощается до верного ответа. Кстати, если запустить алгоритм в обратном порядке, можно что-нибудь сгенерировать.
Всё вроде бы просто, да не совсем. В нейросетях очень много нейронов и весов. Даже в простой однослойной нейросети, которая распознает цифры на картинках 28 x 28 пикселей для каждого из 10 нейронов используется 784 коэффициента, т.е. веса, итого 7840 значений. А в глубоких нейросетях таких коэффициентов миллионы.
CPU
И вот проблема: классические процессоры не заточены под такие массовые операции. Они просто вечность будут перемножать и складывать и входящие данные с коэффициентами. Всё потому, что процессоры не предназначены для выполнения массовых параллельных операций.
Ну сколько ядер в современных процессорах? Если у вас восьмиядерный процессор дома, считайте вы счастливчик. На мощных серверных камнях бывает по 64 ядра, ну может немного больше. Но это вообще не меняет дела. Нам нужны хотя бы тысячи ядер.
Где же взять такой процессор? В офисе IBM? В секретных лабораториях Пентагона?
GPU
На самом деле такой процессор есть у многих из вас дома. Это ваша видеокарта.
Видеокарты как раз заточены на простые параллельные вычисления — отрисовку пикселей! Чтобы вывести на 4K-монитор изображение, нужно отрисовать 8 294 400 пикселей (3840×2160) и так 60 раз в секунду (или 120/144, в зависимости от возможностей монитора и пожеланий игрока, прим.ред.). Итого почти 500 миллионов пикселей в секунду!
Видеокарты отличаются по своей структуре от CPU. Почти всё место в видеочипе занимают вычислительные блоки, то есть маленькие простенькие ядра. В современных видюхах их тысячи. Например в GeForce RTX2080 Ti, ядер больше пяти тысяч.
Всё это позволяет нейросетям существенно быстрее крутиться GPU.
Производительность RTX2080 Ti где-то 13 TFLOPS (FLOPS — FLoating-point Operations Per Second), что значит 13 триллионов операций с плавающей запятой в секунду. Для сравнения, мощнейший 64-ядерный Ryzen Threadripper 3990X, выдаёт только 3 TFLOPS, а это заточенный под многозадачность процессор.
Триллионы операций в секунду звучит внушительно, но для действительно продвинутых нейронных вычислений — это как запустить FarCry на калькуляторе.
Недавно мы игрались с алгоритмом интерполяции кадров DAIN, основанном на машинном обучении. Алгоритм очень крутой, но с видеокартой Geforce 1080 уходило 2-3 минуты на обработку одного кадра. А нам нужно чтобы подобные алгоритмы работали в риалтайме, да и желательно на телефонах.
TPU
Именно поэтому существуют специализированные нейронные процессоры. Например, тензорный процессор от Google. Первый такой чип в Google сделали еще в 2015 году, а в 2018 вышла уже третья версия.
Производительность второй версии 180 TFLOPS, а третьей — целых 420 TFLOPS! 420 Триллионов операций в секунду. Как они этого добились?
Каждый такой процессор содержит 10-ки тысяч крохотных вычислительных ядер, заточенных под единственную задачу складывать и перемножать веса. Пока, что он выглядит огромным, но через 15 лет он существенно уменьшится в размерах. Но это еще фигня. Такие процессоры объединяться в кластеры по 1024 штуки, без каких либо просадок в производительности. GPU так не могут.
Такой кластер из тензорных процессоров третьей версии могут выдать 430 PFLOPS (пета флопс) производительности. Если что, это 430 миллионов миллиардов операций в секунду.
Где мы и что нас ждёт?
Но как мы уже говорили, это только начало. Текущие нейронные суперкомпьютеры — это как первые классические мейнфреймы занимавшие, целые этажи в зданиях.
В 2000 году первый суперкомпьютер с производительностью 1 терафлопс занимал 150 квадратных метров и стоил 46 миллионов долларов.
Спустя 15 лет NVIDIA мощностью 2?3 терафлопса, которая помещается в руке стоит 59$.
Так что в следующие 15-20 лет суперкомпьютер Google тоже поместится в руке. Ну или где мы там будем носить процессоры?
Кадр из режиссерской версии фильма «Терминатор-2»
А мы пока ждём момента, довольствуемся нейромодулями в наших смартфонах — в тех же Qualcomm Snapdragon’ах, Kirin’ах от Huawei и в Apple Bionic — они уже тихо делают свою работу.
И уже через несколько презентаций они начнут меряться не гигагерцами, ядрами и терафлопсами, а чем-то понятным для всех — например, распознанных котиках в секунду. Всё лучше, чем попугаи!
Обзор HONOR 9X: Как ИИ прокачивает смартфон?
На примере HONOR 9X мы проверили врут ли нам насчёт искусственного интеллекта и как он улучшает смартфоны
В последние годы, мы слышим презентациях одно и то же — AI, ИИ, Искусственный Интеллект — каждый раз. Мы постоянно слышим это словосочетание, но что именно он делает и как прокачивает наши смартфоны? Давайте разберёмся!
Я всегда думал, что искусственный интеллект в смартфоне это какое-то баловство. И нужен он только для того, чтобы делать небо синее, а траву зеленее на фоточках. Но углубившись в технологию, я понял, что всё гораздо интереснее.
Нейронный бум начался пару лет назад, когда появился первый мобильный чипсет со встроенным NPU модулем — Kirin 970. Тогда локальные нейронные вычисления были в новинку для смартфонов, и преимущества ИИ были доступны только на дорогих моделях. Но сейчас даже в доступных гаджетах вроде HONOR 9X есть ИИ алгоритмы. Но что же они делают?
Ночной режим
В смартфонах HONOR практически за весь цикл создания фотографии в знаменитом Ночном режиме отвечает искусственный интеллект:
1. Во-первых, нейронная сеть отвечает за определение правильной выдержки. ИИ замеряет силу и характер тряски телефона. Определяет в руках он или на подставке, и подбирает оптимальную выдержку, чтобы избежать смазов.
2. Потом, ИИ выбирает экспозицию и сколько нужно сделать кадров в зависимости от яркости сцены и её типа. То есть искусственный интеллект, условно говоря, понимает, что если на снимке есть человек, надо бы сделать сцену ярче, чтобы были видны лица, либо решает сохранить глубокие тени для красивого пейзажа.
3. На последнем этапе, ИИ объединяет все снимки в один. Он отбрасывает смазанные кадры, выравнивает удачные и попиксельно склеивает их, дорисовывая края изображения если что-то обрезалось, уменьшает шумы и прочее… В общем ИИ действительно используется на полную.
В HONOR 9X установлен блок из 3 камер: основная на 48 Мп, сверхширик на 8 Мп и сенсор глубины для размытия фона.
Кстати, обратите внимание, на экране нет никаких челок и вырезов, здесь безрамочный All-View дисплей с диагональю 6.59”. Это IPS. Всё потому, что фронталка тут выдвигается. Она на 16MP, да ещё и защищена от воды и пыли, а при падении смартфона автоматически прячется в корпус. Но искусственный интеллект внутри меня, всё равно рекомендует телефон не ронять.
Улучшение сигнала
Искусственный интеллект в ночном режиме — об этом ещё можно было догадаться. Но есть и совершенно необычный кейс применения нейронных сетей в телефоне. Хотя к камере мы еще вернемся. Как думаете для чего? Для улучшения качества приёма сигнала с антенн!!!
Как правило антенны в телефонах расположены сверху и снизу. И это казалось бы адекватное решение. Но при горизонтальном хвате, когда берешь телефон в обе руки, чтобы поиграть, перекрываются обе антенны. Помните антенногейт на iPhone 4?
Так вот, инженеры HONOR решили этот вопрос очень элегантно. Во-первых, сильно переработав традиционное расположение антенн. А во-вторых, обучили нейронную сеть перераспределять мощность сигналов антенн в зависимости от хвата и сценариев использования телефона. Тем самым увеличив качество приёма на величину до 50%!
Теперь во время важного боя в Fortnite до вас смогут дозвониться родные и близкие! А это всегда хорошо. На этом, кстати, заслуги искусственного интеллекта не заканчиваются.
В условиях плохого сигнала 4G, в метро или лифте, ИИ в реальном времени сокращает время переподключения к 4G с традиционных 30 секунд до 1-2 секнд. Это очень полезно когда слушаешь в пути музыку из облака или смотришь любимый Droider на YouTube!
Стабилизация
На задней крышке телефона, красуется надпись AI Camera, которая как бы намекает — не одним ночным режимом тут управляет ИИ. Понятно, что в камерах ИИ используется для определения сцен и их улучшения. Для портретного режима и бьютификации тоже. К этому мы уже привыкли.
Крышка, кстати, переливается в виде буквы X. Очень в стиле искусственного интеллекта.
Но кто бы мог подумать, что ИИ отвечает за стабилизацию видео. Я думал это всё маркетинг, но даже при отсутствии в камере оптической стабилизации изображения видео получается качественным. И всё это софт.
Как это работает? Общий смысл технологии в том, что в отличие от обычных алгоритмов ИИ может динамически изменять степень компенсации тряски в зависимости от того, что происходит в кадре. В итоге получается очень плавная и естественная картинка без смазов и мелких подергиваний.
Процессор
А знаете, что самое интересное? В этом телефоне установлен чипсет Kirin 710F, в котором даже нет отдельного NPU модуля. Но как тогда это всё работает? В HONOR объяснили, что все нейронные вычисления работают на программном уровне. Более того, за счет оптимизации ИИ и без того энергоэффективный процессор работает еще экономичнее. Я протестировал устройство на разных играх. С учётом батарейки в 4000 мАч, 6 Гб оперативки и нового поколения фирменной технологии GPU Turbo получился очень достойный игровой смартфон. И снова говорим спасибо искусственному интеллекту.
И в конце хочется сказать, я приятно удивлён тому, что сейчас искусственный интеллект работает отлично даже в доступных смартфонах, таких как HONOR 9X и это не маркетинг или реклама, а чистая правда!
Гибкий Galaxy и бюджетный Pixel | Droider Show
А ещё смерть профессий телеведущего и видеоблогера
В Droider Show можно узнать все слухи о смартфонах, над которыми тайно работает Google. Кроме того, можно увидеть прототип складного «планшетофона», официально продемонстрированного Samsung.
На десерт Борис Веденский расскажет об искусственном ведущем новостей, которого не отличить от обычного человека.
О существовании «нейронных сетей», «искусственного интеллекта» и «машинного обучения» слышали все, кто более-менее интересуется современными технологиями. Однако не каждый знает о реальном применении этих словосочетаний. Борис Веденский решил разобраться, что к чему.
Ещё больше информации про AI, ML и IoT можно будет узнать на RAIF 2018, который пройдет 23 октября в Москве.
Google представила Android 9.0 Pie
ОС уже доступна для всех поколений смартфонов Pixel
Компания решила выпустить Зеленого робота с пирогом в качестве официального десерта именно сегодня.
Напомним, что Android 9.0 Pie обладает нативной поддержкой «моноброви», переработанным экраном многозадачности, интуитивной функцией Do Not Disturb и множеством других нововведений.
Первыми смартфонами, которые получат юбилейную ОС по воздуху, стали линейка Pixel и Essential Phone. Кстати, файлы заводской прошивки для «пиксельфонов» уже доступны на сайтеGoogle.
Далее до конца осени обновление будет доступно обладателям моделей из линейки Android One, Xperia XZ2 от Sony, Mi Mix 2S от Xiaomi, Nokia 7 Plus от HMD Global, R15 Pro от Oppo, X21 от Vivo и OnePlus 6.