Состоялась премьера фильма Fellini Forward, снятого с помощью ИИ

В Венеции состоялась премьера «одного из неснятых фильмов Федерико Феллини», а в Москве — закрытый показ! Далее — Нью-Йорк и широкий показ.
aka_opex 11 сентября 2021 в 10:08

9 сентября в Москве состоялась премьера фильма Fellini Forward, который был снят с помощью искусственного интеллекта. В рамках премьеры российские режиссеры Кирилл Сребренников и Анна Меликян поделились своими мыслями о роли ИИ в кино. Широкая аудитория сможет увидеть фильм в октябре.

Интересно, что мировая премьера состоялась всего пару дней назад в рамках 78-го Венецианского кинофестиваля. Также короткометражку покажут 29 сентября на Нью-Йоркском кинофестивале.

В рамках проекта Campari Red Diaries 2021 было проведено масштабное исследование творчества легендарного итальянского режисеера, а позднее они были переосмыслены с помощью новых технологй и искусственного интеллекта и был создан фильм-зарисовка, которую мог бы снять Федерико Феллини в Риме. Также у Fellini Forward есть документальная часть, в которой эксперты рассказывают о проекте создания уникальной картины и рассуждают о будущем кинематографа.

Фильм вдохновлен жизнью Федерико Феллини и представляет собой метафоричную историю дебюта и творческого пути Маэстро в мире кинематографа, где публика сопровождает каждый его шаг: от первой искры в страстном юноше до выдающихся творений.

Проектом занималась студия UNIT9, которая проанализировала работы режиссера, чтобы понять важные детали сценариев, характерные речевые обороты, фирменные кадры и присущие героям выражения. На основе этих данных были разработаны алгоритмы машинного обучения, с помощью которых искусственный интеллект предложил варианты сценариев и визуальных элементов для нового короткометражного фильма, пронизанного тем самым ощущением Felliniesque.

Также в проекте приняли участие племянница Федерико Феллини — Франческа Фаббри Феллини и коллеги режиссера: оператор фильма «Клоуны» Бласко Джурато, художник-постановщик Данте Феррети, который принимал участие в съёмках фильма «Репетиция оркестра», «Город женщин», «И корабль плывает», «Джинджер и Фред», «Голос Луны», директор итальянского магазина-мастерской Sartoria Farani, где можно увидеть сохранившиеся костюмы из некоторых величайших фильмов Феллини Луиджи Пикколо. Они делились своими воспоминаниями о выдающемся режиссере.

Искусственный Интеллект снял короткометражный фильм в духе Феллини

Федерико Феллини уже давно нет с нами, но с помощью современных технологий и машинного обчения, искусственный интеллект создал новый фильм маэстро.
roydroider 23 июля 2021 в 09:20

Как насчет того, чтобы применить искусственный интеллект и создать с помощью новых технологий и алгоритмов машинного обучения короткометражный фильм в двух великого Федерико Феллини? Именно такую нетривиальную задачу поставил себе бренд Campari и создал проект Fellini Forward в рамках компании Red Diaries. Cоздатели проекта переосмысливают работы одного из величайших кинорежиссеров в истории, используя методы искусственного интеллекта.

Документальный фильм о создании короткометражки будет представлен 7 сентября на Венецианском кинофестивале и 29 сентября на Нью-Йоркском кинофестивале.

Интересно, что Федерико Феллини при жизни пересекался с Campari — в 1984 году он создал рекламную кампанию. Спустя 37 лет появляется короткометражный фильм, посвященный жизни Феллини и его мечтам, а благодаря слаженному сотрудничеству человека и искусственного интеллекта, создателям картины удалось отразить уникальный авторский стиль режиссера.

Команда экспертов в области искусственного интеллекта из студии UNIT9 разработала инструменты, которые позволили исследовать творчество Федерико Феллини. С самого начала работы над проектом к его команде присоединилась племянница режиссера Франческа Фаббри Феллини. Именно она выступила в качестве консультанта проекта и представила  режиссера картины Максимилиана Нимана и авторов документального фильма коллегам Феллини. Франческа также приняла участие в кастинге, создании костюмов и написании сценария для короткометражного фильма.

На всех этапах проекта были задействованы члены съемочной группы, с которой работал Федерико Феллини в разные годы и на разных этапах своего творчества. Среди них — оператор Бласко Джурато («Клоуны», 1970), художник по костюмам и обладатель трех премий «Оскар» Данте Феррети («Репетиция оркестра», 1978; «Город женщин», 1980; «И корабль плывет…», 1983; «Джинджер и Фред», 1986; «Голос Луны», 1990), а также Луиджи Пикколо, директор прославленного итальянского ателье Sartoria Farani, в котором хранятся восстановленные костюмы из величайших фильмов Феллини, включая «Сатирикон» (1969), «Клоуны» (1970) и «Амаркорд» (1973). Именно они проследили, чтобы все  элементы фильма являлись по-настоящему «феллиниевскими» или по-итальянски «felliniesque».

Закари Канепари и Дреа Купер, участники режиссерского дуэта ZCDC, запечатлели процесс создания короткометражного фильма. Для этого они пригласили экспертов в области искусственного интеллекта и творчества Маркуса дю Сутуа и доктора Эмили Л. Спратт, а роль консультантов документального фильма предложили искусствоведу и исследователю творчества Феллини Хава Алдуби и куратору Galleria Campari Анита Тодеско. С их помощью в фильме отобразили разноплановые точки зрения на роль искусственного интеллекта в творчестве.

Премьера короткометражного фильма Fellini Forward и торжественная церемония состоятся 7 сентября на Венецианском кинофестивале, а 29 сентября картина будет представлена на Нью-Йоркском кинофестивале.

P.S. Так и хочется вспомнить слова песни группы Би-2: «В одном из неснятых фильмов Федерико Феллини…»

Sony FlavorGraph: ИИ, который предсказывает вкус!

Искусственный интеллект уже добрался до вашей кухни. Он уже пишет музыку, рисует картины и создаёт несуществующих котов, но как насчёт еды?
aka_opex 19 апреля 2021 в 01:19

Компания Sony разработала специальный искусственный интеллект, который определяет вкус блюд, комбинируя информацию об ингредиентах.

Казалось, что ИИ используется в играх, автономных автомобилях, но мы ни разу не видели, чтобы он использовался в готовке. Сначала Google AI сразился с победителем Great British Bake Off (Лучший Пекарь Британии) — телевизионного проекта. А теперь Sony представил FlavorGraph, который основыввается на технологии Deep Learning. ИИ сделан таким образом, чтобы спаривать всевозможноые ингредиенты продуктов и понимать, какой получится вкус. Например, можно соединить молоко, оливки и чеснок.

FlavorGraph создан совместно с корейским университетом. Идея в том, что известный повара используют при приготовлении интуицию, которая основывается на их собственном опыте. Классические комбинации продуктов, вроде сыра и помидоров, свинины с яблоками, имбирём и чесноком, а также многие другие были объяснены с помощью науки. Учёные выяснили, что ингредиенты отдают в блюдо свои доминантные вкусовые молекулы, что часто работает хорошо. В то же время различные ингредиенты могут комбинироваться в разные химические составы.

Чтобы «объяснить» это искусственному интеллекту пришлось составить молекулярную информацию об ингредиентах, а также их использование в различных связках в классических рецептах. После этого появилась база из 1561 вкусовой молекулы с разными показателями, такими как горечь, фруктовость, сладость и так далее. Кроме ингредиентов, ИИ изучил около миллиона рецептов, чтобы понять какие ингредиенты использовались друг с другом.

Результаты показывают химические сочетания, которые помогают понять, какие продукты отлично дополняют друг друга. Также благодаря ИИ можно понять, что подходит например к цитрусовым, а что к вину. При этом ИИ пока «не открыл Америку» и не придумал какое-то безумное сочетание, до которого не догадалось бы человечество, вроде белого шоколада с чёрной икрой. Но это только начало…

 

OpenAI — SkyNet от Илона Маска. Разбор

Сегодня мы расскажем об очередном стартапе Илона Маска, который на самом деле даже уже покинул проект. Речь об искусственном интеллекте и OpenAI.
Валерий Истишев 7 марта 2021 в 08:07

Три закона робототехники Айзека Азимова:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Признайтесь, что с таким быстрым развитием технологий, разработкой квантовых компьютеров и повсеместным использованием нейронных сетей, то вы и мы в последние годы ждем уже появления SkyNet?

А может быть вы наоборот считаете, что до реального искусственного интеллекта еще так далеко и что нам, на нашем веку, можно вообще не беспокоиться. Ведь для реальной интеллектуальной деятельности машин нужны гораздо большие вычислительные мощности!

Сегодня, на примере еще одного стартапа Илона Маска, под названием OpenAI, мы с вами посмотрим насколько далеко от нас реальный SkyNet и расскажем вам о том, в каком состоянии находится разработка ИИ в принципе прямо сейчас.

Сегодня мы с вами узнаем может ли робот написать симфонию или нарисовать шедевр?

Что такое ИИ?

Для начала давайте поймем, что такое искусственный интеллект?

Согласно одному из определений — это искусственно созданная система, которая может решать творческие задачи, способна к саморазвитию, самопостроению и самоулучшению себя и себе подобных.

В принципе само понятие ИИ — это скорее философское понятие. Мы никогда не увидим громких заголовков, вроде “Изобретён Искусственный Интеллект!”, человечество будет идти к нему медленно, но уверенно.

К сожалению, нет абсолютно точного определения, что такое искусственный интеллект, но есть тест. Знаменитый тест Алана Тьюринга, который он описал в 1950 году в философском журнале Mind. Суть теста заключается в том, что человеку и компьютеру задаются различные вопросы, а третий человек слушает их ответы. Главное, что человек слушающий ответы не знает, кто именно отвечает и, если у компьютера получилось обмануть человека, то считается, что компьютер победил и прошел тест Тьюринга.

Этот тест был впервые пройден компьютером в 2014 году. Специальная программа Eugene, или Женя Густман, с использованием пяти суперкомпьютеров, смогла обмануть 33% собеседников, что превысило необходимые 30% для прохождение порога.

Кстати, тест Тьюринга работает в две стороны. Есть и обратный тест, тест на человека, и его наверняка проходил каждый смотрящий это видео — это знаменитая Captcha — Completely Automated Public Turing test to tell Computers and Humans Apart или по-русски — полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей.

И казалось бы, тест пройден, вот он искусственный интеллект, но на самом деле все гораздо сложнее.

В общем, есть два подхода к созданию ИИ:

Первый — нисходящий, считайте сверху-вниз, то есть создание, баз знаний и систем, имитирующих реальные психические процессы человека, такие как мышление, рассуждение, эмоции, творчество и так далее.
Второй, который, опять же, знаком большинству из вас: восходящий или снизу-вверх, когда изучаются нейронные сети и так называемые эволюционные вычисления. Создаются простейшие нейронные модели, сочетание которых в итоге моделирует интеллектуальное поведение.

Это и есть те самые нейронки, о которых мы уже вам раньше рассказывали! Это именно те самые нейронки, которые занимаются улучшением ваших фотографий и подбором видео в TikTok.

Основная идея в том, что в будущем, объединив множество нейронных сетей, предназначенных для разных целей, можно построить фактически самостоятельно думающий компьютер, уровень самообучаемости и знаний которого будет такой, что он будет саморазвиваться! Это и есть ИИ.

Что сейчас?

О современном состоянии ИИ сказать не просто. Ведь есть множество областей, где нейронные сети и ИИ применяются очень активно. Хорошим примером является автопилот машин Tesla!

А есть области, где только планируется начать активное внедрение, и тут можно вспомнить о медицине. Только подумайте — нейронная сеть, которая может в автоматическом режиме производить анализ результатов и давать советы по лечению, например, обработка рентгеновских снимков или анализы крови!

Вообще за последние пять лет интерес к области искусственного интеллекта вырос более чем в 3 раза, а количество стартапов только в период с 2015 до 2018 год выросло на 113 процентов.

А поскольку это очень активно развивающаяся область, то и количество ежегодных научных публикаций за последние 20 лет выросло раз в 8!

Огромным скачком стало и развитие нейронных модулей в процессорах, и рост инвестиций в эту область огромный!

В общем, вы поняли — развитие области не просто идет, оно летит вверх!

И знаете, что самое интересное? На вопрос героя Уилла Смита о том может ли робот написать симфонию, уже можно ответить — Да, может!

OpenAI

Илон Маск и еще 5 инвесторов в 2015 году организовали стартап под названием OpenAI, основная суть которого была в том, чтобы увеличить контроль над развитием и созданием ИИ.

Основатели OpenAI говорили о ней именно как о некоммерческой организации, которая не связана финансовыми обязательствами акционеров, чтобы исследователи могли сосредоточить свои силы на создании положительного воздействия ИИ на человека.

Сам Маск говорил, что считает ИИ одной из главных угроз человечества и для его лучшего контроля он активно поучаствовал в создании стартапа, который как раз занимается исследованиями в области ИИ.

«Если не можешь победить что-то — возглавь!», судя по всему именно этим они и руководствовались! И их результаты удивляют.

Вы наверное помните новость о том, что нейронная сеть обыграла команду OG, чемпионов International 2018 и 2019 годов в DOTA 2! Так вот эта нейронная сеть была создана командой OpenAI. Билл Гейтс тогда написал, что это очень важное событие, так как игра требует сложного командного взаимодействия.

Всего за время разработки OpenAI представили несколько нейронных сетей. Например, Jukebox — специальная программа, обученная на более чем 1 миллионе песен всех жанров, которая способна самостоятельно писать музыку, осмысленный текст, и даже синтезировать вокал! Так что да — и симфония, написанная машиной, уже возможна!

Только послушайте примеры! В принципе, большинство современных рэп-исполнителей больше не нужны.

А как вам нейросеть DALL·E, которая способна просто по текстовому описанию, рисовать картинки? Она способна сама понимать контекст написанного, например человек задает “a collection of glasses sitting on the table” и давайте посмотрим, что выдает нейронная сеть?

Если переводить с английского, то изначальное описание можно сформулировать двумя вариантами — первый это “набор очков на столе”, и мы видим, что нейронка рисует различные картинки, при этом есть и совсем нереалистичные. Но так же это описание можно перевести и как “набор бокалов на столе”, соответственно нейронная сеть рисует варианты и с бокалами!

Но как это стало возможным? Все благодаря специальному обучению алгоритма обработки естественного языка, под названием GPT-3. Это третья версия алгоритма представленная в 2020 году. Первая была анонсирована в 2018, для обучения которой была использована текстовая база в 5 Гигабайт, вторая версия спустя год уже изучила 40 гигабайт, а третья использовала базу в 500 ГБ текстов, данных, и 175 миллиардов различных параметров.

И такое количество данных позволяет ей делать уникальные вещи, например, понимать смысл прочитанного, писать большие структурированные тексты или, например, стихи!

Как же это работает?

На входе мы спрашиваем у программы вопрос! То есть мы фактически просим робота понять, что мы только что у него спросили и выдать нам ответ.

Алгоритму мы подаем один пример, где указываем лишь признаки и просим его предсказать, что будет дальше.

В процессе обучения будут ошибки, но внутренние алгоритмы рассчитывают ошибку в предсказании и обновляют нейронку до тех пор, пока ответ не улучшится.

И так несколько миллионов раз. Теперь представим, что наша нейронка уже обучена, то есть она уже скушала эти 500 ГБ текстов, которые взяла из книг и статей в интернете

Далее, после задания вопроса сети, начинаются сложнейшие многоуровневые преобразования. Заданные слова преобразуются в набор цифр и попадают в специальный 96-уровневый декодер, на каждом уровне этот набор чисел проходит через 1,8 миллиарда параметров для вычислений.

Чтобы было чуть более понятно — это авторегрессионная модель, то есть такая модель, которая учитывает результаты предыдущих вычислений и основывается на них на следующем кругу расчетов. И вот пройдя все эти круги в конце выдается ответ, который имеет наименьшую вероятность ошибки на основе предыдущего обучения! Далее выдается ответ.

И вы спросите а какие перспективы? Они огромные. Фактически GPT-3 способна решать любые задачи на английском языке уже сейчас. И не только…

Стоит сказать, что все совсем не так гладко с этой открытостью и светлым будущим ИИ. Дело в том, что Илон Маск покинул проект в 2019 году так как мог возникнуть конфликт интересов. И уже в 2020 году он открыто критиковал подход руководства организации в закрытости и непрозрачности, что, как мы помним, напрямую противоречит принципам заложенным в основе стартапа, да и даже в самом его названии!

А в середине 2020 года произошло что-то совсем странное. Microsoft выкупила эксклюзивные права на тот алгоритм GPT-3, что также подверглось жесткой критике со стороны Маска и сообщества.

Конечно, в самой компании заявили, что это никак не повлияет на доступ независимых разработчиков к GPT-3 через API компании, но определенно все эти новости вызывают недоверие и опасения.

Вывод

В любом случае все это развитие впечатляет. Еще пять лет назад никто и подумать не мог, что телефоны, со своими маленькими матрицами будут способны снимать астрофотографии, так как это делают современные смартфоны Pixel.

А скажите 15 лет назад кому-то, что автомобили самосто смогут самостоятельно безопасно ездить по улицам городов, на вас бы вообще как на сумасшедшего посмотрели!

Сегодня все это уже реальность с развитием нейронных технологий и искусственного интеллекта! И это только начало пути нейронных сетей.

Нам лишь остается верить, что все эти системы будут хорошо контролируемы и защищены от возможных внешних воздействий. Ведь в таких важных вопросах, которые уже непосредственно касаются жизни людей, безопасность и надежность важнее всего.

А как мы с вами знаем даже всесильные три закона робототехники, легко обходятся!

Никобо — «Обнимательный» робот от Panasonic

Если у вас Никобо нет, то это грустная история. Ведь этот смышленный робот просто просится, чтобы его постоянно обнимали.
aka_opex 20 февраля 2021 в 04:15

Компания Panasonic представила робота Никобо, который может стать верным другом и собеседником, особенно для тех, кто сильно страдал от потери общения во время самоизоляции и карантина вследствие пандемии COVID-19.

По сути, это подушка — стационарный «обнимательный» робот. У него нет ног или колес, но при этом он активно крутится на месте и кивает головой, а также моргает своими круглыми глазами и помахивает хвостом. Умный гаджет сделан из приятного вязанного материала, а внутри робота серьезная техническая «начинка».

Например, у него есть камера с функцией распознавания лиц, которая позволяет Никобо идентифицировать своего хозяина. Также тут есть датчик освещения: благодаря ему робот может понять в какой стороне находится солнце и попросить хозяина отнести себя погреться.

Никобо был разработан Panasonic совместно с Мичио Окада, профессором Университета технологий Тоёхаси.

Робот прошёл краудфандинговую кампания на японской платформе Makuake. Идея понравилась пользователям и первый тираж в количестве 320 умных роботов был разобран в первый же день. Стоимость Никобо на платформе составила 39 800 йен ($376), расчетный срок поставки – март 2022 года. Panasonic рассмотрит возможность более массового производства и продажи умного робота в зависимости от уровня интереса и спроса.

Пока робот будет поддерживать ограниченный набор слов на японском, но будут обучаться. Он также может иногда грустить или злиться и потому не отвечать на обращения к нему. Также он может привлекать внимание хозяина.

Никобо работает от аккумуляторов. Масса робота 1,2 – 1, 3 кг. Поддерживает Wi-fi подключение к интернету, может управляться с приложения на смартфоне.

РикРолл в 4K 60 FPS: ИИ на службе музыкальных клипов

Легендарный РикРолл — клип на песню Рика Эстли — Never Gonna Give You Up вышел в 4K-разрешении с 60 FPS. Клип «скормили» искусственному интеллекту.

Клип на песню Рика Эстли — Never Gonna Give You Up всегда был легендарным. Причина не только в песне, движения певца стали интернет-мемом, который весь Интернет знает под названием РикРолл.

https://youtu.be/2ocykBzWDiM

На днях YouTube-канал Revideo выпустил ролик в 4K-разрешении c частотой 60 кадров в секунду.

Ролик просто пропустили через Topaz Video Enhance AI для увеличения разрешения и RIFE (Flowframes) для того, чтобы нарастить количество кадров до 60 FPS.

Получилось великолепно. Не скажем, что клип заиграл новыми красками, но вечная классика стала лучше и чуточку современнее.

Volvo: Автономные лодки уже реальность!

Если вы думали, что автопилот в автомобилях — это будущее, нет! Автопилот в лодках сложнее, но в Volvo уже научились компенсировать ветер и волны.
aka_opex 11 января 2021 в 06:07

Volvo Penta — это проект автономной парковочной системы для лодок. Интегрированноый Assisted Docking (AD) призван облегчить работу капитана в условиях сложного маневрирования в порту. Благодаря умным алгоритмам лодка сама компенсирует влияние волн и ветра и при этом старается максимально уменьшить риск аварии. Эта технология достаточно дорогая, но благодаря ей вас не выкинут из яхт-клуба.

Система Volvo Penta использует комбинацию из GPS, сенсороыв на борту лодки и динамического позиционирования. Используя эту информацию, она в режиме реального времени выполняет все необходимые действия. Пилоту остаётся лишь взять джойстик и устанавливать общее направление движение, а система выполнит всю необходимую работу за него.

Впервые Volvo Penta была показана два года назад во время шведского этапа Volvo Ocean Race в Гётеборге. Тестовая лодка была размещена между двумя 72-футовыми гоночными яхтами и смогла пройти между ними максимально безопасно.

На данном этапе лодки научили парковаться в порту, а также двигаться по прямой, но очевидно, что все это шаги к полностью автономному плаванию.

Технология Volvo Penta станет доступна к заказу с весны 2021 года. Её можно будет установить при заказе новой лодки (если у вас конечно есть на неё деньги). Также Volvo Penta можно будет установить отдельно на яхты размеро от 35 до 120 футов.

Самый большой процессор в мире — Cerebras CS-1. Разбор

Сегодня мы расскажем вам про действительно большой процессор — самую большоую однокристалльную систему в мире. Почему это круто и как он работает?
Валерий Истишев 4 января 2021 в 02:43

Наверняка вы подумали, что это какой-то очередной кликбейт. Что это за самый большой процессор в мире? Похоже сейчас нам будут рассказывать о процессоре, который на 5 процентов больше других, и то если рассматривать этот процессор только с определенной стороны. И да просмотры и прочтения мы хотим собрать, но…

Сегодня мы расскажем вам о процессоре компании Церебро, под названием Cerebras CS-1. И он действительно огромный!

Например GPU, который считался самым большим раньше — это процессор Nvidia V100, а вот новый процессор Церебро. Он почти в 57 раз больше! Площадь самого чипа — 462 квадратных сантиметра — это почти столько же сколько площадь всей Nvidia 3090, вместе с системой охлаждения и разъемами.

А что вы скажете на то, что этот монстр способен симулировать некоторые физические модели быстрее самих законов физики? Заинтриговали? Что ж тогда присаживайтесь, наливайте чаек. Сегодня будет разбор по-настоящему огромного однокристального процессора!

Итак, что же это за монстр такой и зачем он нужен? Давайте сразу ответим на второй вопрос — этот процессор создан для машинного обучения и искусственного интеллекта. Кроме того он сильно расширит возможности для различного сложного моделирования и сможет заглядывать в будущее. Вообще, искусственный интеллект — это невероятно интересная и актуальная тема, а ее главные ограничения — это слабые вычислительные мощности. А если хотите узнать о реальных проектах с использованием искусственного интеллекта — у Илона Маска есть такой в запасе — Open UI.

Если вы думали, что закон Мура со своим увеличением количества транзисторов в процессоре каждые 1,5 года — это быстро, то посмотрите на потребности в области ИИ, ведь спрос на эти вычисления удваивается каждые 3,5 месяца!

Классический подход — это напихать кучу процессоров в серверные стойки, к каждому подвести систему охлаждения и питания, при этом каждый отдельный процессор еще надо связать друг с другом, а это, кстати, неизбежно вызывает задержки.

Скажем так — если вы возьмете двигатель от Ferrari и запихнете ее в старые Жигули, то машина конечно поедет быстрее, но как Ferrari все равно не поедет. Поэтому тут нужен принципиально иной подход, ведь для того? чтобы получить настоящий гиперкар надо взять хорошие тормоза, подвеску, рассчитать аэродинамику; с компьютерами точно также.

Компания Церебро это и сделала — они решили разработать свою систему с нуля, то есть вообще все — от архитектуры самих процессоров, до системы охлаждения и питания.

Это огромная машина, потребляющая 20 килоВатт, и занимающая треть стандартной серверной стойки, то есть можно размещать по три таких компьютера в одной стойке! А сам чип, по своей сути и предназначению, напоминает серверные GPU от NVIDIA, так что давайте их и сравним. Возьмем Nvidia Tesla V100.

Цифр много, приготовьтесь! Кроме размеров самого кристалла, процессор Церебро обладает четырьмя сотнями тысяч ядер, что в 78 раз больше, чем число ядер на NVIDIA Tesla V100! Количество транзисторов взрывает мозг — 1,2 триллиона, против 21 миллиарда у NVIDIA.

А сколько там памяти? 18 гигабайт l2 cash memory прямо на чипе! Это в три тысячи раз больше, чем у V100. Кстати у 3090 от той же NVIDIA, памяти на чипе тоже 6 мегабайт, прямо как у V100. Ну а про ширину полосы пропускания даже говорить страшно — у V100 это 300 Гигабит в секунду, а у Церебро — 100 ПЕТАбит в секунду. То есть разница в 33 тысячи раз!

А чтобы достичь схожей вычислительной мощности они заявляют, что нужна тысяча 100 карт NVIDIA, что суммарно будет потреблять в 50 раз больше мощности и занимать в 40 раз больше места — это очень значительная экономия электроэнергии и свободного пространства.

Это конечно прекрасно — цифры поражают. Но как удалось их достичь?

Суть именно в размере. Чип — большой, нет, даже огромный. Именнр это позволяет разместить столько всего на одном кристалле. И главное, что связь между элементами мгновенная, потому что не нужно заниматься сбором данных с разных чипов.

Однако, размер — это одновременно и главный недостаток Церебро.

Давайте по-порядку. Первое и главное — нагрев. Разработчики этого монстра прекрасно понимали, что они создают и какая система охлаждения нужна, поэтому она, как и сам процессор, были разработаны с нуля. Она представляет из себя комбинацию жидкостного охлаждения, которое направляется к охлаждаемым медным блокам! Охлаждающая жидкость проходя через мощный насос попадает в радиатор, где с помощью вентилятора происходит ее охлаждение, а горячий воздух уже выдувается наружу четырьмя дополнительными вентиляторами.

При потреблении 20 кВт, которые подаются через двенадцать разъемов питания, четыре уходит только на питание вентиляторов и насосов для системы охлаждения. Но в результате они достигли того, что чип работает при вдвое меньших температурах, чем стандартные GPU, что в конце концов повышает надежность всей системы.

Ну и конечно отдельно хочется сказать, что инженеры создали систему так, что она позволяет быстро менять почти любой компонент, что очень круто, так как в случае поломки — это уменьшает время возможного простоя.

Сам же чип собирает TSMC по, вы не поверите, 16 нанометровому техпроцессу. И тут вы можете справедливо возмутится. Как же так? Все уже делают чипы на 5 нм, какой смысл делать на древних 16 нм?

Тут то и скрывается вторая проблема. При производстве классических чипов, неизбежно бывает брак, который приводит к тому, что несколько чипов оказываются негодными и выкидываются или используются для других задач, и чем мельче тех процесс, тем выше процент брака. Но когда у тебя вся кремниевая подложка — это один чип, то любая ошибка в производстве приводит к тому, что всю пластину можно выкидывать. А при условии что одна пластина может изготавливаться несколько месяцев и стоит около миллиона долларов, что ж….

Суть в том, что ребята решили, как бы, подстраховаться. Ведь 16 нм техпроцессу уже почти семь лет: детали и тонкости при его производстве отлично изучены. Так сказать — уменьшают риски! Но стоит сказать, что уже ведется разработка и тестирование такого чипа на 7 нм, но его выход конечно будет зависеть от спроса на первое поколение! И там цифры просто огромные, только посмотрите на таблицу.

И тут вы можете справедливо заметить, что мы пока что ни слова не сказали о результатах, которых можно достичь с помощью этого монстра. Тут сложно, так как информация, в основном, закрытая, однако какие-то детали все равно просачиваются в медийное пространство.

Национальная лаборатория энергетических технологий Министерства энергетики США заявила, что CS-1 — первая система, которая смоделировала работу более миллиона топливных ячеек быстрее, чем в режиме реального времени.

Это означает, что когда CS-1 используется для моделирования, например, электростанции на основе данных о ее текущем состоянии, она может сказать, что произойдет в будущем быстрее, чем законы физики дадут такой же результат. Вы поняли? С помощью этого ПК можно заглянуть в будущее с высокой точностью, и если нужно подкорректировать и изменить его. И еще, например, в симуляции с 500 миллионами переменных Cerebras CS-1 уже обогнал суперкомпьютер Joule, занимающий 69-е место в рейтинге самых мощных суперкомпьютеров мира. Так что похоже со спросом проблем не ожидается.

Церебро планируется использовать для прогнозирования погоды или температуры внутри ядерного реактора или, например, проектирования крыльев самолета. Несомненно, лаборатории и различные исследовательские центры по всему миру найдут для Церебро области применени. Как вы понимаете, компьютер будет дорогим, но точная цена неизвестна.

Из открытых источников мы нашли только что в 2020 году в суперкомпьютерном центре Питтсбурга было куплено 2 компьютера Cerebras CS-1 за 5 миллионов долларов. Но система делается только под заказ и под каждого конкретного клиента, так что цена может варьироваться.

Выводы

Это явно уникальная система. И такого раньше никто не делал! Большинство производителей считают, что гораздо выгоднее и эффективнее наштамповать кучу маленьких процессоров, так как вероятность брака или поломки сильно падает и каждая ошибка сильно дешевле. Разработчики Церебро же решили пойти рискованным путем и, судя по тому, что процессор Cerebras CS-2 уже тестируют, их путь успешен.

И если все что они заявили — сбудется, то нас ждет абсолютно новая эра серверных вычислений, невероятные возможности для создания компьютерных моделей, новые мощности искусственного интеллекта. Нет сомнений, что и гиганты рынка, такие как Nvidia, Intel, Google, посмотрев на удачный опыт Церебро займутся разработкой своих огромных однокристальных систем. А вы только представьте, что будет если совместить это с квантовыми вычислениями, о которых мы недавно делали разбор? Ух!

Будем следить за развитием технологий, и продолжим дальше делать для вас такие интересные обзорные материалы про самые современные достижения!

PS. Кстати, лайк если поняли пасхалку в Церебро — ведь решетка радиатора выполнена в форме специальной сетки, которая используется в компьютерном моделировании для расчетов. Отсылка к предназначению Церебро!

Roborock: Как устроено компьютерное зрение?

Сегодня мы раскажем вам про искусственный интеллект и компьютерное зрение. Да, роботы всё уже видят и наблюдают за нами пока выполняют наши поручения.
vedensky 13 декабря 2020 в 06:06

Мы запускаем камеру на смартфоне, наводим на объект и видим маленькую иконку внизу. Смартфон понимает — что именно мы снимаем. Вы когда-нибудь задумывались, как это работает?

Беспилотные автомобили спокойно объезжают машины и тормозят перед пешеходами, камеры видеонаблюдения на улицах распознают наши лица, а пылесосы отмечают на карте, где лежат тапочки — всё это не чудеса. Это происходит прямо сейчас. И всё благодаря компьютерному зрению.

Поэтому сегодня разберем, как работает компьютерное зрение, чем оно отличается от человеческого и чем может быть полезно нам, людям?

Для того чтобы хорошо ориентироваться в пространстве человеку нужны глаза, чтобы видеть, мозг, чтобы эту информацию обрабатывать, и интеллект, чтобы понимать, что ты видишь. С компьютерным или, даже вернее сказать, машинным зрением, такая же история. Для того, чтобы компьютер понял, что он видит, нужно пройти 3 этапа:

  1. Нам нужно как-то получить изображение
  2. Нам нужно его обработать
  3. И уже только потом проанализировать

Пройдёмся по всем этапам и проверим, как они реализованы. Сегодня мы будем разбираться, как роботы видят этот мир, и поможет нам в этом робот-пылесос Roborock S6 MaxV, который напичкан современными технологиями компьютерного зрения.

Этап 1. Получение изображения

В начале компьютеру надо что-то увидеть. Для этого нужны разного рода датчики. Насколько много датчиков и насколько они должны быть сложные зависит от задачи. Для простых задач типа детектора движения или распознавания объектов в кадре достаточно простой камеры или даже инфракрасного сенсора.

В нашем пылесосе есть целых две камеры, они находятся спереди. А вот, например, для ориентации в трехмерном пространстве понадобятся дополнительные сенсоры. В частности 3D-сенсор. Тут он тоже есть и расположен сверху. Но что это за сенсор?

LiDAR

Вообще с названиями 3D-сенсоров есть небольшая путаница, одно и тоже часто называют разными словами.

Эта штука сверху — называется LDS или лазерный датчик расстояния, по-английски — Laser Distance Sensor. Подобные датчики вы наверняка могли заметить на крышах беспилотных беспилотных автомобилей. Это не мигалка, это лазерный датчик расстояния, такой же как на роботе пылесосе.

Вот только в мире беспилотников такой сенсор принято называть лидаром — LIDAR — Light Detection and Ranging. Да-да, как в новых iPhone и iPad Pro.

А вот в Android-смартфонах вместо лидаров используется термин ToF-камера: ToF — Time-of-flight.

Но, как ни называй, все эти сенсоры работают по одному принципу. Они испускают свет и замеряет сколько ему понадобится времени, чтобы вернуться обратно. То есть прямо как радар, только вместо радиоволн используется свет.

Есть небольшие нюансы в типах таких сенсоров, но смысл технологии от этого не меняется. Поэтому мне, чисто из-за созвучия с радаром, больше всего нравится название LiDAR, так и будем называть этот сенсор.

Кстати, лидары использует не только в задачах навигации. Благодаря лидарам сейчас происходит настоящая революция в археологии. Археологи сканируют территорию с самолета при помощи лидара, после чего очищают данные ландшафта от деревьев. И это позволяет находить древние города, скрытые от глаз человека!

Также помимо статических лидаров, направленных в одну сторону, бывают вращающиеся лидары, которые позволяют сканировать пространство вокруг себя на 360 градусов. Такие лидары используется в беспилотных автомобилях, ну и в этом роботе-пылесосе.

Еще 8 лет назад такие сенсоры стоили каких-то невероятных денег, под 100 тысяч долларов. А теперь у вас по дому может спокойно ездить маленький беспилотник.

Лидар в пылесосе

Окей, тут лидар используется для построения карты помещения и это не новая история. Такую технологию мы видели еще года 3-4 назад.

Благодаря лидару и построенной карте, пылесос ездит не рандомно как скринсейвер в Windows, стукаясь об углы, а аккуратно проезжая всю площадь (модели без лидаров обычно катаются странно).

Но внутри пылесоса стоит, на секундочку, восьмиядерный Qualcomm Snapdragon 625 (Qualcomm APQ8053), поэтому у него хватает мозгов не только построить карту, но и ориентироваться по ней.

Более того пылесос может хранить в памяти до четырёх карт и распознаёт этажи. Это существенно ускоряет уборку. Потому при переносе с этажа на этаж пылесос это может поять и не тратит время, чтобы построить карту заново.

Также каждую из 4 карт можно поделить на 10 специальных зон. Для которых можно настроить свои параметры уборки: мощность всасывания (до 2500 Па), количество проходов и прочее. А куда-то можно вообще запретить ездить. Можно даже выбирать сухую и влажную уборку для разных зон. Правда для этого не нужно подключать/отключать отдельный резервуар с водой. И всё это стало возможно благодаря лидару.

Тем не менее у технологии есть некоторые недостатки — очень разреженные данные. Пространство сканируется линиями. В больших автомобильных радарах разрешение — от 64 до 128 линий. Плюс ко всему у лидар есть мертвая зона. Если лидар стоит на крыше — то он не видит, что творится в достаточно большом радиусе вокруг него.

Также в роботе-пылесосе лидар тут сканирует пространство всего одним лучом. Поэтому, всё что он видит — это тонкая линия на высоте где-то 9-10 сантиметров от пола. Это позволяет определять где стены и мебель, но он не видит того, что валяется на полу.

Две камеры

Поэтому, чтобы исправить этот недочет лидаров. как в автомобили, так и в пылесосы ставят дополнительные камеры. Тут камеры сразу две, и они обеспечивают стереоскопическое зрение. Да-да, у пылесоса всё как у людей — два глаза.

Две камеры, во-первых, позволяют убрать мертвую зону впереди пылесоса. А во вторых позволяют достаточно точно определять расстояние до валяющихся на полу предметов.

Это позволяет пылесосу обнаруживать предметы размером не менее 5 см в ширину и 3 см в высоту и объезжать их.

Этап 2. Обработка

Итак, мы получили достаточно данных с различных сенсоров. Поэтому переходим ко второму этапу компьютерного зрения — обработке.

Данные с лидара мы получаем в виде трехмерного облака точек, которые фактически не нуждаются в дополнительной обработке.

Как получить стерео с двух камер тоже понятно — высчитывается разница между изображениями снятыми чуть под разным углом и так строится карта глубины. Это несложно.

Но вот совместить данные с разных сенсоров — это нетривиальная задача.

Например, пылесос на полу обнаружил какой-то предмет. Дальше ему нужно понять где именно он находится на карте построенной при помощи лидара. А также нужно предположить какие у него габариты по проекции с одной стороны. То есть нам нужно поместить предмет в некий объёмный куб правильного размера.

Эту задачу можно решить разными способами. Один из способов называется “усеченная пирамида”. Сначала на камере обнаруживаются предметы. Потом эти предметы помещаются в конус, а объем этого конуса вычисляется нейросетью.

Поэтому даже, казалось бы, такая тривиальная задача требует серьёзных вычислений и решается при помощи нейросетей.

А раз мы заговорили про нейросети, значит мы уже немного зашли на 3-й этап компьютерного зрения — анализ.

Этап 3. Анализ

За распознавание, сегментацию и классификацию объектов на изображении в современном мире в основном отвечают нейросети. Мы даже делали подробный ролик о том как это работает, посмотрите.

Если кратко, нейросеть — это такое большое количество уравнений, связанных между собой. Загружая в нейросеть любые данные — ты обязательно получишь какий-то ответ.
Но, например, если постоянно загружать в нейросеть фотографии кошечек, и указать ей, что ответ должен быть — кошка. В какой-то момент, нейросеть перестает ошибаться на обучающей выборке. И тогда ей начинают показывать новые незнакомые изоражения и если на них она тоже безошибочно определяет кошек — нейросеть обучена.

Дальше нейросеть оптимизируется для того, чтобы она стала меньше, быстро работала и не жрала много ресурсов. После этого она готова к использованию.

Что-то похожее происходит с нейронными связями в человеческом мозге. Когда мы чему-то учимся или запоминаем, мы повторяем одно и то же действие несколько раз. Нейронные связи в мозге постепенно укрепляются и потом нам это легко даётся!

Например, в данном пылесосе за работу нейросети отвечает встроенный NPU-модуль. Всё-таки внутри Snapdragon, пылесос может себе такое позволить.

Нейронка предобучена определять различные предметы домашнего обихода: игрушки, тапочки, носки, всякие удлинители, зарядки и даже неожиданности от домашних животных.

Распознавание предметов происходит при помощи гугловской библиотеке Tensorflow. Алгоритм самообучается и умнеет от уборки к уборке.

Практика

В Roborock технология распознавания называется Reactive AI. Мы протестировали насколько она хорошо работает на практике.

Кайфовая штука, что все найденные предметы пылесос отмечает не карте. Поэтому теперь, я не обещаю, но такое возможно, вы всё-таки обнаружите логово пропавших носков.

Проследить за тем, что видит пылесос всегда можно через фирменное приложение или Mi Home от Xiaomi. Можно даже просто кататься по дому управляя пылесосом слать на него голосовые сообщения. Управлять пылесосом можно также через Google Ассистента или Алису. Всё на русском языке.

С недавних пор бренд начал официально продаётся в России, поэтому устройства полностью локализованные.

Внутри кстати стоит батарейка на 5200 мАч, которая способна выдержать до 3 часов уборки.

Итоги

Ребят, ну вы сами всё видели. Правда, стоит обратить внимание, что пока корректное распознавание предметов работает только если запускать пылесос через приложение Roborock. И это нюанс, поскольку оно пока недоступно в Play Market Россия. Но в течение нескольких месяцев оно появится, а пока его можно скачать и установить в виде apk-файла.

Жорж Милославский в 2020 году: DeepFake на службе Сбера

«Храните дееньги в Сбере…»: компания сделала Жоржа Милославского лицом рекламной компании благодаря DeepFake и искусственному интеллекту.
aka_opex 1 декабря 2020 в 04:28

Лицом новогодней рекламной компании Сбера стал Жорж Милославский из фильма «Иван Васильевич меняет профессию». Именно ему принадлежит фраза «Храните деньги в сберегательной кассе», благодаря которой его можно считать ещё и первым амбассадором Сбера.

Персонаж, которого сыграл актёр Леонид Куравлёв произнёс эту фразу еще в 1973 году, когда фильм вышел на экраны.

https://youtu.be/TDl_7-dHg3A

По сюжету ролика Жорж Милославский попадает не в прошлое, в эпоху Ивана Грозного, а в 2020 год и узнаёт, что стало со Сбером. Напоминаем, что теперь это не только банк, а целая группа компаний, в которую входят сервисы Ситимобил, Delivery Club, Еаптека, а также платформы по стримингу кино, сериалов и музыки.

Но самое интересное — технологии, которые позволили «оживить» героя в знакомом образе. По сути, перед нами применение технологии DeepFake во всей красе. Кроме внешности, искусственный интеллект воссоздал ещё и голос актёра. Несмотря на то, что Леонид Куравлёв жив и ныне здравствует, голосом героя, которым он говорил 47 лет назад в силу возрастных изменений он уже не может говорить. Поэтому задачу решали специалисты группы ЦРТ (Центр Речевых Технологий), входящей в экосистему Сбера.

В общей сложности использовалось 4 минуты речи актёра из фильмов «Глубокие родственники», «Суета сует», «Не может быть быть» и «Иван Васильевич меняет профессию». Аудиодорожки разнообразно звучащей речи актёра легли в основу обучения технологии TTS (Text-to-Speech) и синтеза речь. Отмечается, что обычно для качественного синтеза речи требуется не менее 20 часов речи диктора.

В итоге Жорж Милославский побывал на концерте NILETTO, познакомился с сервисами Сбера и узнал о ребрендинге… Теперь он «хранит деньге в Сбере…»