Благодаря искусственному интеллекту мы получили «актуальную» версию легендарного фильма Братьев Люмьер — Прибытие поезда на вокзал Ла-Сьота в 4K-разрешении и со скоростью 60 кадров в секунду.
Денис Ширяев создал эту версию фильма с помощью Gigapixel AI от Topaz Labs, которая отвечала за перевод в 4K, а также Dain.
Зачем нам нужны нейронные процессоры?
Нейросети и нейропроцессоры — это наше настоящее и, безусловно, наше будущее! Именно искусственный интеллект помогает смартфонам стать ещё круче!
Нейросети сейчас называют новым электричеством. Мы их не замечаем, но пользуемся каждый день. Face ID в iPhone, умные ассистенты, сервисы перевода, и даже рекомендации в YouTube — всё это нейросети. Они развиваются настолько стремительно, что даже самые потрясающие открытия выглядят как обыденность.
Например, недавно в одном из самых престижных научных журналов Nature опубликовали исследование группы американских ученых. Они создали нейросеть, которая может считывать активность коры головного мозга и преобразовывать полученные сигналы в речь. С точностью 97 процентов. В будущем, это позволит глухонемым людям «заговорить».
И это только начало. Сейчас мы стоим на пороге новой технической революции сравнимой с открытием электричества. И сегодня мы объясним вам почему.
Как работают нейросети?
Центральный процессор — это очень сложный микрочип. Он умеет выполнять выполнять кучу разных инструкций и поэтому справляется с любыми задачами. Но для работы с нейросетями он не подходит. Почему так?
Сами по себе нейросетевые операции очень простые: они состоят всего из двух арифметических действий: умножения и сложения.
Например, чтобы распознать какое-либо изображение в нейронную сеть нужно загрузить два набора данных: само изображение и некие коэффициенты, которые будут указывать на признаки, которые мы ищем. Эти коэффициенты называются весами.
Вот например так выглядят веса для рукописных цифр. Похоже как будто очень много фоток цифр наложили друг на друга.
А вот так для нейросети выглядит кошка или собака. У искусственного интеллекта явно свои представления о мире.
Но вернёмся к арифметике. Перемножив эти веса на исходное изображение, мы получим какое-то значение. Если значение большое, нейросеть понимает:
— Ага! Совпало. Узнаю, это кошка.
А если цифра получилась маленькой значит в областях с высоким весом не было необходимых данных.
Вот как это работает. Видно как от слоя к слою сокращается количество нейронов. В начале их столько же сколько пикселей в изображении, а в конце всего десять — количество ответов. С каждым слоем изображение упрощается до верного ответа. Кстати, если запустить алгоритм в обратном порядке, можно что-нибудь сгенерировать.
Всё вроде бы просто, да не совсем. В нейросетях очень много нейронов и весов. Даже в простой однослойной нейросети, которая распознает цифры на картинках 28 x 28 пикселей для каждого из 10 нейронов используется 784 коэффициента, т.е. веса, итого 7840 значений. А в глубоких нейросетях таких коэффициентов миллионы.
CPU
И вот проблема: классические процессоры не заточены под такие массовые операции. Они просто вечность будут перемножать и складывать и входящие данные с коэффициентами. Всё потому, что процессоры не предназначены для выполнения массовых параллельных операций.
Ну сколько ядер в современных процессорах? Если у вас восьмиядерный процессор дома, считайте вы счастливчик. На мощных серверных камнях бывает по 64 ядра, ну может немного больше. Но это вообще не меняет дела. Нам нужны хотя бы тысячи ядер.
Где же взять такой процессор? В офисе IBM? В секретных лабораториях Пентагона?
GPU
На самом деле такой процессор есть у многих из вас дома. Это ваша видеокарта.
Видеокарты как раз заточены на простые параллельные вычисления — отрисовку пикселей! Чтобы вывести на 4K-монитор изображение, нужно отрисовать 8 294 400 пикселей (3840×2160) и так 60 раз в секунду (или 120/144, в зависимости от возможностей монитора и пожеланий игрока, прим.ред.). Итого почти 500 миллионов пикселей в секунду!
Видеокарты отличаются по своей структуре от CPU. Почти всё место в видеочипе занимают вычислительные блоки, то есть маленькие простенькие ядра. В современных видюхах их тысячи. Например в GeForce RTX2080 Ti, ядер больше пяти тысяч.
Всё это позволяет нейросетям существенно быстрее крутиться GPU.
Производительность RTX2080 Ti где-то 13 TFLOPS (FLOPS — FLoating-point Operations Per Second), что значит 13 триллионов операций с плавающей запятой в секунду. Для сравнения, мощнейший 64-ядерный Ryzen Threadripper 3990X, выдаёт только 3 TFLOPS, а это заточенный под многозадачность процессор.
Триллионы операций в секунду звучит внушительно, но для действительно продвинутых нейронных вычислений — это как запустить FarCry на калькуляторе.
Недавно мы игрались с алгоритмом интерполяции кадров DAIN, основанном на машинном обучении. Алгоритм очень крутой, но с видеокартой Geforce 1080 уходило 2-3 минуты на обработку одного кадра. А нам нужно чтобы подобные алгоритмы работали в риалтайме, да и желательно на телефонах.
TPU
Именно поэтому существуют специализированные нейронные процессоры. Например, тензорный процессор от Google. Первый такой чип в Google сделали еще в 2015 году, а в 2018 вышла уже третья версия.
Производительность второй версии 180 TFLOPS, а третьей — целых 420 TFLOPS! 420 Триллионов операций в секунду. Как они этого добились?
Каждый такой процессор содержит 10-ки тысяч крохотных вычислительных ядер, заточенных под единственную задачу складывать и перемножать веса. Пока, что он выглядит огромным, но через 15 лет он существенно уменьшится в размерах. Но это еще фигня. Такие процессоры объединяться в кластеры по 1024 штуки, без каких либо просадок в производительности. GPU так не могут.
Такой кластер из тензорных процессоров третьей версии могут выдать 430 PFLOPS (пета флопс) производительности. Если что, это 430 миллионов миллиардов операций в секунду.
Где мы и что нас ждёт?
Но как мы уже говорили, это только начало. Текущие нейронные суперкомпьютеры — это как первые классические мейнфреймы занимавшие, целые этажи в зданиях.
В 2000 году первый суперкомпьютер с производительностью 1 терафлопс занимал 150 квадратных метров и стоил 46 миллионов долларов.
Спустя 15 лет NVIDIA мощностью 2?3 терафлопса, которая помещается в руке стоит 59$.
Так что в следующие 15-20 лет суперкомпьютер Google тоже поместится в руке. Ну или где мы там будем носить процессоры?
Кадр из режиссерской версии фильма «Терминатор-2»
А мы пока ждём момента, довольствуемся нейромодулями в наших смартфонах — в тех же Qualcomm Snapdragon’ах, Kirin’ах от Huawei и в Apple Bionic — они уже тихо делают свою работу.
И уже через несколько презентаций они начнут меряться не гигагерцами, ядрами и терафлопсами, а чем-то понятным для всех — например, распознанных котиках в секунду. Всё лучше, чем попугаи!
Евровидение 2020 с ИИ: Победителю помогал сам Дьявол, Коала и Кукабара
Евровидение 2020 вроде бы пройдёт в формате онлайн-шоу, однако у Искусственного Интеллекта свой взгляд на вещи и ИИ-Евровидение уже прошло!
Евровидение 2020 было отменено из-за пандемии коронавируса, но у Искусственного Интеллекта другое мнение на этот счёт. Нидерландский броадкасте VPRO проведёт своё «Евровидение» с игрой в 21 и женщинами с низкой социальной ответственностью. Это песенный конкурс, созданных с помощью ИИ, в котором приняли участие 13 стран, среди которых в основном европейские коллективы, но и без Австралии не обошлось. В последние годы эта страна стабильно присылает на классическое Евровидение свои коллективы. Победителя выбирает экспертное жюри.
BBC и Bloomberg уже отметили, что претенденты получились отличными и даже пугающе похожими на реальные песни с Евровидения.
Победила в ИИ-Евровидении как раз Австралия с коллективом Uncanny Valley, чья песня Beautiful The World была создана искусственным интеллектом. Он тренировался на миксе из хитов Евровидения и локальных животных, которые пострадали от лесных пожаров на континенте: коалы, кукабарры и тасманские дьяволы. Трек получил 12 баллов от жюри в первую очередь за необычную лирику, а не «ding-a dong sweet song thank you darling». Последнее, кстати, больше характерно для большинства классических песен Евровидения.
Другие треки, прямо скажем, не такие крутые. Германию представил коллектив Dadabots x Portrait XO с песней I’ll marry you, Punk Come. Сразу понятно, что ИИ тренировался на акапелла, дэф-метале и генераторе фейковых новостей.
Нидерланды представили Abbus — Can AI Kick It.
Последнее место заняла Швейцария: New Piano — Painful Words, которая базировалась на чистом ИИ.
Конечно, никто из «коллективов» не выступит на реальном Евровидении и вряд ли попадёт в 2021 году на конкурс, но эта подборка отлично показывает современное состояние ИИ-музыки.
Нейромодуль и ИИ: На что они способны уже сегодня?
Как нейронки смогут изменить наши смартфоны? Зачем нужен нейромодуль в процессоре? Что сможет камера в будущем iPhone или Pixel? Давайте разберёмся!
Сейчас во все мобильные процессоры впихивают нейронные модули. Neural Engine в процессорах Apple, DaVinci NPU у HUAWEI, AI Engine в Snapdragon’ах. Но что полезного они делают реально непонятно. Обычно всё сводится к всевозможным безумным бьютификациям и улучшайзерам.
Но нейронки сейчас могут творить абсолютно невероятную дичь! И могут нехило прокачать возможности наших смартфонов.
Сегодня мы покажем для чего в будущем будет использоваться нейронный модуль внутри вашего смартфона и какие крутые фишки можно делать уже сейчас!
Obstructional Removal
Начнем с камеры! Сейчас в приложении камеры на любом телефоне, есть масса бесполезных и “интеллектуальных” фич, типа определение сцены. Вот собачка, а вот цветочек говорит нам искусственный интеллект. И что? Мы это и так знаем!
Но вот чего не хватает, так это вот этой штуки: нейросеть удаляет с фотографий мешающие отражения и различные преграды, типа сетчатых заборов. Незаменимая вещь для любителей пофотографировать стройки и зоопарки.
Работает это очень интересно. Рассмотрим пример с отражением.
Во-первых, для того чтобы всё получилось нужно несколько кадров. Зачем? Чтобы вычислить оптический поток пикселей, т.е. движение в кадре. Дальше нейронка понимает, ага вот эти пиксели движутся что-то совсем не туда. Значит это отражение.
А дальше начинается настоящая магия. На основе данных о движении, нейронка восстанавливает два изображения: фон и отражение. Дальше вычитает отражение из фона и готово!
Думаете, такие фичи в смартфонах появятся еще не скоро. Обрадую вас, например в HUAWEI P40 Pro уже показали подобную функцию. Назвали это всё очень по-азиатски — Golden Snap. Она умеет удалять отражения и даже лишних людей из кадра! По-моему неплохо, ждём теперь реализацию от Гугла а потом и всё подтянутся!
Real Time Person Removal
Кстати, уже есть нейронка которая убирает людей из видео! В реалтайме! Вот тебе и кибер версия социального дистанцирования.
Алгоритм, таскающий картинки
Но мы то с вами что в кадре может мешать не только забор или человек. В кадре может быть лишним вообще всё! В этом случае поможет вот эта волшебная нейросеть.
Как это чудо работает? В нейронную загружается две вещи, изображение и разбивка на объекты в виде масок. То есть немного руками всё равно придётся поработать, но зато потом начинается настоящая услада.
Сначала нейронка определяет порядок объектов. Потом додумавает форму перегороженных объектов. А щзатем достраивает их!
Дальше остается только наслаждаться: можно передвигать объекты по кадру, менять их порядок, удалить всё что хочешь, и даже добавлять на снимок что-то новое.
Ну что тут скажешь, ждем когда алгоритм научат самостоятельно определять границы объектов и можно заворачивать в мобильное приложение. Революция фотожаб не за горами.
Кекфейс
И напоследок, из того что можно пощупать прямо сейчас! Есть масса нейросетей, оживляющих фотки. Но чтобы поиграться с ними нужно копаться на GitHub или в лучшем случае веб-интерфейсе, короче неудобно.
Но вот недавно появился бот в Телеграм @EORA_kekface_bot, который из любой фотки делает прикольные анимированные гифки. Зачем нужны анимоджи? Если можно свой набор стикеров на все случаи жизни.
Как думаете кто из крупных компаний первый догадается что-то такое сделать? Я ставлю на Samsung или HUAWEI, не всё же им за Apple повторять.
Итоги
Естественно, то о чём мы рассказали — это капля в море. В плене нейронок, что-то интересное происходит каждый день.
Например недавно Google показал чат-бот, который умеет осознанно общаться на любые темы! И его не отличить от человека.
Ребята сделали дипфейк Илона Маска в Zoom’е. То есть можно им стать, общаясь с друзьями в видеочате.
А еще, добрые люди омолодили, Мону Лизу и, “наше всё” Александра Сергеевича Пушкина.
Кстати мы, много подсмотрели на канале Neural Shit в Telegram.
Обзор HONOR 9X: Как ИИ прокачивает смартфон?
На примере HONOR 9X мы проверили врут ли нам насчёт искусственного интеллекта и как он улучшает смартфоны
В последние годы, мы слышим презентациях одно и то же — AI, ИИ, Искусственный Интеллект — каждый раз. Мы постоянно слышим это словосочетание, но что именно он делает и как прокачивает наши смартфоны? Давайте разберёмся!
Я всегда думал, что искусственный интеллект в смартфоне это какое-то баловство. И нужен он только для того, чтобы делать небо синее, а траву зеленее на фоточках. Но углубившись в технологию, я понял, что всё гораздо интереснее.
Нейронный бум начался пару лет назад, когда появился первый мобильный чипсет со встроенным NPU модулем — Kirin 970. Тогда локальные нейронные вычисления были в новинку для смартфонов, и преимущества ИИ были доступны только на дорогих моделях. Но сейчас даже в доступных гаджетах вроде HONOR 9X есть ИИ алгоритмы. Но что же они делают?
Ночной режим
В смартфонах HONOR практически за весь цикл создания фотографии в знаменитом Ночном режиме отвечает искусственный интеллект:
1. Во-первых, нейронная сеть отвечает за определение правильной выдержки. ИИ замеряет силу и характер тряски телефона. Определяет в руках он или на подставке, и подбирает оптимальную выдержку, чтобы избежать смазов.
2. Потом, ИИ выбирает экспозицию и сколько нужно сделать кадров в зависимости от яркости сцены и её типа. То есть искусственный интеллект, условно говоря, понимает, что если на снимке есть человек, надо бы сделать сцену ярче, чтобы были видны лица, либо решает сохранить глубокие тени для красивого пейзажа.
3. На последнем этапе, ИИ объединяет все снимки в один. Он отбрасывает смазанные кадры, выравнивает удачные и попиксельно склеивает их, дорисовывая края изображения если что-то обрезалось, уменьшает шумы и прочее… В общем ИИ действительно используется на полную.
В HONOR 9X установлен блок из 3 камер: основная на 48 Мп, сверхширик на 8 Мп и сенсор глубины для размытия фона.
Кстати, обратите внимание, на экране нет никаких челок и вырезов, здесь безрамочный All-View дисплей с диагональю 6.59”. Это IPS. Всё потому, что фронталка тут выдвигается. Она на 16MP, да ещё и защищена от воды и пыли, а при падении смартфона автоматически прячется в корпус. Но искусственный интеллект внутри меня, всё равно рекомендует телефон не ронять.
Улучшение сигнала
Искусственный интеллект в ночном режиме — об этом ещё можно было догадаться. Но есть и совершенно необычный кейс применения нейронных сетей в телефоне. Хотя к камере мы еще вернемся. Как думаете для чего? Для улучшения качества приёма сигнала с антенн!!!
Как правило антенны в телефонах расположены сверху и снизу. И это казалось бы адекватное решение. Но при горизонтальном хвате, когда берешь телефон в обе руки, чтобы поиграть, перекрываются обе антенны. Помните антенногейт на iPhone 4?
Так вот, инженеры HONOR решили этот вопрос очень элегантно. Во-первых, сильно переработав традиционное расположение антенн. А во-вторых, обучили нейронную сеть перераспределять мощность сигналов антенн в зависимости от хвата и сценариев использования телефона. Тем самым увеличив качество приёма на величину до 50%!
Теперь во время важного боя в Fortnite до вас смогут дозвониться родные и близкие! А это всегда хорошо. На этом, кстати, заслуги искусственного интеллекта не заканчиваются.
В условиях плохого сигнала 4G, в метро или лифте, ИИ в реальном времени сокращает время переподключения к 4G с традиционных 30 секунд до 1-2 секнд. Это очень полезно когда слушаешь в пути музыку из облака или смотришь любимый Droider на YouTube!
Стабилизация
На задней крышке телефона, красуется надпись AI Camera, которая как бы намекает — не одним ночным режимом тут управляет ИИ. Понятно, что в камерах ИИ используется для определения сцен и их улучшения. Для портретного режима и бьютификации тоже. К этому мы уже привыкли.
Крышка, кстати, переливается в виде буквы X. Очень в стиле искусственного интеллекта.
Но кто бы мог подумать, что ИИ отвечает за стабилизацию видео. Я думал это всё маркетинг, но даже при отсутствии в камере оптической стабилизации изображения видео получается качественным. И всё это софт.
Как это работает? Общий смысл технологии в том, что в отличие от обычных алгоритмов ИИ может динамически изменять степень компенсации тряски в зависимости от того, что происходит в кадре. В итоге получается очень плавная и естественная картинка без смазов и мелких подергиваний.
Процессор
А знаете, что самое интересное? В этом телефоне установлен чипсет Kirin 710F, в котором даже нет отдельного NPU модуля. Но как тогда это всё работает? В HONOR объяснили, что все нейронные вычисления работают на программном уровне. Более того, за счет оптимизации ИИ и без того энергоэффективный процессор работает еще экономичнее. Я протестировал устройство на разных играх. С учётом батарейки в 4000 мАч, 6 Гб оперативки и нового поколения фирменной технологии GPU Turbo получился очень достойный игровой смартфон. И снова говорим спасибо искусственному интеллекту.
И в конце хочется сказать, я приятно удивлён тому, что сейчас искусственный интеллект работает отлично даже в доступных смартфонах, таких как HONOR 9X и это не маркетинг или реклама, а чистая правда!
DeepFake наступает и ошеломляет
Актёр использовал Deepfake и с его помощью перевоплотился в 20 знаменитостей, копируя их голоса. Всё остальное — Искусственный Интеллект
Актёр Джим Мескимен объединился с художником-дипфейкером (или как назвать это новое направление «искусства») Sham00k, чтобы сделать его пародии на знаменитостей ещё более реалистичными. Получилось весьма забавное и интересное видео.
Джим пародировал голоса, в то время как программа накладывала лицо актёра, которого он показывает в данный момент. Джордж Клуни, Николас Кейдж, Колин Фёрт, Роберт Де Ниро, Ник Офферман, Арнольд Шварценеггер, Робин Уильямс и Джорд Буш Мл. и другие — всё это в одном небольшом видеоролике.
Это кажется легко, но Sham00k потребовалось 250 часов работы, 1200 часов съёмок и видео, 300 000 изображений и около терабайта данных. Интересно, что художник выложил своеобразный Making Of.
С одной стороны это невероятно круто выглядит, с другой началась открытая борьба с DeepFake: Facebook, MIT, Microsoft ведут работу по борьбе с фейками, разработчики и исследователи ищут инструмент, чтобы отмечать дипфейки, а Reddit банит порно, созданное таким способом. Чего греха таить — этот инструмент может стать главным при создании фейковых новостей!
О существовании «нейронных сетей», «искусственного интеллекта» и «машинного обучения» слышали все, кто более-менее интересуется современными технологиями. Однако не каждый знает о реальном применении этих словосочетаний. Борис Веденский решил разобраться, что к чему.
Ещё больше информации про AI, ML и IoT можно будет узнать на RAIF 2018, который пройдет 23 октября в Москве.
Ещё больше ИИ, нейросетей и VR | Google I/O 2017
Всё то значительное, чем запомнится первый день конференции
Как и было заявлено, сегодня стартовала I/O в Калифорнии. Посмотреть прямой эфир можно было тут. А мы расскажем о самых горячих анонсах своими словами.
https://youtu.be/S_M4B-pl05M
Google сразу же похвасталась тем, что Зеленый робот ежемесячно трудится внутри 2 миллиардов устройств по всему миру, а 1 миллиард пользователей ежемесячно пользуется Chrome, Gmail, YouTube, Search, Maps и Play Store.
Android O
Компания запустила программу бета-тестирования следующего крупного обновления операционной системы. Записаться можно здесь, если у вас наличествуют Pixel, Pixel XL, Pixel C, Nexus 5X, Nexus 6P или Nexus Player.
От Android O стоит ждать следующих нововведений: «картинку-в-картинке», каналы оповещений (у пользователя будет больше свободы в настройках уведомлений), адаптивные иконки (подстраиваются под дизайн темы), автозаполнение форм (для приложений тоже), «умное» выделение и копирование текста, систему Vitals (отслеживает показатели девайса, чтобы сохранить заряд и повысить производительность) и программу Protect (оповещает об опасных приложениях).
А ещё в ОС добавлена поддержка приложений, написанных на языке программирования Kotlin, который создан российской компанией JetBrains.
Android Go
Инициатива предназначена для устройств, обладающих менее чем 1 ГБ оперативной памяти. Благодаря оптимизации и спец.версиям приложений (к примеру, Play Store), даже «слабые» телефоны смогут шустро работать на Android 8.0 и выше.
В планах помогать фирмам выпускать больше бюджетных смартфонов в духе Android One. Реализация намечена на 2018 год.
Assistant
Майские «утки» оказались верны. Корпорация действительно приготовила виртуального помощника для iOS. Ассистент сможет отвечать на вопросы, искать информацию в сети или управлять «умным» домом. Голосовой вызов не будет функционировать. Скоро бесплатное приложение окажется в iTunes.
Кроме того, Assistant появится в бытовой технике разных производителей. В виде связи через колонку Home, например. Инициативу уже поддержали Sony, Panasonic, LG, JBL, Intel и другие бренды.
Daydream
До конца 2017 года компании Lenovo и HTC представят шлемы виртуальной реальности, не нуждающиеся в смартфонах/компьютерах и поддерживающие VR-платформу «Корпорации добра».
Изображение шлема от HTC
Изображение шлема от Lenovo
Кроме того, Daydream станет доступна для флагмановGalaxy S8 и S8 Plus. Несмотря на то, что у Samsung имеется Gear VR.
Find My Device
Неизбежный ответ Google на приложение Find My iPhone от Apple. Впрочем, раньше новинка существовала под названием Android Device Manager.
Интерфейс Find My Device
Интерфейс Find My Device
Интерфейс Find My Device
Интерфейс Find My Device
Find My Device предназначено для розыска утерянных смартфонов, смарт-часов или ноутбуков. Теперь хозяин может удаленно осмотреть карту местности, позвонить на «потеряшку», заблокировать её или стереть все данные.
Find My Device
Gmail
Почтовый сервис для Android научится демонстрировать шаблоны ответов на входящую корреспонденцию. Будет доступно 3 подсказки на выбор, основанные на содержании письма.
Стоит сказать, что аналогичная «фишка» уже есть у экспериментального Inbox.
Google AI
Запущен одноименный сайт, объединяющий проекты Alphabet, занимающиеся вопросами искусственного интеллекта. Судя по тому, что можно увидеть, все команды так или иначе связаны с медициной и здравоохранением.
Google Home
Колонка получила крупное обновление и теперь умеет подключаться к смартфону через Bluetooth, воспроизводить музыку из любых приложений и звонить по телефону.
https://youtu.be/VZ9MBYfu_0A
Благодаря функции Proactive Assitance, домашний смарт-аксессуар выдает советы по контексту или согласно расписанию на день.
Lens
Новая система позволяет смартфону распознавать любые объекты, попадающие в объектив, и применять эти сведения. Например, гаджет прочитает наклейку с паролем на роутере и тут же подключится к халявному Wi-Fi.
With Google Lens, your smartphone camera won’t just see what you see, but will also understand what you see to help you take action. #io17pic.twitter.com/viOmWFjqk1
Для анализа используется нейросети и разнообразные факторы, вроде местоположения. В первую очередь, доступ к Lens получат Assistant и Photo. Затем подключатся другие программы.
TPU
Tensor Processing Units второго поколения — это фирменный чип, применяющийся в системах машинного обучения. Инженеры компании собирают 64 блока в серверную стойку под названием TPU Pod, чья суммарная производительность составляет 11,5 петафлопс. Получается «суперкомпьютер», который может быстро обучаться и делать выводы, что ускоряет процесс обучения ИИ.
С 10 по 12 марта в корпусе НИУ «Высшая Школа Экономики» прошел хакатон по созданию проектов с использованием технологий искусственного интеллекта. Организатором мероприятия выступило сообщество российских учёных Science guide совместно с венчурными фондами Flint Capital, Haxus и Embria Ventures.
Хакатон собрал 270 программистов нейросетей, специалистов по machine learning, deep learning, data scientists и computer vision, а также предпринимателей с опытом развития технологичных бизнесов, которые представили на рассмотрение экспертов 57 проектов в 3 номинациях.
Первое место занял проект HowPop.io
С помощью ИИ сервис позволяет автоматически оценить качество и популярность будущей статьи в тематическом блоге или СМИ. HowPop.io обращает внимание автора на участки текста, которые «выглядят плохо» и предоставляет рекомендации для корректирования. В рамках хакатона команде удалось реализовать рабочий прототип в качестве расширения для браузера, которое анализирует статьи на «Хабрахабре«. Сервис оценивает ожидаемое число просмотров, лайков/дизлайков и добавлений в избранное. Предсказательная модель основана на сверточных нейронных сетях над текстами. Для выделения удачных и неудачных участков текста команда адаптировала технику saliency maps, которая была разработана для отладки сверточных сетей над изображениями и не применялась ранее для текстов.
В качестве приза команда получила сертификат на 300 000 рублей для дальнейшей реализации проекта.
Warning: Undefined property: stdClass::$author_photo in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Warning: Trying to access array offset on value of type null in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Warning: Attempt to read property "id" on null in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Область работы с текстом, его анализ и генерация являются актуальной проблемой для многих технических задач. Команда-победитель продемонстрировала самый большой прогресс за время хакатона и реализовала технически продвинутое уникальное решение. Кроме того, авторам проекта удалось сформулировать долгосрочное видение продукта на основе используемых технологий
Юрий Гурский управляющий партнер фонда Haxus
Второе место получил сервис DMPipeline (Druggable Molecules Pipeline)
Сервис предназначен для автоматизации разработки лекарственных молекул на основе AI и реализован в виде SaaS-приложения. Главной целью проекта является улучшение качества лекарственных молекул и снижение затрат на R&D. DMPipeline состоит из трех блоков:
1. Генерация молекул предобученной RNN на основе прототипа (лекарственная молекула). Обучающая выборка составила 17 миллионов лекарственных молекул.
2. Прогнозирование физико-химических свойств (растворимость, проницаемость через кровь) с помощью xgboost. Обучающая выборка включает 1 800 молекул с известной растворимостью и 700 структур с данными по проницаемости через кровь.
3. Ранжирование и выбор топа наиболее близких по свойствам молекул к прототипу. Осуществляется процесс с помощью анализа фармацевтической молекулы (прототипа), в результате которого сервис предоставляет набор похожих молекул, обладающих приемлемыми фармакологическими свойствами и активностью по отношению к заболеванию.
В дальнейшем команда планирует улучшить UI/UX, расширить функциональность и спектр решаемых задач, а также добавить возможность интеграции с существующими платформами, применяемыми в фармацевтических компаниях.
Команде торжественно вручили сертификат на 200 000 рублей.
Warning: Undefined property: stdClass::$author_photo in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Warning: Trying to access array offset on value of type null in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Warning: Attempt to read property "id" on null in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Команда продемонстрировала продукт, который решает серьезную проблему для производителей лекарств. То, что команде удалось сделать за один weekend, у фармацевтических лабораторий занимает несколько месяцев и стоит сотни тысяч, а иногда и миллионы долларов. Использование подобных продуктов позволит удешевить производство лекарств, повысить скорость их разработки, а значит сделать лекарства более доступными. Я бы хотел подчеркнуть значимость этой области и огромный потенциал, который заложен в применении технологий искусственного интеллекта, машинного обучения и работы с большими данными в медицине и фармацевтике
Андрей Гершфельд партнер инвестиционного фонда Flint Capital
Третьего места был удостоен проект LungDiagnostics
Несвоевременная диагностика пневмонии может привести к смерти. Однако без специальных обследований болезнь трудно диагностировать, её симптомы схожи с другими поражениями дыхательных путей. LungDiagnostics — простой и экономичный домедицинский сервис, позволяющий каждому пользователю проанализировать фонограмму дыхания и получить оценку вероятности наличия аномалии.
Актуальность проекта обосновывается отсутствием качественного Data Set и низкой распространенностью цифровых стетоскопов. LungDiagnostics планируется также использовать для совершенствования навыков диагностирования врачей.
Проект был отмечен призовым сертификатом в размере 100 000 рублей.
Warning: Undefined property: stdClass::$author_photo in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Warning: Trying to access array offset on value of type null in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Warning: Attempt to read property "id" on null in /var/www/www/data/www/droider.ru/wp-content/plugins/droider-widgets/widget-templates/quote.tpl on line 3
Развитие технологий, ориентированных на здоровье, уже привело к росту продолжительности и улучшению качества жизни во всем мире. При этом доступность медицины до сих пор не является повсеместной. Продукт команды LungDiagnostics затронул важную тему и касается области обработки и анализа звука с помощью нейронных сетей, что с технической точки зрения представляет существенный интерес
Игорь Монахов основатель Embria Ventures
Telegram-бот Skin disease dynamics был отмечен победителем в дополнительной номинации от Дмитрия Кольцова, CEO Emoji Apps. Сервис позволяет анализировать динамику кожных заболеваний на основе обучения нейронной сети.
Основными критериями оценки проектов были наличие прототипа, наукоемкость и технологическая сложность выбранной задачи, прогресс команды за 48 часов, а также коммерческий потенциал разработки.
В состав жюри вошли отраслевые эксперты и представители компаний-партнеров: Андрей Гершфельд (партнер Flint Capital), Дмитрий Смирнов (партнер Flint Capital), Игорь Монахов (Embria Ventures), Алексей Губарев (партнер Haxus, Servers.com), Даниил Данин (основатель MyMind.ai), Роман Дегтярев (Quantum Brains), Григорий Сапунов (основатель Eclass, сооснователь Intento), Алексей Натекин (основатель DM Labs, Open Data Science), Алексей Моисеенков (CEO в Prisma.AI) и другие.
Организаторы выражают благодарность российской телекоммуникационной компании «МТС» за организацию бесперебойного доступа в интернет для участников, Servers.com — за предоставление мощных серверов и НИУ «Высшая Школа Экономики» за возможность проведения мероприятия на площадке.
Суперкары из будущего уже сегодня | Видеообзор
Любите ли вы футуристичные машинки так, как их любит команда Droider?
Не секрет, что Consumer Electronics Show потихоньку превращается в автосалон, а не выставку мобильных девайсов. И в новом видео Валерий Истишев подробно рассказывает про уникальные машины, которые были продемонстрированы публике в начале 2017 года.
Чтобы вы, дорогие дройдерианцы, не запутались во всём этом технологичном многообразии, составим краткую «дорожную карту» ролика Droider.
Concept-i от Toyota
NeuV от Honda
Portal от Fiat Chrysler Automobiles
FF91 от Faraday Future
Кроме вышеперечисленного, можно узнать про автомобильные системы, бортовой ИИ, автопилотов и дизайн суперкаровских салонов.