Теги → нейроны
Быстрый переход

Выдачей кредитов в Сбербанке займётся искусственный интеллект

Александр Ведяхин, первый заместитель председателя правления Сбербанка, заявил что искусственный интеллект (ИИ) к концу 2020 года сможет принимать решения о выдаче кредитов без помощи сотрудников финансовой организации. В настоящий момент ИИ уже выдаёт 100 % кредитных карт, более 90 % потребительских кредитов и свыше 50 % ипотечных кредитов.

Фото: © РИА Новости / Алексей Сухоруков

Фото: РИА Новости / Алексей Сухоруков

Юридические лица могут получить от ИИ ссуду в размере не более 2 млрд рублей. В этом случае он проверит клиента и примет решение за 7 минут. Без участия нейросети такая процедура занимает 3-4 недели.

А вот принимать решение об ипотеке сложно не только тем, кто хочет взять её, но и искусственному интеллекту, поэтому пока это происходит только в половине случаев. Так что специалисты всё ещё дорабатывают этот механизм. Однако, по словам зампреда, все подразделения Сбербанка в целом готовы к переходу на ИИ: «Мы внедряем эту технологию везде, начиная с фронт-офиса, – яркий пример тому недавнее обновление нашего мобильного приложения, которое сделало каждый "Сбербанк Онлайн" уникальным и не похожим на другой, – и заканчивая бэк-офисом, где искусственный интеллект принимает решения по рутинным операциям».

Сообщается, что Сбербанк отвечает за разработку шестилетнего федерального проекта по внедрению ИИ по всей России с бюджетом в 90 млрд рублей. С внедрением ИИ некоторые специалисты оказываются не у дел, многим из них банк дает возможность остаться в команде.

«Яркий пример: при выдаче кредита у нас задействованы андеррайтеры — это люди, которые составляют мнение рисков, функцию риск-менеджмента относительно заявки на кредит. Очевидно, что при такой скорости и технологиях потребность в этих людях становится все меньше. И теперь нашим коллегам — они очень высококвалифицированные — мы предлагаем стать дата-сайентистами, то есть людьми, которые сами пишут программы искусственному интеллекту», – объясняет Ведяхин.

В 2018 году глава Сбербанка Герман Греф рассказал, что компания сократила 70 % менеджеров среднего звена.

 

Учёные всё ближе к созданию полностью оптических нейронных сетей

Нейронные сети лучше всего справляются с такими сложными задачами, как распознавание лиц и голоса, но их реализации на базе классических электросхем крайне ограничены в быстродействии и имеют очень высокое энергопотребление. Теоретически оптика может решить эти проблемы, а также превзойти электронные аналоги в матричных вычислениях, широко применяемых в нейронных сетях. Тем не менее, её применение было ограничено из-за неспособности выполнять некоторые сложные вычисления, но сейчас новые эксперименты показали, что полностью оптические нейронные сети всё-таки могут справиться с этими задачами, а значит появление новых сверхбыстрых оптических систем искусственного интеллекта в ближайшем будущем становится вполне реальным.

Оптически нейронные сети во многом превосходят электронные, а потому учёные крайне заинтересованны разработать их рабочие прототипы и, кажется, что исследователям из Института физики в Мюнстерском университете и их коллегам из Гонконгского университета науки и техники удалось достичь значительных успехов в этом направлении

Оптически нейронные сети во многом превосходят электронные

Ключевая и наиболее привлекательная черта нейронных сетей — огромное количество взаимосвязей, которые образуют нейроны, подобно их биологическим аналогам в человеческом мозге. Эти связи дают им высокую способность к параллелизму, что позволяет выполнять множество операций одновременно, делая их гораздо более эффективными в задачах по распознаванию лиц или голоса, чем традиционные компьютерные системы, которые выполняют одну или несколько инструкций за раз.

Современные электронные нейронные сети достигают размера до восьми миллионов нейронов, но их будущее применение для искусственного интеллекта может быть ограничено из-за высокого энергопотребления и ограниченного параллелизма в соединениях. В то время как оптические соединения через линзы по своей сути параллельны изначально. Например, линза в вашем глазу фокусирует сразу весь поступающий свет на сетчатку в задней части глаза, где расположено множество детектирующих свет нервных клеток. Затем каждая клетка непрерывно передаёт оптический сигнал нейронам мозга, которые их обрабатывают, чтобы показать нам итоговое изображение.

Стеклянные линзы обрабатывают оптические сигналы путём фокусировки света, выполняя сложную математическую операцию, называемую преобразованием Фурье, которое помогает транслировать сигнал из аналогового вида в цифровой. Например, одним из применений преобразований Фурье является преобразование временных изменений интенсивности сигнала в график частот, присутствующих в сигнале. Военные использовали этот приём в 1950-х годах, чтобы преобразовать необработанные радиолокационные сигналы, записанные летящим самолётом, в трёхмерное изображение ландшафта. Сегодня это преобразование без проблем осуществляется современными компьютерами, а вот ламповые компьютеры 1950-х годов не справлялись с этой задачей.

Разработка нейронных сетей для искусственного интеллекта началась с их моделирования на классических компьютерах, но в таком виде ИИ был ограничен из-за медленной обработки данных и необходимости в значительных вычислительных ресурсах. Через некоторое время были разработаны гибридные нейронные сети, в которых оптика выполняет простые линейные операции, а электроника занимается более сложными нелинейными вычислениями. И вот сейчас две независимые группы исследователей продемонстрировали достаточно простые и полностью оптические нейронные сети, которые выполняют всю обработку данных самостоятельно.

Схематичное изображение нейронной сети из научной работы группы Вольфарама Перниса

Схематичное изображение нейронной сети из научной работы группы Вольфарама Перниса

В мае Вольфрам Пернис (Wolfram Pernice) из Института физики Мюнстерского университета в Германии и его коллеги сообщили о тестировании полностью оптического «нейрона», использующего специальный материал, изменяющий своё состояние при получении сигнала между жидким и твёрдым, что позволило использовать его для оптического хранения данных. С его помощью они продемонстрировали нелинейную обработку данных и выходные импульсы, похожие на импульсы органических нейронов. Затем учёные создали интегрированную фотонную схему, которая включала в себя четыре таких оптических нейрона, работающих на разных длинах волн, каждый из которых был подключен к 15 оптическим синапсам. Данная схема включала около 140 компонентов и смогла распознавать простые оптические структуры. Исследователи утверждают, что их устройство является масштабируемым, и в будущем данная технология обещает «доступ к высокой скорости и пропускной способности, присущей оптическим системам, что позволит напрямую обрабатывать оптические телекоммуникационные и визуальные данные». Исследование было опубликовано в журнале Nature.

Многослойная полностью оптическая нейронная система разработанная учёными из Гонконга

Многослойная полностью оптическая нейронная система, разработанная учёными из Гонконга

Теперь группа из Гонконгского университета науки и технологии опубликовала научную работу в журнале Optica, где они описали, как им удалось создать полностью оптическую нейронную сеть, основанную уже на другом физическом процессе — электромагнитно-индуцированной прозрачности, эффекте, при котором свет влияет на то, как атомы перемещаются между квантово-механическими уровнями энергии. «Этот процесс является нелинейным и может быть инициирован очень слабыми световыми сигналами», — объясняет Шенгванг Ду (Shengwang Du), профессор физики и соавтор статьи.

В своём эксперименте они подвергли воздействию света атомы рубидия, охлаждённые лазерами до примерно 10 микрокельвинов (на 10 микроградусов выше абсолютного нуля). Хотя метод может показаться необычайно сложным, как утверждает Ду, данная технология является наиболее простой и доступной для использования в лаборатории из тех, что могли дать желаемый эффект. «Будучи чисто квантовой атомной системой, она идеально подходит для этого эксперимента, чтобы доказать сам принцип работы», — утверждает он.

В будущем группа Шенгванга планируют увеличить размер системы при помощи использования горячего атомного пара, который является менее дорогим, не требует трудоёмкой подготовки по охлаждению атомов и в дальнейшем может быть интегрирован с фотонными чипами.

«Их демонстрация кажется верной и работоспособной», — комментирует Фолькер Зоргер (Volker Sorger), инженер-электрик из Университета Джорджа Вашингтона. Он соглашается, что полностью оптический подход очень привлекателен, так как предлагает очень высокий параллелизм, но частота обновления нейронов, по его мнению, в проекте Шенгванга составит примерно 100 герц из-за используемых в них жидких кристаллов, и потому Волкер не совсем уверен, что такую систему возможно масштабировать без ошибок.

В Китае ИИ выявил подозреваемого в убийстве, распознав лицо покойника

Мужчина, обвиняемый в убийстве своей подруги на юго-востоке Китая, был пойман после того, как программное обеспечение для распознавания лиц предположило, что он пытался отсканировать лицо трупа, чтобы подать заявку на кредит. Полиция провинции Фуцзянь сообщила, что 29-летний подозреваемый по имени Чжан был пойман при попытке сжечь тело на удалённой ферме. Офицеры были предупреждены компанией, которая выдаёт кредиты онлайн: система не обнаружила никаких признаков движения в глазах жертвы и подала об этом сигнал.

Simon Song

Simon Song

Чжан обвиняется в том, что задушил свою подругу верёвкой в ​​Сямыне 11 апреля после того, как у пары возник спор о деньгах, и женщина угрожала покинуть подозреваемого. Затем он якобы отправился в бега с телом, спрятанным в багажнике арендованного автомобиля. Чжан также обвиняется в том, что притворялся жертвой и связывался с работодателями последней через её учётную запись в социальной сети WeChat, чтобы договориться об отпуске.

Когда преступник прибыл в свой родной город Саньмин на следующий день, полиция получила сообщение, что он пытался подать заявку на кредит, используя приложение под названием Money Station. В последнем применяется нейросеть для проверки личности заявителей, а в процессе идентификации предлагается подмигнуть. Сотрудники кредитора связались с полицией после того, как при ручной проверке сомнительной заявки обнаружили синяки на лице женщины и толстую красную отметину на шее.

guvendemir/iStock

guvendemir/iStock

Программное обеспечение для распознавания голоса также обнаружило, что за получением кредита обратился мужчина, а не женщина. Чжан, формальный арест которого был одобрен прокуратурой в этом месяце, обвиняется ещё и в том, что использовал телефон жертвы, чтобы снять 30 000 юаней (около $4200) с её банковского счета и обманывал родителей покойной, сообщив им, будто женщина уехала на несколько дней, чтобы отдохнуть.

Хотя дата судебного разбирательства ещё не объявлена, подробности дела уже потрясли многих в Китае. Некоторые пользователи социальных сетей предположили, что сюжет слишком ужасен и напоминает скорее триллер (если не чёрную комедию), а другой писал: «Никогда не предполагал, что процесс распознавания лиц можно использоваться таким способом».

Нейросеть «Beeline AI - Поиск людей» поможет найти пропавших

«Билайн» разработал специализированную нейронную сеть, которая поможет в поиске пропавших: платформа получила название «Beeline AI - Поиск людей».

Решение призвано упростить работу поисково-спасательного отряда «Лиза Алерт». С 2018 года эта команда применяет беспилотные летательные аппараты для поисковых операций, проводимых в лесу и на промышленных территориях городов. Однако анализ снимков, получаемых с камер дронов, требует вовлечения большого количества волонтеров. К тому же на это уходит очень много времени.

Нейросеть «Beeline AI - Поиск людей» как раз и призвана автоматизировать процесс обработки фотографий. Утверждается, что специализированные алгоритмы позволяют сократить время на просмотр и сортировку полученных снимков в два с половиной раза.

Платформа использует технологии свёрточных нейронных сетей, что повышает эффективность работы средств машинного зрения. Обучение нейросети проходило на реальных подборках изображений. Испытания показали, что точность модели на тестовых изображениях приближается к 98 %.

Первостепенной задачей «Beeline AI - Поиск людей» является сортировка «пустых» и неинформативных фотографий, на которых точно нет человека или атрибутов, указывающих, что в этом месте был человек. Это позволяет группе анализа сразу сосредоточиться на потенциально результативных снимках.

Система может адаптироваться к различным условиям. Она одинаково точно находит объекты как с высот 30–40 метров, так и с высоты полёта 100 метров. При этом нейросеть способна обрабатывать изображения с высоким уровнем визуального «шума» — деревья, природный ландшафт, сумерки и т. д.

«Потенциально нейронная сеть способна находить людей и предметы во всех местах поиска, таких как лес, болота, поля, города, независимо от времени года и одежды человека, так как алгоритм настраивается на работу в любое время года и потенциально сможет распознавать нестандартное положение тела в пространстве, например, сидящего, лежащего или частично укрытого листвой человека», — отмечает «Билайн». 

Нейросети помогут в синтезе углеродных нанотрубок

Российские исследователи предложили технологию, позволяющую контролировать рост углеродных нанотрубок с помощью нейронных сетей. Ожидается, что это поможет в создании электронных устройств нового поколения.

Авторы работы — специалисты Лаборатории наноматериалов Сколтеха. Учёные объясняют, что тонкие плёнки из углеродных нанотрубок представляют собой самый перспективный на сегодняшний день материал для использования в оптоэлектронике, энергетике и медицине будущего. Однако существует проблема: контролировать многофазный процесс производства нанотрубок крайне сложно.

Российские специалисты предлагают использовать нейросети для анализа экспериментальных данных и предсказания эффективности синтеза однослойных углеродных нанотрубок.

В частности, метод предполагает применение искусственных нейронных сетей, обученных на таких экспериментальных параметрах, как температура, давление газов и скорость потока вещества, для контроля характеристик производимых плёнок из нанотрубок.

Учёные считают, что технология поможет создать эффективное производство углеродных нанотрубок, что откроет новые перспективы их применения. Результаты исследования опубликованы в журнале Carbon

Baidu выпустила ERNIE 2.0 — новую модель для понимания человеческого языка при помощи ИИ

В марте этого года китайская компания Baidu представила первую версию ERNIE (Enhanced Representation through kNowledge IntEgration), нового фреймворка и модели для обработки естественного языка (Natural Language Processing — NLP), который поднял настоящую волну в сообществе разработчиков NLP-систем, опередив Google BERT (Bidirectional Encoder Representations from Transformers) в различных задачах по анализу текстов на китайском языке. Теперь Baidu сообщила о выпуске новой версии модели — ERNIE 2.0. В своей исследовательской работе учёные из Baidu утверждают, что ERNIE 2.0 превосходит модели BERT и более современную XLNet в 16 задачах NLP на китайском и английском языках.

Вчера Baidu представила новую версию предварительно обученной нейронной модели ERNIE 2.0, предназначенной для решения задач связанных с пониманием естественного языка и показывающей лучшую производительность, чем существующие аналоги

Baidu представила новую версию предварительно обученной нейронной модели ERNIE 2.0

ERNIE представляет собой предварительно обученную нейронную сеть, созданную при помощи PaddlePaddle — открытой платформы для глубокого обучения, созданной в Baidu. Процесс предварительного обучения NLP-моделей, таких как BERT, XLNet и ERNIE, в основном базируется на нескольких простых задачах, моделирующих использование слов или предложений с учётом их связи и семантики. Например, BERT использует модель двунаправленного языка (bidirectional language model) и задачу по прогнозированию следующего предложения, чтобы получить информацию о совпадениях, а XLNet применяет модель языковых перестановок (permutation language model).

Структура ERNIE 2.0, в которой различные задачи для обучения могут ставиться одновременно и добавляться по мере необходимости, а сама модель может быть настроена для решения любого типа задач в области понимания естественного языка.

Структура ERNIE 2.0, в которой различные задачи для обучения могут ставиться одновременно и добавляться по мере необходимости, а сама модель может быть настроена для решения любого типа задач в области понимания естественного языка.

Но помимо порядка слов и их связи, в лингвистических системах есть гораздо более сложная лексическая, синтаксическая и семантическая информация. Например, различные названия и имена собственные — имена людей, географические названия и названия организаций — содержат концептуально важную информацию. В то же время информация о порядке и последовательности предложений даёт возможность NLP-моделям изучать языковые конструкции с учетом их структуры, а семантическое сходство и логические связи между предложениями позволяют исследовать семантические языковые правила. Таким образом языковым моделям для максимальной точности и производительности необходимо учитывать как минимум три указанных подхода. И исследователи Baidu задались вопросом: «Возможно ли использовать их параллельно и непрерывно? ».

Входные данные для ERNEIE включают в себя токены (единицы анализа текста), сами анализируемые предложения, данные о позициях токенов в них и необходимые для выполнения задачи.

Входные данные для ERNEIE включают в себя токены (единицы анализа текста), сами анализируемые предложения, информацию о позициях токенов в них и необходимые для выполнения задачи.

Основываясь на этой идее, они предложили структуру для непрерывного обучения модели пониманию языка, в которой задачи предварительного обучения могут создаваться в любой момент и выполняться за счёт заложенной многозадачности для обучения и кодирования лексической, синтаксической и семантической информации между ними. И всякий раз, когда добавляется новая задача, эта структура может постепенно обучать распределенные представления, не забывая ранее обученные параметры.

В тестировании на наборе данных GLUE для английского языка ERNIE 2.0 обошла BERT и XLNet в 7 задачах из 9

В тестировании на наборе данных GLUE для английского языка ERNIE 2.0 обошла BERT и XLNet в 7 задачах из 9

Команда Baidu сравнила производительность ERNIE 2.0 с другими NLP-моделями для английского языка на наборе данных GLUE и отдельно на 9 популярных наборах для китайского языка. Результаты показывают, что ERNIE 2.0 превосходит BERT и XLNet в 7 задачах на понимание английского языка и превосходит BERT по всем 9 задачам, когда дело касается китайского, таких как машинное чтение с использованием набора данных DuReader, семантический анализ и ответы на вопросы.

Чтобы узнать больше об ERNIE 2.0, вы можете прочитать исследовательскую работу на английском языке, а исходные коды и предварительно обученную модель можно загрузить с официальной страницы на GitHub.

Российская нейроплатформа E-Boi поможет повысить реакцию киберспортсменов

Российские исследователи из МГУ имени М.В. Ломоносова разработали нейроинтерфейсную платформу под названием E-Boi, предназначенную для тренировки киберспортсменов.

Предложенная система использует интерфейс мозг — компьютер. Создатели говорят, что решение позволяет повысить скорость реакции у любителей компьютерных игр и увеличить точность управления.

Схема применения платформы выглядит следующим образом. На первом этапе киберспортсмен проходит тестирование на скорость и точность в специально разработанном приложении. При этом с помощью электроэнцефалографических сенсоров система регистрирует активацию сенсомоторных участков коры больших полушарий мозга. Кроме того, выполняется калибровка платформы.

На следующем этапе осуществляется собственно тренировка. Киберспортсмен должен представлять, как выполняет задачи, не совершая при этом никаких движений. В это время в мозге происходит улучшение связи между нейронами коры и двигательными нейронами. После окончания «мысленной» тренировки исследователи вновь замеряют показатели пользователя в приложении.

МГУ

МГУ

«Наше предложение — оценивать по степени активации сенсомоторных зон коры то, насколько правильно человек представляет движения. Контролировать это можно как раз при помощи нейроинтерфейса, считывающего мозговую активность и оценивающего её интенсивность», — говорят разработчики.

Новой системой, как отмечается, уже заинтересовались российские киберспортивные клубы. Кроме того, в перспективе решение может помочь в реабилитации пациентов, перенёсших инсульт или нейротравму. 

Нейросеть DeepCubeA собирает кубик Рубика за секунду

По сообщениям сетевых источников, группа исследователей из Калифорнийского университета в Ирвине разработала ИИ-систему под названием DeepCubeA, которая способна собрать кубик Рубика всего за одну секунду.

Авторы проекта говорят о том, что представленная ИИ-система способна решить головоломку без каких-либо специальных знаний предметной области или тренировок. Рекордное достижение по сборке кубика Рубика человеком равно 5,25 с. Что касается DeepCubeA, то в некоторых случаях нейросеть может справиться с поставленной задачей за доли секунды.

Старший автор исследования профессор Пьер Балди (Pierre Baldi) рассказал о том, что до недавнего времени ИИ-системы научились побеждать людей в шахматы и го, но успешная сборка кубика Рубика на высокой скорости им не удавалась.

Теперь же система DeepCubeA успешно справилась со 100 % тестовых конфигураций, причём в 60,3 % случаев был найден кратчайший путь решения головоломки. Господин Балди сообщил о том, что обычно алгоритму требуется около 20 ходов, чтобы успешно выполнить задачу.

По мнению исследователей, сборка кубика Рубика предполагает наличие более символического, математического и абстрактного мышления. Созданный ими алгоритм показывает, что нейросеть становится ближе к тому, чтобы стать системой, способной думать, рассуждать, планировать и принимать решения. Учёные намерены продолжить свою работу, основной целью которой является создание ИИ-системы следующего поколения.

В MIT создали ИИ-систему, которая может создавать и обнаруживать поддельные изображения

Создание цифровой визуализации и редактирование изображений может отнимать много времени. Учёные из Массачусетского технологического института (MIT) совместно с инженерами IBM намерены изменить это. Их новая разработка построена на основе ИИ-системы, способной с нуля генерировать фотографические изображения, а также реалистично редактировать объекты внутри них.

Программа окажется весьма полезной для художников и дизайнеров, но у неё может быть более широкое применение. Разработка учёных даёт представление о том, как нейронные сети изучают контекст. Команда разработчиков надеется, что это поможет использовать ИИ-систему для выявления поддельных и изменённых изображений. Представленный учёными инструмент называется GANpaint Studio и в настоящее время он доступен в виде бесплатной демонстрации.

К примеру, вместо того, чтобы вручную добавлять бревно к изображению, можно просто указать место, а редактор самостоятельно нарисует объект, который вписывается в сцену. С такой же лёгкостью можно удалять лишние объекты с изображений. Несмотря на то, что GANpaint Studio находится в разработке, авторы проекта надеются, что в будущем созданный ими инструмент сможет использоваться для редактирования видеороликов.

В процессе разработки GANpaint Studio учёные были удивлены, когда обнаружили, что система усвоила простые правила об отношениях между объектами. К примеру, дверь не может находиться в небе, а облака на траве. Исследователи надеются, что это понимание позволит лучше понять, как нейронные сети изучают контекст. Система может использоваться не только для создания изображений, но и для обнаружения поддельных снимков.

Разработка учёных будет представлена широкой публике в рамках официального мероприятия, намеченного на следующий месяц.

Создана программа, убирающая людей с фото за секунды

Похоже, что высокие технологии свернули куда-то не туда. Во всяком случае, такая мысль возникает при ознакомлении с приложением Bye Bye Camera, которое недавно появилось в App Store. Эта программа использует искусственный интеллект и позволяет за секунды убирать с фотографий посторонних людей.

techcrunch.com

techcrunch.com

Программа использует для работы технологию YOLO (You Only Look Once), которая как утверждается, эффективно определяет человека на фото, замещая его специально подобранным фоном. Технически это похоже на автоматизированные инструменты из Adobe Photoshop, где сначала система определяет «контур» человека, затем анализирует фон и, наконец, удаляет случайно попавшего или нежелательного человека с фото.

Приложение пока что доступно только для мобильной операционной системы iOS. Скачать его можно по ссылке, однако за него придётся заплатить $2,99. О появлении подобного решения под Android пока не сообщается. На данный момент сложно сказать, насколько полезной будет такая программа. Её оценят разве что пользователи, которым нравится делать селфи, но при этом они не хотят видеть никого постороннего на снимке.

techcrunch.com

techcrunch.com

По данным ресурса TechCrunch, результаты работы программы пока не слишком однозначны, хотя определённые успехи есть. Разумеется, качество работы зависит от ряда параметров — условий съёмки, освещения и так далее. 

Напомним, что в начале года появилась информация о нейросети, которая генерирует лица несуществующих людей. И хотя пока что это больше игрушки, нежели реально используемые инструменты, успехи ИИ в области создания фейков, в том числе визуальных, потрясают и пугают одновременно.

Samsung улучшит ИИ-возможности мобильных процессоров

Компания Samsung Electronics объявила о намерении улучшить возможности своих нейронных модулей (NPU), предназначенных для выполнения операций, связанных с искусственным интеллектом (ИИ).

Блок NPU уже применяется во флагманском мобильном процессоре Samsung Exynos 9 Series 9820, который устанавливается в смартфоны семейства Galaxy S10. В дальнейшем южнокорейский гигант намерен интегрировать нейронные модули в процессоры для центров обработки данных и автомобильных систем, в том числе в чипы для платформ оказания помощи водителю (ADAS).

С целью развития направления NPU компания Samsung намерена создать более 2000 новых рабочих мест во всём мире к 2030 году, что примерно в 10 раз превышает текущую численность персонала, задействованного в разработке нейронных модулей.

Кроме того, Samsung укрепит сотрудничество с всемирно известными исследовательскими институтами и университетами и будет поддерживать развитие талантливых специалистов в области искусственного интеллекта, в том числе глубокого обучения и нейронной обработки.

Предполагается, что новые инициативы помогут Samsung расширить сферу применения ИИ-систем и предложить пользователям сервисы нового поколения. 

NVIDIA STEAL поможет ИИ лучше определять границы у объектов реального мира

Исследователи из NVIDIA, Университета Торонто и Института по изучению искусственного интеллекта Vector в Торонто разработали метод для более точного обнаружения границ, отделяющих одни объекты на изображениях от других. Эта технология может улучшить работу существующих моделей компьютерного зрения и помочь маркировать данные для обучения систем искусственного интеллекта. Например, в экспериментах, проведённых исследователями, STEAL (Semantically Thinned Edge Alignment Learning) позволяет повысить точность одной из современных моделей прогнозирования семантических границ CASENet на 4 %. При этом стоит отметить, что более точное распознавание границ у объектов может иметь приложение для самых разных задач компьютерного зрения, начиная от стандартных по обнаружению и классификации до генерации изображений и трёхмерного моделирования.

Исследователи из NVIDIA, Университета Торонто и Института Vector разработали модель, которая может помочь существующим системам машинного зрения с определением границ реальных объектов и их классификации

Исследователи из NVIDIA, Университета Торонто и Института Vector разработали модель, которая может помочь существующим системам машинного зрения с определением границ реальных объектов и их классификацией

STEAL обнаруживает границы объектов в пикселях при помощи метода, который исследователи называют «активным выравниванием». Как фреймворк он может применяться для улучшения существующих свёрточных нейронных сетей и моделей машинного зрения. Также учёные считают, что их разработка может помочь другим исследователям более эффективно маркировать или аннотировать данные для обучения их нейронных сетей. Чтобы доказать это, метод STEAL был использован для уточнения Cityscapes, набора визуальных данных в рамках городской среды, впервые представленного на конференции Computer Vision and Pattern Recognition (CVPR) в 2016 году, при этом удалось добиться увеличения точности сегментации в отдельных категориях до 1,2 %.

Пример работы STEAL в динамике

Пример работы STEAL в динамике

«Мы обнаружили, что наши результаты по предсказанию границ у объектов значительно лучше, чем те, которые по последним данным, демонстрирует модель DeepLab-v3, и это при использовании гораздо более лёгкой архитектуры», — пишут авторы исследования.

Научная работа «Дьявол в границах: изучение семантических границ в зашумлённых аннотациях» будет представлена в устной презентации на этой неделе на конференции CVPR 2019 в Лонг-Бич, Калифорния. Помимо неё десятки других исследовательских работ, многие из которых написаны исследователями из NVIDIA Research, будут представлены в выступлениях на конференции, сообщает компания NVIDIA в своём блоге.

Исходный код STEAL доступен для всех желающих на платформе GitHub.

Учёные из MIT научили ИИ понимать тактильные ощущения

Роботы, которые смогут ориентироваться в пространстве на ощупь, появятся в недалёком будущем, утверждают исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (MIT). В недавно опубликованной ими научной работе, которая будет представлена на этой неделе на Конференции по компьютерному зрению и распознаванию образов в Лонг-Бич, Калифорния, они описывают систему на базе искусственного интеллекта (ИИ), способную воссоздавать визуальный образ объекта по тактильным ощущениям и предсказать тактильные ощущения от прикосновения к нему на основе изображения.

Учёные из MIT научили ИИ использовать тактильные ощущения. Пока что на ограниченной выборке, но ИИ уже может понять к чему и где он прикасается, а также предсказать ощущения от прикосновения к объекту на основе одного лишь изображения

Учёные из MIT научили ИИ использовать тактильные ощущения. Пока что на ограниченной выборке, но ИИ уже может понять к чему и где он прикасается, а также предсказать ощущения от прикосновения к объекту на основе одного лишь изображения

«Используя визуальное изображение, наша модель может представить возможные ощущения от прикосновения к плоской поверхности или к острому краю», — говорит аспирант Лаборатории искусственного интеллекта MIT и ведущий автор работы Юнчжу Ли (Yunzhu Li), который провёл исследования вместе с профессорами MIT Руссом Тедрейком (Russ Tedrake) и Антонио Торралба (Antonio Torralba), а также постдокторантом Джун-Ян Чжу (Jun-Yan Zhu). «Просто касаясь объектов без использования зрения, наша ИИ-модель может предсказать взаимодействие с окружающей средой исключительно по тактильным ощущениям. Объединение этих двух чувств может расширить возможности роботов и уменьшить объем данных, которые требуются для выполнения задач, связанных с манипулированием и захватом объектов».

ИИ предсказывает тактильные ощущения на базе визуальной информации. Зелёный квадрат — данные с тактильного сенсора, красный — предсказание ИИ

ИИ предсказывает тактильные ощущения на базе визуальной информации (зелёный квадрат — данные с тактильного сенсора, красный — предсказание ИИ)

Для генерации изображений на основе тактильных данных команда исследователей использовала GAN (англ. Generative adversarial network — генеративно-состязательная сеть) — двухчастную нейронную сеть, состоящую из генератора, который создаёт искусственную выборку, и дискриминатора, которые пытаются различить сгенерированные и реальные образцы. Обучалась модель на специальной базе данных, которую исследователи назвали «VisGel», представляющую собой совокупность из более чем 3 миллионов пар визуальных и тактильных изображений и включающую в себя 12 000 видеоклипов почти 200 объектов (таких как инструменты, ткани и товары для дома), которые ученые самостоятельно оцифровали при помощи простой веб-камеры и тактильного датчика GelSight, разработанного другой группой исследователей в MIT.

Используя тактильные данные, модель научилась ориентироваться относительно места прикосновения к объекту. Например, используя эталонную выборку данных по обуви и снятые с тактильного датчика данные, путём сравнения определить, к какой части обуви и с какой силой в данный момент прикасается манипулятор Kuka. Эталонные изображения помогли системе правильно декодировать информацию об объектах и окружающей среде, позволяя дальше ИИ самосовершенствоваться самостоятельно.

На базе тактильной информации ИИ определяет какого объекта коснулся манипулятор и в каком месте

На базе тактильной информации ИИ определяет, какого объекта коснулся манипулятор и в каком месте (зелёный квадрат — считывание информации, красный — поиск места предыдущего касания при помощи ИИ)

Исследователи отмечают, что текущая модель имеет примеры взаимодействий только в контролируемой среде и пока ещё малопригодна для практического применения, и что некоторые параметры, например, такие как мягкость объекта, системе определить пока ещё сложно. Тем не менее, они уверены, что их подход заложит основу для будущей интеграции человека с роботом в производственных условиях, особенно в тех ситуациях, когда визуальных данных просто недостаточно, например, когда свет по каким-то причинам отсутствует, и человеку приходится манипулировать с объектами вслепую.

«Это первая технология, которая может достоверно транслировать визуальные и сенсорные сигналы друг в друга», — говорит Эндрю Оуэнс (Andrew Owens), научный сотрудник Калифорнийского университета в Беркли. «Подобные методы потенциально могут быть очень полезны для робототехники, когда вам нужно ответить на вопросы типа „Этот объект твёрдый или мягкий?“ или „Если я подниму эту кружку за ручку, насколько надёжен мой захват?“ — это очень сложная задача, так как сигналы очень разные, и эта модель (созданная исследователями из MIT) продемонстрировала большие возможности».

ИИ научился определять вероятность скорой смерти героя в игре Dota 2

Многие события можно предсказать до момента их наступления, например, достаточно очевидно, что персонаж человека, играющего в популярную игру в жанре MOBA — Dota 2, вскоре погибнет, если к нему из зоны вне его видимости приближается более сильный герой противника. Но что очевидно для человека, не всегда легко даётся компьютеру, да и человек не всегда в состоянии следить за всем, что происходит на игровой карте. В статье под названием «Время умереть: предсказание смерти персонажа в Dota 2 с использованием глубокого обучения» исследователи из Йоркского университета описали, как им удалось обучить ИИ с достаточно высокой точностью предсказывать приближающуюся гибель игрового героя за 5 секунд до того, как это фактически случится.

Исследователи из Йоркского университата научили ИИ предсказывать гибель чемпиона в компьютерной игре Dota 2 за 5 секунд до фактического события

Исследователи из Йоркского университета научили ИИ предсказывать гибель персонажа в компьютерной игре Dota 2 за 5 секунд до фактического события

На самом деле, предсказать, что персонаж через 5 секунд будет убит — это немного сложнее, чем кажется на первый взгляд. Средний матч состоит из 80 000 отдельных фрагментов, в течение каждого из них персонаж может выполнить десятки из 170 000 возможных (по расчётам исследователей) действий. В среднем игроки на карте выполняют 10 000 передвижений за каждый фрагмент матча, внося более 20 000 игровых изменений.

Авторы исследования отмечают, что низкое здоровье персонажа не всегда тесно связано с его скорым убийством, так как некоторые герои обладают способностями к исцелению, а также для лечения или телепортации существуют специальные предметы. Учитывая все эти факторы, команда использовала для обучения нейронной сети записи матчей в Dota 2, предоставленные Valve, в которых содержались 5000 профессиональных и 5000 полупрофессиональных игр, сыгранных до 5 декабря прошлого года. Перед фактическим обучением записи подвергли предварительной обработке, путем преобразования матчей во временные шкалы для каждого из игроков, поделённые на отрезки по 0,133 секунды игрового времени, где каждая точка на шкале содержала полный набор данных о персонаже и его окружении.

Из всей внутриигровой информации исследователи выделили 287 параметров, например, такие как здоровье, мана, сила, ловкость и интеллект персонажа, имеющиеся у него активируемые предметы, готовые к применению способности, положение героя на карте, расстояние до ближайшего противника и защитной башни союзников, а также общая история обзора (когда и где в последний раз игрок видел противника). Данные параметры, как указывают исследователи, играют ключевую роль в том, погибнет ли персонаж или выживет в ближайшей перспективе, при этом самую значимую роль играло положение на карте и история обзора.

«Поведение игроков зависит от информации о недавнем прошлом», — пишут соавторы работы. «Например, если враг просто скрылся из виду, игрок всё равно знает, что он находится где-то в этом районе. С другой стороны, если враг исчез несколько минут назад, он может быть где угодно с точки зрения игрока. Это стало причиной, почему мы добавили функцию анализирующую историю обзора».

Диаграммы, показывающие участки совпадений, где «К» указывает на достоверность убийства.

Диаграммы со временными линиями для 10 игроков, буква "K" соответствует моменту гибели персонажа в игре

Для обучения нейронной сети ученые использовали 2870 входов (287 параметров на 10 игроков) и 57,6 млн точек с данными, зарезервировав 10 % данных для проверки и еще 10 % для тестирования. В ходе экспериментов команда обнаружила, что она достигла средней точности 0,5447 в ситуациях, когда ИИ было предложено предсказать, герой какого из десяти игроков любой из команд умрёт в течение ближайших пяти секунд. Кроме того, исследователи указывают, что модель могла прогнозировать смертельные исходы и в более большом временном промежутке благодаря изучению всех факторов и ситуаций, которые могут к ним привести.

Учёные отмечают, что у их подхода есть определенные ограничения, а именно, что системе требуется такое количество внутриигровой информации (в том числе о невидимых для рассматриваемого чемпиона чемпионов противника), чтобы делать свой прогноз, и что она может быть не совсем совместимой с новыми версиями игры. Тем не менее, они считают, что разработанная ими модель, которая доступна в открытом коде на GitHub, может быть полезна комментаторам и игрокам, когда они следят за ходом матча.

«Игры в киберспорте очень сложные, из-за высокой скорости игрового процесса баланс игры может измениться буквально в течение нескольких секунд, при этом различные события могут происходить во многих областях игровой карты одновременно. Они могут происходить настолько быстро, что комментаторы или зрители могут легко пропустить важный момент в игре и затем наблюдать лишь за его последствиями», — пишут исследователи. «При этом в Dota 2 убийство героя противника является ключевым событием, интересующим как комментаторов, так и зрителей».

ИИ поможет дронам уклоняться от быстро движущихся объектов

Беспилотники, способные к автономному уклонению, не являются чем-то новым на рынке: например, DJI демонстрирует подобную функциональность в своих продуктах в течение многих лет. Но как насчёт квадрокоптеров, которые могут уклоняться от быстро движущихся в их направлении снарядов? Например, таких, как брошенный в их сторону мяч или летящий навстречу дрон? Именно такую технологию описывают ученые из Университета Мэриленда и Швейцарской высшей технической школы Цюриха (ETH Zurich) в недавно опубликованном препринте под заголовком «EVDodge: Реализация ИИ для высокоскоростного уклонения при помощи событийной камеры». Они утверждают, что созданная ими система, получившая название «Embodied AI», позволяет практически любому беспилотнику избегать движущихся препятствий при помощи только камеры и бортового компьютера. Исследователи намерены выпустить демонстрационный код и набор обучающих данных в открытый доступ сразу после того, как статья будет принята к публикации в научном издании.

ученые из Университета Мэриленда и Швейцарской высшей технической школы Цюриха ( ETH Zurich)

Учёные из Университета Мэриленда и ETH Zurich разработали систему, которая при помощи одной лишь камеры поможет дронам уклоняться от быстро движущихся в их сторону объектов, таких как мячи или другие дроны

Исследователи использовали установленные на тестовом дроне фронтальную событийную камеру, то есть оптический датчик с минимальной задержкой и высоким динамическим диапазоном, дополнительную камеру, направленную вниз, а также сонар и инерциальный измерительный блок. На уровне программного обеспечения применялись три «неглубокие» модели ИИ: EVDeBlurNet, EVHomographyNet и EVSegFlowNet — каждая из них выполняла одну из задач, таких как увеличение чёткости и шумоподавление на последовательности изображений, аппроксимация движения фона с камеры, обращенной вниз, для уклонения и возврата на исходную точку, и сегментирование препятствий, летящих по направлению фронтальной камеры, для расчёта их траектории.

Для обнаружения снаряда, летящего по направлению к дрону, данной системе требуется пять последовательных кадров, чтобы оценить его траекторию и скорость, затем ИИ классифицирует движущийся объект в соответствии с его геометрией по трём возможным сценариями: 1 — сфера с известным радиусом, 2 — объект неизвестной формы с известным размером, 3 — неизвестный объект без предварительной информации о размере, чтобы дать дрону окончательные инструкции как уклониться от столкновения.

Наглядная демонстрация эксперимента. Дрон успешно уклоняется от объектов, которые в него кидают исследователи

Дрон успешно уклоняется от мячика и игрушечного самолёта, которые в него бросает исследователь

Команда провела испытания с четырьмя различными объектами: сферическим мячом, игрушечной машинкой и самолётом, а также беспилотником Parrot Bepop 2, либо брошенным, либо направленном в полёте на тестовый квадрокоптер Intel Aero с расстояния около 5 метров. Во время эксперимента на пол были положены ковры с различной текстурой, чтобы с одной стороны упростить сканирование поверхности, а с другой стороны сделать эксперимент более реалистичным. В ходе более 200 испытаний исследователи достигли показателя успешного уклонения от 70 % до 86 % с игрушечным автомобилем и моделью самолета. Кроме того, они продемонстрировали, что их система может быть легко адаптирована к задаче преследования (где Aero следовал за Bepop 2).

Стоит отметить, что ранее в этом году швейцарские инженеры уже проводили подобное исследование без участия американских коллег, результат их работы вы можете прочитать в статье в научном журнале IEEE Robotics and Automation Letters, а также посмотреть на работу системы уклонения в живую на видео ниже.

window-new
Soft
Hard
Тренды 🔥