Теги → зрение
Быстрый переход

DJI Air 2S проиграл Skydio 2 в автоматическом уклонении от препятствий

DJI в своём новом дроне Air 2S серьёзно улучшила систему отслеживания препятствий и избегания столкновений: новый дрон получил помимо основной камеры также датчики снизу, сверху, спереди и сзади. Многие сразу задали неизбежный вопрос: сможет ли новый квадрокоптер видеть препятствия столь же эффективно, как уже относительно старый Skydio 2. И реальные тесты уже состоялись.

(Канал DC Rainmaker на YouTube)

(Канал DC Rainmaker на YouTube)

По словам китайского производителя, новые датчики, основанная камера и улучшенные алгоритмы расширенного автопилота (APAS 4.0) позволяют Air 2S распознавать препятствия в ещё более сложных сценариях и на высоких скоростях. В рекламе даже показывают работу дрона в лесу с обилием веток — весьма многообещающе.

Американский Skydio 2 на базе NVIDIA Tegra X2 имеет отличную репутацию благодаря своим продвинутым системам отслеживания. Его шесть визуальных датчиков строят сферическую картину окружения, дрон постоянно оценивает обстановку и принимает решения, куда двигаться дальше. Его алгоритмы даже предсказывают наперёд, где будет то или иное препятствие или движущийся объект в ближайшее время. Работает это весьма эффективно: например, Skydio 2 понимает окружение гораздо лучше, чем «автопилот» Tesla и видит даже кабели в воздухе.

Air 2S стоит $999 — столько же, как и Skydio 2. Оба аппарата претендуют на отличное избегание препятствий и превосходные способности к отслеживанию окружения. Блогер с канала DC Rainmaker на YouTube опубликовал отличное видеосравнение двух аппаратов и их интеллектуальных систем:

Как можно убедиться по ролику, система распознавания препятствий Skydio 2 работает на голову эффективнее, чем у Air 2S. Конечно, у дрона DJI нет боковых датчиков, но квадрокоптер влетел в густые ветви дерева даже при полёте вперёд, хотя и после поворота. Однако Skydio 2 в той же ситуации не просто не влетел в дерево, но нашёл свободное пространство и проследовал за оператором. Также стоит отметить, что во время теста при резкой остановке велосипедиста Air 2S дважды приближался к человеку на опасно близкую дистанцию. Китайский дрон также легко теряет отслеживаемый объект из виду.

Служба поддержки DJI отметила, что дрон попросту не успел среагировать на препятствие, а команда разработчиков постоянно улучшает систему машинного зрения, особенно в отношении ветвей. Действительно, в будущем система APAS может дополнительно улучшиться программными алгоритмами, но сейчас на неё лучше не полагаться, особенно в сложных условиях вроде леса и обилия голых ветвей.

Тем не менее, Air 2S компактен, лёгок и может предложить массу отличных возможностей вроде съёмки видео 5,4K, 1-дюймовой 20-Мп матрицы, управления на дистанции до 12 км и так далее. Для съёмки качественного видеоряда и фотографий это отличный дрон, пусть и не со столь совершенной автоматикой, как у Skydio 2.

Intel продолжает второй сезон бесплатных вебинаров CV Academy для опытных разработчиков

Компания Intel продолжает второй сезон проекта CV Academy для опытных разработчиков — вебинары по компьютерному зрению, глубокому обучению и оптимизации.

17 марта 19:00 – 20:30 — Применение компьютерного зрения в медицине

Регистрация: https://jsc-intel.timepad.ru/event/1446273

На вебинаре Вы узнаете о современных подходах к решению вычислительно трудоемких задач в области медицины (хирургия, гистология, исследование ДНК) и биохимии.

Спикером выступит Дмитрий Куртаев, инженер по разработке ПО, Intel, нейросетевой хирург, IOTG Russia.

24 марта 19:00 – 20:30 — Компиляторы для нейронных сетей

Регистрация: https://jsc-intel.timepad.ru/event/1446273

Будут рассмотрены существующие компиляторы, их плюсы и минусы, особенности и концепции. Будут описаны основные программные методы, которые используются для выбора оптимального способа исполнения алгоритма на устройстве из всех возможных. Также Вы узнаете о перспективах развития данной области.

Спикер — Александр Новак, разработчик из команды Neural Network Compilers, Intel, IOTG Russia.

14 апреля 19:00 – 20:30 — Оптимизация нейронных сетей

Регистрация: https://jsc-intel.timepad.ru/event/1446273

На вебинаре будут рассмотрены актуальные методы, позволяющие ускорить вычисление нейронных сетей. Особое внимание будет уделено методам квантизации нейросетей как наиболее эффективным с точки зрения критерия “точность – ускорение”. Вы узнаете, как сделать мир интеллектуального Интернета вещей еще умнее.

Спикер — Александр Козлов, инженер по глубокому обучению, Intel, IOTG Russia.

Регистрация на вебинары CV Academy обязательна и позволяет:

  • Узнать о новейших трендах в AI / Deep Learning от экспертов мирового уровня
  • Принять участие в живой Q&A сессии с ведущими разработчиками Intel
  • Получить эксклюзивный доступ к видеозаписям вебинаров

Все вебинары в рамках CV Academy, на которые открыта регистрация:

  • 17 марта — Применение компьютерного зрения в медицине
  • 24 марта — Компиляторы для нейронных сетей
  • 31 марта — OpenCV для встраиваемых платформ
  • 7 апреля — Введение в OpenCV G-API, современный API в области компьютерного зрения
  • 14 апреля — Оптимизация нейронных сетей
  • 21 апреля — Оптимизация производительности
  • 28 апреля — Concept-Based polymorphism в С++

Следующая версия автопилота Tesla будет ещё сильнее полагаться на данные камер

Илон Маск (Elon Musk) является противником использования так называемых лидаров в системах автоматического управления транспортом. Он верит в потенциал систем машинного зрения, которые позволяют автоматике ориентироваться даже в тех местах, которые не охвачены цифровыми картами. В дальнейшем будет ослабевать роль и радара, и ультразвуковых датчиков.

Источник изображения: Tech Times

Источник изображения: Tech Times

Распознавать препятствия и движущиеся объекты электромобили Tesla сейчас могут, используя как изображения с бортовых камер, так и информацию с набора ультразвуковых датчиков различного радиуса действия и фронтального радара. Если камеры способны распознавать дорожную обстановку на 50–250 метров, то радар охватывает пространство перед машиной на 160 метров, уверенно работая даже в сложных погодных условиях. Ультразвуковые датчики работают на дистанции не более 8 метров, они нужны для управления маневрированием на низких скоростях.

Как отмечает Electrek, в своём новом заявлении на страницах Twitter Илон Маск пояснил, что очередная бета-версия управляющей программы FSD для электромобилей Tesla выйдет в апреле, она позволит автоматизировать многие функции управления электромобилем исключительно за счёт использования камер и системы машинного зрения. Даже радар при этом не будет задействован, как уточнил глава Tesla. По его словам, данный шаг является важным этапом на пути внедрения системы искусственного интеллекта, способной работать в реальном мире.

Одновременно Илон Маск напомнил, что в программе бета-тестирования FSD теперь задействовано не менее двух тысяч автовладельцев, но из их рядов были исключены самые безответственные, которые не следили за дорожной обстановкой должным образом, находясь за рулём. Следить за поведением водителя компании Tesla позволяет обращённая в салон видеокамера. К счастью, как добавил глава Tesla, подобная халатность испытателей не привела к каким-либо дорожным происшествиям.

Робособакой Spot теперь можно управлять удалённо и она научилась заряжаться самостоятельно

Робот-собака Spot от Boston Dynamics стал намного более самодостаточным. Очень скоро компания представит новую версию робота Spot Enterprise и средства управления Scout на базе браузера с оптимизированным интерфейсом для управления Spot через интернет. Наконец, будет представлена универсальная роборука Spot Arm, возможности которой мы уже видели в ролике.

Презентация новых возможностей робособаки Spot пройдёт на YouTube-канале в 19:00 по московскому времени. Но журналисты уже раскрыли все подробности. Новые функции последовали за объявлением Boston Dynamics в июне прошлого года, что робот Spot Explorer станет доступен для любой компании, которая может позволить себе цену в $74 500. Добавленные возможности были в числе наиболее часто запрашиваемых первыми покупателями Spot (сегодня в мире насчитывается более 400 Spot).

«У клиентов во многих отраслях есть участки с важным оборудованием, которые работают почти без персонала, хотя иногда требуется несколько часов, чтобы отправить человека проверить или сделать что-то относительно простое, — отметил главный инженер Spot Зак Яковски (Zack Jackowski). — Наши клиенты хотели бы на таких объектах поставить роботов навсегда. В результате, человек, который будет следить за срабатыванием сигнализации или плановой проверкой, сможет просто запустить робота, чтобы тот встал, осмотрелся и сделал нехитрые манипуляции».

Приложение Scout является попыткой Boston Dynamics упростить дистанционное управление. На данный момент оно превращает Spot по сути в дорогую телекамеру. Компания отметила, что новая рука пока не работает с ПО удалённого управления, что делает Spot пригодным лишь для осмотра и фотографирования окружающей среды, а не для физического взаимодействия с ней. Но в планах — интегрировать в Scout поддержку манипулятора, чтобы робот смог управлять клапанами, тянуть рычаги, поворачивать ручки, открывать двери по команде оператора в сотнях или даже тысячах километрах от него.

Scout работает как с существующим роботом Spot Explorer, так и с новым Spot Enterprise. Последний получил ряд обновлений по сравнению с прошлой моделью, включая более мощный процессор, предназначенный для работы с более продвинутыми автономными алгоритмами в будущем и функцию автоматической зарядки. Современный Spot Explorer может работать порядка 90 минут автономно, а новый Spot Enterprise на удалённом объекте с зарядной станцией способен функционировать «бесконечно». Есть надежда, что благодаря зарядке и Scout компании смогут использовать Spot в качестве альтернативы отправке персонала на удалённые объекты.

Spot находит свою зарядную станцию ​​с помощью маркера в духе QR-кода — специальные точки камеры Spot могут идентифицировать и использовать для улучшенной навигации. Как только робот приблизится к зарядной станции он может автоматически сблизиться с зарядными разъёмами на подставке. Станция зарядки также включает проводное подключение к интернету, что позволяет быстрее и надёжнее загружать данные, собранные датчиками Spot во время прогулок.

Scout умеет работать через медленное подключение к интернету, потому что робот предназначен для развёртывания в удалённых местах вроде морских нефтяных платформ или подземных шахт. Для управления роботом достаточно полосы пропускания всего 2 мегабита/с (Netflix в настоящее время рекомендует 3 Мбит/с для потоковой передачи в формате SD). Это достигается за счёт выполнения большинства функций автономно. Система использует сервер Boston Dynamics, установленный в локальной сети, для обработки и сжатия данных перед их отправкой через интернет.

И раньше были возможности управлять Spot через интернет с помощью стороннего ПО. Но Scout — это первое оптимизированное программное обеспечение компании для браузеров. Журналист The Verge пробовал управлять роботом Spot Enterprise через такую систему с расстояния в 5000 км. Взаимодействие было достаточно медленным, но всё же робот был вполне управляем с помощью привычной раскладки WASD (контроллеры тоже поддерживаются). А можно просто указывать курсором точки, в которые робот идёт сам. Управление похоже на видеоигру с низким разрешением через медленную потоковую службу. Между нажатием кнопки и откликом наблюдаются заметные задержки, но за счёт встроенной в Spot технологии преодоления препятствий всё работало хорошо, в том числе при движениях по лестницам. Можно полностью передать управление роботу в случаях, когда он каждый раз патрулирует один и тот же маршрут. Оператор может заранее это запрограммировать, включая автоматическую зарядку между прогулками.

Роборука Spot Arm, которая прикрепляется к голове робота, может выполнять различные манипуляции. Функционально она похожа на то, что Boston Dynamics демонстрировала в предыдущих видеороликах, но манипулятор стал более надёжным и теперь готов к использованию в реальном мире. Захват роборуки оснащён камерой и различными датчиками для ориентации в пространстве и выполнения действий в автономно режиме. Манипулятор поддерживает существующие элементы управления Spot и предварительно запрограммирован на определённые действия вроде открытия дверей или поворачивания клапанов. Также разработчики предоставят пользователям API для самостоятельного программирования руки.

Spot Enterprise будет дороже существующего Spot с его ценой в $74 500. При этом роботизированная рука будет доступна владельцам существующих роботов Spot, если они готовы отправить свои устройства в Boston Dynamics для профессиональной установки.

Intel CV Academy — бесплатные вебинары  по компьютерному зрению, глубокому обучению и оптимизации

С февраля по апрель 2021 года Intel в России проводит второй сезон CV Academy — серию открытых вебинаров по компьютерному зрению, глубокому обучению и оптимизации производительности алгоритмов. Цель проекта — расширить знания разработчиков, уже имеющих опыт в данной области, а также помочь тем, кто имеет опыт разработки на С++/Python и базовые знания в области машинного и глубокого обучения, ближе познакомиться с указанными темами.

Вебинары CV Academy возобновляются с 10 февраля 2021 года. Планируется провести 12 вебинаров в течение февраля, марта и апреля. Темы: основные методы автоматического распознавания речи, синтез речи на основе нейронных сетей, обзор техник и моделей обработки естественного языка, применение компьютерного зрения в медицине, федеративное машинное обучение, компиляторы для нейронных сетей и т. д.

Для участия в вебинарах необходима регистрация на странице CV Academy на Timepad. Регистрация проводится отдельно на каждое мероприятие — можно выбрать наиболее интересные для себя темы. Вебинары будут проводиться еженедельно по средам, с 19:00 до 20:00. Подробное описание вебинаров, а также оперативная информация об изменениях в расписании доступны на той же странице.

Вебинары проводят эксперты мирового уровня — инженеры подразделения Intel IOTG Computer Vision в России. Слушатели CV Academy узнают о технологиях, работа над которыми ведется в Центрах исследований и разработок Intel в России, а также получат информацию о карьерных возможностях в сфере компьютерного зрения.

Intel в России ведет сейчас активный набор опытных разработчиков по направлениям, связанным с искусственным интеллектом, и одной из ключевых задач CV Academy является создание кадрового резерва специалистов в данной области. Непосредственным предшественником CV Academy был проект для студентов CV School, в котором приняло участие более 400 слушателей. А 30 участников проекта в итоге устроились на стажировку в компанию.

Первый сезон CV Academy состоялся в ноябре-декабре 2020 года. Среди тем были изучение набора инструментов OpenVINO Toolkit, обзор методов сопровождения объектов на видео, методики обработки звука в OpenCV, алгоритмы 3D-реконструкции в OpenCV в режиме реального времени, подготовка данных для тренировки нейронных сетей и так далее. Материалы прошедших вебинаров доступны на сайте Академической программы в Intel.

Видеосравнение: дрон Skydio 2 понимает окружение лучше, чем автопилот Tesla

Мы уже писали о претензиях некоторых водителей к «полноценному автопилоту» Tesla, который на дорогах порой ведёт себя довольно опасно. В Сети появилось любопытное видео, которое подтверждает недостатки текущей бета-версии ПО, но при этом одновременно показывает возможности продвинутого автопилота Tesla.

Владелец канала Brandon M (судя по видео, его действительно зовут Брендоном — так его называет сидящая рядом русская пассажирка) решил испытать на узких улочках полный автопилот Tesla Model 3 (бета-версия 2020.40.8.11). Одновременно он поставил на автоматическое слежение за электрокаром дрон Skydio 2 на платформе Tegra X2, который отличается весьма продвинутыми возможностями кругового машинного зрения: даже в лесу разбить его сложно благодаря системе избегания столкновений. Получилось весьма интересное видео:

Skydio 2 весьма ловко обходил все препятствия на этих узких улочках. Впечатляет возможность автоматики избегать не только веток деревьев, но даже телефонных проводов и линий электропередач. Иногда дрон отставал от машины, но затем быстро находил маршрут и нагонял Tesla Model 3.

Что касается автопилота Tesla, то в целом он тоже работал неплохо. Но всё же были опасные моменты: один раз электрокар опасно приблизился на повороте к припаркованному автомобилю, заставив водителя схватиться за руль и вручную выправить положение. В другой момент Tesla Model 3, проезжая у припаркованного авто, резко замедлилась, вызвав у водителя и пассажира нервные восклицания.

В то время как автоматика Tesla местами колебалась или, казалось, замедляла машину, чтобы обрабатывать сложное окружение, Skydio 2 летал уверенно. Конечно, Tesla должна производить гораздо больше вычислений, чем дрон. Автопилот должен идентифицировать пешеходов, определять дорожную разметку, знаки и прочее. Тем не менее, всё это должно помогать машине на дороге, а не пытаться задеть стоящий прямо перед нею красный седан. Да и ответственность у электрокара на порядок выше: ошибка на дороге часто стоит кому-то жизни. Так или иначе, но ИИ у Skydio 2 действительно впечатляет.

Brandon M описывает себя как любителя всего технологичного — особенно его интересуют продукты Apple и Tesla, возобновляемые источники энергии и тому подобное. На его канале можно увидеть и ряд других тестов предварительной версии полного автопилота Tesla. Например, он опубликовал большое видео, записанное в ночном Сакраменто. Водитель вмешивался в работу последней версии автопилота гораздо реже, чем прежде. Машина замедлялась на «лежачих полицейских», выбоинах, справлялась с довольно сложными ситуациями, когда другие автомобили, пешеходы и велосипедисты пересекали дорогу:

Apple задаёт моду на лидары для смартфонов. Подобный датчик разрабатывает и SK Hynix

Как известно, в смартфонах Apple iPhone 12 Pro появились лидары. На самом деле, это так называемые времяпролётные камеры (по-англ., Time of Flight или TOF). Ранее компании Samsung и LG пытались оснащать свои смартфоны камерами TOF, но не смогли заинтересовать потребителей этой технологией. Apple заинтересует, в этом можно не сомневаться. Из этого также следует, что рынок TOF ждёт взрывной рост, что должно привлечь заинтересованных производителей.

Источник изображения: SK Hynix

Источник изображения: SK Hynix

По сообщению южнокорейских источников, на открывшейся вчера в Сеуле выставке SEDEX 2020 (Semiconductor Exhibition) компания SK Hynix — новичок рынка датчиков изображений — продемонстрировала самостоятельно разработанный датчик TOF или времяпролётную камеру. Разработка не готова для массового производства, но подтверждает движение SK Hynix в сторону новых рынков — датчиков изображения в целом и решений для дополненной и виртуальной реальности, а также в сторону систем машинного зрения и работы с изображениями.

Несколько последних лет SK Hynix стремится снизить зависимость от рынка памяти DRAM и NAND. Часть производственных линий компания перенастроила на выпуск датчиков изображения. Сегодня ей принадлежит на этом рынке только 2 %, но в SK Hynix вынашивают планы стабильного расширения своей доли.

Новый рынок сбыта камер TOF для смартфонов также поможет компании в диверсификации полупроводникового производства. Но ещё сильнее спрос на камеры определения глубины породит машинное зрение, Интернет вещей, дополненная реальность и многое другое, связанное с оцифровкой реальности. Однажды шутка «сфотографировал на тапок» может стать суровой реальностью. Обувь недалёкого будущего вполне может обзавестись зрением для определения препятствий, например, при передвижении в темноте.

Российская система на базе компьютерного зрения позволит анализировать поток клиентов

Государственная корпорация Ростех сообщает о том, что компания NtechLab разработала новое решение на основе компьютерного зрения, которое позволит бизнес-структурам анализировать демографический состав клиентов.

NtechLab специализируется на искусственных нейронных сетях и средствах машинного обучения. Компания является разработчиком комплекса FindFace Security — платформы интеллектуальной видеоаналитики на базе распознавания лиц. Именно эта система и легла в основу нового программного решения.

Представленный продукт позволяет собирать общую анонимизированную информацию о количестве людей, находящихся перед камерой. Компании смогут анализировать пол, возраст, время посещения и локализованность клиентов по площадям. Эти сведения помогут сформировать реалистичный портрет клиента и объективно определить заполняемость помещений без идентификации каждого конкретного посетителя. Бизнес-структуры также смогут лучше изучить поток своих клиентов и проанализировать их предпочтения.

Кроме того, новое решение на базе компьютерного зрения позволяет контролировать соблюдение эпидемиологических требований — наличие медицинских масок, возникновение очередей и скоплений людей.

Представленный продукт, как ожидается, заинтересует самые разные компании и структуры из сфер развлечений, обслуживания, ретейла и пр. 

Amazon позволит оплачивать покупки взмахом руки: компания разработала технологию идентификации людей по ладони

Amazon представила собственную технологию распознавания ладони, которая первоначально будет использоваться для бесконтактной оплаты товаров в фирменных магазинах компании. Технология Amazon One считается перспективной: в компании уверены, что в будущем она выйдет за пределы розничной сети и будет использоваться для идентификации людей в офисных зданиях, на стадионах и т.д.

Для использования данной технологии сначала требуется создание электронного «отпечатка ладони», учитывающего особенности строения руки пользователя, узора линий, вен и др. Когда такой отпечаток создан и привязан к банковскому счёту, клиенту остаётся только поднести ладонь к специальному считывателю, чтобы пройти идентификацию и оплатить покупки. На начальном этапе технология Amazon One будет задействована в собственных магазинах компании в Сиэтле, но в ближайшие месяцы она распространится на всю торговую сеть.

«Мы считаем, что технология Amazon One имеет перспективы широкого применения за пределами наших розничных магазинов, поэтому мы также планируем предлагать её использование третьим сторонам, таким как торговые точки, стадионы и офисные центры», — сказал вице-президент по розничному бизнесу Amazon Дилип Кумар (Dilip Kumar).

Сильное присутствие Amazon на розничном рынке поможет компании сделать оплату покупок с помощью ладони реальностью. Amazon не подтвердила, будет ли технология предоставлена другим розничным сетям, но заявила, что в настоящее время «ведутся активные переговоры с несколькими потенциальными клиентами». Также было сказано, что Amazon предпочла использовать распознавание ладони, поскольку такой подход оказался более конфиденциальным по сравнению, например, с распознаванием лиц.

«Одна из причин заключалась в том, что распознавание ладони считается более конфиденциальным, чем некоторые биометрические альтернативы, потому что нельзя установить личность человека по его ладони. Кроме того, для использования технологии требуется сделать определённый жест, задержав ладонь над специальным устройством», — пояснил Дилип Кумар.

Для сканирования ладоней клиентов Amazon будет использовать оборудование с собственными алгоритмами на основе компьютерного зрения для захвата и шифрования изображений. Использование сервиса не потребует наличия учётной записи Amazon, от покупателя будет достаточно номера телефона и банковской карты. Пользователи также смогут удалить свои биометрические данные с портала компании, если вдруг решат прекратить использование сервиса.

Роботы-пылесосы iRobot станут намного умнее благодаря новому ПО с продвинутым искусственным интеллектом

iRobot представила крупнейшее обновление ПО для своих роботов-пылесосов с момента основания компании 30 лет назад: речь идёт о новой платформе на основе искусственного интеллекта, известную как iRobot Genius Home Intelligence. Или, как описывает это генеральный директор iRobot Колин Энгл (Colin Angle): «Это лоботомия и замена интеллектуальных систем во всех наших роботах».

Платформа является частью новой концепции компании по разработке продуктов. Поскольку роботы-пылесосы становятся товаром, доступным менее чем за $200 от многих компаний, iRobot хочет сделать свою продукцию гораздо привлекательнее на фоне конкурентов, чтобы продавать её дороже.

«Представьте, что к вам домой пришёл уборщик, и вы не можете с ним поговорить, — отметил господин Энгл. — Вы не можете сказать ему, когда приходить и где убираться. Вы бы очень расстроились! То же самое происходит с роботами. Такими были первые роботы-пылесосы. Вы нажали кнопку, и они сделали свою работу, хорошо это или плохо. Однако с помощью ИИ пользователи могут более точно определять, чего они хотят. Автономность не означает интеллектуальность — мы же хотим обеспечить эффективное взаимодействие пользователя с роботом».

Компания уже некоторое время идёт в этом направлении: в 2018 году, например, роботы получили поддержку картографирования. Система позволяет совместимым аппаратам Roomba создавать карту дома, на которой пользователи могут обозначать определенные комнаты и направлять робота для уборки по запросу. Обновление Home Intelligence, которое включает в себя переработанный дизайн приложения iRobot, сделает возможной ещё более точную уборку. iRobot утверждает, это именно то, чего хотят люди в то время, когда они находятся в помещении и хотят убрать мелкий беспорядок в той или иной части дома.

Совместимые Roombas не только будут отображать дом, но и смогут использовать машинное зрение и встроенные камеры для определения предметов мебели в доме, таких как диваны, столы и кухонные стойки. Когда робот регистрирует эти объекты, он будет предлагать пользователю добавить их на свою карту в качестве «чистых зон» — определённых областей дома, к которым можно будет направить Roomba на уборку через приложение или подключённого цифрового помощника вроде Alexa с помощью простого голосового помощника.

«Например, когда дети поели, идеальное время, чтобы отдать команду: "Уберись под обеденным столом", потому что под ним повсюду есть крошки, но всю кухню убирать не нужно», — отметила директор по продукции iRobot Кейт Хартсфилд (Keith Hartsfield).

Чтобы создать необходимые алгоритмы машинного зрения, iRobot собрала десятки тысяч изображений из домов сотрудников, чтобы узнать, как выглядит мебель с видом от пола. «Когда наш робот собирал эти данные, на нём была ярко-зелёная наклейка, чтобы пользователи не забыли и не стали бродить по дому в исподнем», — отметил господин Энгл. По его словам, парк роботов его компании по сбору данных уступал вероятно, только Tesla.

В дополнение к «чистым зонам» обновлённые Roomba также определяют «запретные зоны». Если робот продолжает застревать среди кабелей, например, под подставкой для телевизора, он предложит пользователям пометить место как зону, которую следует избегать в будущем. Всё это можно настроить в приложении и вручную.

Возможна также автоматизация на основе событий. Если пользователь хочет, чтобы Roomba быстро пылесосил, когда он выходит из дома, можно подключить приложение к интеллектуальному замку или службе определения местоположения вроде Life360. Пылесос автоматически будет знать, когда следует начать уборку. Другие новые функции включают настраиваемые предустановленные процедуры очистки, рекомендуемые графики уборки, основанные на привычках пользователя, сезонные графики уборки: например, более частая уборка пылесосом, когда животное линяет, или во время сезона аллергии.

Однако эти функции не будут доступны на всех Roomba. Только Roomba i7, i7 +, s9 и s9 +, а также robomop Braava jet m6 смогут настраивать определенные зоны и предлагать новые графики уборки. Другие функции, такие как автоматизация на основе событий и избранные процедуры очистки, будут доступны для всех других Roomba, подключённых к Wi-Fi.

Компания стремится убедить клиентов в том, что собираемые данные являются конфиденциальными. Любые изображения, снятые пылесосом iRobot, никогда не покидают устройство и даже не сохраняются более нескольких секунд. Вместо этого они превращаются в абстрактные карты. Компания шифрует программное обеспечение робота, что затрудняет его взлом, но производитель утверждает, что даже если злоумышленник взломает устройство клиента, он не найдёт на нём ничего интересного.

iRobot обещает, что всё это — лишь начало развития функций искусственного интеллекта пылесосов Roomba. Это и воодушевляет, и несколько пугает — особенно, если в будущем роботы начнут претендовать на главенство в наших домах.

ИИ научили понимать связь между кожей и мозгом человека

Современные системы распознавания жестов на производстве и в быту вполне рабочие, но имеют ряд ограничений. Например, носимые датчики могут быть плохо закреплены или попадать в слепую зону для следящих устройств. Обойти эти ограничения может помочь ИИ в сочетании с «электронной» кожей, в чём поможет машинная имитация связи между мозгом и кожей живого человека.

Как сообщают источники, ученые из Технологического университета Наньян в Сингапуре (NTU Singapore) разработали систему искусственного интеллекта, которая распознает жесты рук, сочетая компьютерное зрение и напоминающую кожу электронику.

Для этого на руке закрепляются эластичные датчики деформации, состоящие из тончайшего слоя углеродных нанотрубок. В процессе работы (жестикуляции) на показания этих датчиков накладываются визуальные данные. Одновременно все показания обрабатываются специальным алгоритмом ИИ, что должно напоминать способ, с помощью которого органы чувств кожи и зрения обрабатываются вместе в мозгу. На основании сделанных выводов даже при недостатке входящих данных ИИ с высокой степенью точности распознаёт жесты.

Данное исследование учёных преследует цель наделить мир людей улучшенной и более широкой машинной поддержкой. Это могут быть и экзоскелеты для пожилых людей, и производство, и развлечения.

Без касс и продавцов: в России заработал первый магазин с компьютерным зрением

Сбербанк, розничная сеть «Азбука Вкуса» и международная платёжная система Visa открыли первый в России магазин, в котором нет ни продавцов, ни касс самообслуживания. За продажу товаров отвечает интеллектуальная система на базе компьютерного зрения.

Чтобы воспользоваться новым сервисом, покупателю необходимо скачать мобильное приложение Take&Go от Сбербанка и зарегистрироваться в нём, привязав к своему аккаунту банковскую карту для оплаты покупок. Кроме того, необходимо указать адрес электронной почты — на него будут приходить чеки.

Для совершения покупок в необычном магазине достаточно на входе в зону Take&Go отсканировать QR-код из мобильного приложения, взять с полок нужные товары и просто выйти: деньги с карты будут списаны автоматически.

После считывания QR-кода в дело вступает «умная» система наблюдения, которая непрерывно отслеживает количество и ассортимент товаров на полках, чтобы безошибочно собрать в виртуальную корзину продукты, которые выбрал покупатель. Если посетитель взял товар, а затем передумал и вернул его на полку, соответствующая позиция будет сразу же удалена из виртуальной корзины.

Как только клиент выходит из магазина, мобильное приложение Take&Go Сбербанка автоматически осуществляет списание. После прохождения оплаты покупатель получает push-уведомление на телефон и чек по электронной почте.

Сейчас система тестируется в закрытом режиме на ограниченном количестве клиентов в магазине «Азбука Вкуса» в деловом центре «Москва-Сити» (башня «Федерация», Пресненская набережная, 12). В течение месяца, как ожидается, сервис станет доступен всем желающим. 

Facebook научил свой ИИ распознавать товары на фотографиях в соцсети, чтобы вы могли их купить

Компания Facebook сегодня запустила «универсальную модель распознавания продуктов», которая использует искусственный интеллект (ИИ) для идентификации широкого спектра потребительских товаров: от мебели и одежды до дорогих автомобилей. Это первый шаг к будущему, когда предметы на каждом изображении на сайте соцсети можно будет сначала идентифицировать, а потом купить.

«Мы хотим, чтобы всё и вся на нашей платформе было доступно для покупки, когда этого захочется» — сказал Манохар Палури (Manohar Paluri), руководитель отдела прикладного компьютерного зрения в Facebook. Возможность распознавания товаров — первое новшество на базе ИИ в серии обновлений для платформы электронной коммерции Facebook в ближайшем будущем. В конечном итоге в соцсети объединятся искусственный интеллект, дополненная реальность и даже цифровые помощники, что можно будет выразить термином «социальный» шопинг. Facebook и Instagram также запустили сегодня платформу под названием Shops, которая позволяет малому бизнесу создавать бесплатные витрины для своих магазинов в Facebook и Instagram.

Facebook не стала первой на поприще интернет-торговли с задействованием средств ИИ. Например, Amazon уже создала своего собственного помощника на базе ИИ области одежды/моды, правда теперь о нем мало что слышно. А использование машинного зрения для идентификации и покупки товаров стало реальностью ещё, по крайней мере, со времен Amazon Fire Phone. Тем не менее, онлайн-торговые платформы, такие как eBay, уже используют искусственный интеллект для ускорения работы листинга товаров на продажу, а Amazon — одна из многих фирм, которая запустила свой собственный «Shazam для одежды» с применением технологии машинного обучения.

Компания Facebook заверяет, что её собственные инструменты отличаются от разработок конкурентов своим охватом и точностью. Новый инструмент распознавания товаров, который называется GrokNet, может идентифицировать десятки тысяч различных атрибутов на изображении: начиная от цвета и размера предметов, и заканчивая определением конкретных брендов.

ИИ GrokNet уже был развернут на Facebook Marketplace, где он помогает пользователям быстро определять товары для продажи, и генерирует короткие описания. Например, можно загрузить в соцсеть фотографию своего дивана, и онлайн-платформа предложит назвать его для продажи как «черный, кожаный, секционный диван».

В разработке этих инструментов компании Facebook, конечно, помогает прямой доступ к фотографиям пользователей на Marketplace. GrokNet обучается на колоссальной базе данных порядка 100 миллионов изображений. Facebook говорит, что эти данные жизненно важны для создания системы машинного зрения, которая сможет идентифицировать товары на фотографиях при плохом освещении и с сомнительных ракурсов.

Достоверно не известно, насколько точно работает GrokNet. Компания заверяет, что ИИ может идентифицировать 90 процентов изображений в Marketplace, в категории «Дом и сад». Однако Facebook не разглашает аналогичной статистики для других категорий продуктов.

Платформа NVIDIA Isaac Sim 2020.1 ускорит разработку и симуляцию роботов

Во время заочного доклада #GTC20 исполнительный директор и основатель NVIDIA Дженсен Хуанг (Jensen Huang) продемонстрировал первую в отрасли платформу для разработки искусственного интеллекта роботов с симуляцией, навигацией и манипуляциями.

На представленном видео показано, как модель робота NVIDIA Kaya толкает жёсткие тела и мягкие пляжные мячи, модель манипулятора управляется с корзинами, лотками и другими предметами и наконец логистический робот #robot занимается транспортировкой поддона с грузом, учитывая внешние препятствия и движения аналогичных роботов. Симуляции автоматизированных действий, произведённые в Isaac SIM 2020.1, затем с тем же успехом выполняются в реальных условиях.

Графические процессоры ускоряют машинное обучение, восприятие и планирование с использованием глубинных нейронных сетей. Моделирование процессов позволяет ускорить разработку, обучение и тестирование алгоритмов роботов.

Isaac SDK включает каркас приложений Isaac Engine, пакеты с высокопроизводительными робототехническими алгоритмами Isaac GEM, эталонные приложения Isaac Apps и мощную платформу моделирования Isaac Sim for Navigation. Эти инструменты и интерфейсы API ускоряют разработку роботов, упрощая внедрение искусственного интеллекта для восприятия пространства и навигации.

Набор инструментов разработчиков оптимизирован для систем NVIDIA Jetson AGX Xavier, представленных в декабре 2018 года и обеспечивающих хорошее сочетание производительности и энергоэффективности автономных машин. JetPack SDK включает в себя NVIDIA CUDA, DeepStream SDK, библиотеки для глубинного обучения, компьютерного зрения, ускоренных вычислений и мультимедиа.

Isaac SDK использует рабочие процессы машинного обучения и непрерывного тестирования при исполнении Isaac Sim на системах NVIDIA DGX, разработанных под требования ИИ и аналитики. Эти полностью интегрированные решения предназначены, чтобы предоставить учёным, работающим с данными, самые мощные инструменты для ИИ и машинного обучения.

Набор инструментов разработчиков и платформа Isaac SIM 2020.1 станут доступны позже в этом месяце.

Одноплатный компьютер Boardcon EM1808 подходит для обработки ИИ-задач

В ближайшее время начнутся продажи одноплатного компьютера Boardcon EM1808, на базе которого разработчики смогут реализовывать различные проекты в области искусственного интеллекта (ИИ) и машинного зрения.

Решение состоит из базовой платы и вычислительного CPU-модуля. Применён процессор Rockchip RK1808 с двумя ядрами Cortex-A35 (до 1,6 ГГц) и нейронным блоком, обеспечивающим производительность до 3,0 TOPS (триллионов операций в секунду).

Оснащение включает 2 Гбайт оперативной памяти LPDDR3, флеш-модуль eMMC на 8 Гбайт и слот для карты microSD. Есть возможность подключения твердотельного накопителя M.2 NVMe SSD.

Предусмотрены сетевой контроллер Gigabit Ethernet на базе Realtek RTL8211E, адаптеры беспроводной связи Wi-Fi 4 (802.11b/g/n) и Bluetooth 4.0. Опционально могут быть установлены модуль 4G/LTE и приёмник спутниковой навигационной системы GPS.

Есть порты USB 2.0 и USB3.0, набор 3,5-миллиметровых аудиоразъёмов, гнездо RJ45 для сетевого кабеля. Говорится о поддержке интерфейсов MIPI CSI & DSI, I2S, UART и др.

Базовая плата имеет размеры 131 × 91 мм, вычислительный модуль — 55 × 35 мм. Говорится о совместимости с операционными системами на ядре Linux. О цене сведений пока нет. 

window-new
Soft
Hard
Тренды 🔥