Теги → зрение
Быстрый переход

Без касс и продавцов: в России заработал первый магазин с компьютерным зрением

Сбербанк, розничная сеть «Азбука Вкуса» и международная платёжная система Visa открыли первый в России магазин, в котором нет ни продавцов, ни касс самообслуживания. За продажу товаров отвечает интеллектуальная система на базе компьютерного зрения.

Чтобы воспользоваться новым сервисом, покупателю необходимо скачать мобильное приложение Take&Go от Сбербанка и зарегистрироваться в нём, привязав к своему аккаунту банковскую карту для оплаты покупок. Кроме того, необходимо указать адрес электронной почты — на него будут приходить чеки.

Для совершения покупок в необычном магазине достаточно на входе в зону Take&Go отсканировать QR-код из мобильного приложения, взять с полок нужные товары и просто выйти: деньги с карты будут списаны автоматически.

После считывания QR-кода в дело вступает «умная» система наблюдения, которая непрерывно отслеживает количество и ассортимент товаров на полках, чтобы безошибочно собрать в виртуальную корзину продукты, которые выбрал покупатель. Если посетитель взял товар, а затем передумал и вернул его на полку, соответствующая позиция будет сразу же удалена из виртуальной корзины.

Как только клиент выходит из магазина, мобильное приложение Take&Go Сбербанка автоматически осуществляет списание. После прохождения оплаты покупатель получает push-уведомление на телефон и чек по электронной почте.

Сейчас система тестируется в закрытом режиме на ограниченном количестве клиентов в магазине «Азбука Вкуса» в деловом центре «Москва-Сити» (башня «Федерация», Пресненская набережная, 12). В течение месяца, как ожидается, сервис станет доступен всем желающим. 

Facebook научил свой ИИ распознавать товары на фотографиях в соцсети, чтобы вы могли их купить

Компания Facebook сегодня запустила «универсальную модель распознавания продуктов», которая использует искусственный интеллект (ИИ) для идентификации широкого спектра потребительских товаров: от мебели и одежды до дорогих автомобилей. Это первый шаг к будущему, когда предметы на каждом изображении на сайте соцсети можно будет сначала идентифицировать, а потом купить.

«Мы хотим, чтобы всё и вся на нашей платформе было доступно для покупки, когда этого захочется» — сказал Манохар Палури (Manohar Paluri), руководитель отдела прикладного компьютерного зрения в Facebook. Возможность распознавания товаров — первое новшество на базе ИИ в серии обновлений для платформы электронной коммерции Facebook в ближайшем будущем. В конечном итоге в соцсети объединятся искусственный интеллект, дополненная реальность и даже цифровые помощники, что можно будет выразить термином «социальный» шопинг. Facebook и Instagram также запустили сегодня платформу под названием Shops, которая позволяет малому бизнесу создавать бесплатные витрины для своих магазинов в Facebook и Instagram.

Facebook не стала первой на поприще интернет-торговли с задействованием средств ИИ. Например, Amazon уже создала своего собственного помощника на базе ИИ области одежды/моды, правда теперь о нем мало что слышно. А использование машинного зрения для идентификации и покупки товаров стало реальностью ещё, по крайней мере, со времен Amazon Fire Phone. Тем не менее, онлайн-торговые платформы, такие как eBay, уже используют искусственный интеллект для ускорения работы листинга товаров на продажу, а Amazon — одна из многих фирм, которая запустила свой собственный «Shazam для одежды» с применением технологии машинного обучения.

Компания Facebook заверяет, что её собственные инструменты отличаются от разработок конкурентов своим охватом и точностью. Новый инструмент распознавания товаров, который называется GrokNet, может идентифицировать десятки тысяч различных атрибутов на изображении: начиная от цвета и размера предметов, и заканчивая определением конкретных брендов.

ИИ GrokNet уже был развернут на Facebook Marketplace, где он помогает пользователям быстро определять товары для продажи, и генерирует короткие описания. Например, можно загрузить в соцсеть фотографию своего дивана, и онлайн-платформа предложит назвать его для продажи как «черный, кожаный, секционный диван».

В разработке этих инструментов компании Facebook, конечно, помогает прямой доступ к фотографиям пользователей на Marketplace. GrokNet обучается на колоссальной базе данных порядка 100 миллионов изображений. Facebook говорит, что эти данные жизненно важны для создания системы машинного зрения, которая сможет идентифицировать товары на фотографиях при плохом освещении и с сомнительных ракурсов.

Достоверно не известно, насколько точно работает GrokNet. Компания заверяет, что ИИ может идентифицировать 90 процентов изображений в Marketplace, в категории «Дом и сад». Однако Facebook не разглашает аналогичной статистики для других категорий продуктов.

Платформа NVIDIA Isaac Sim 2020.1 ускорит разработку и симуляцию роботов

Во время заочного доклада #GTC20 исполнительный директор и основатель NVIDIA Дженсен Хуанг (Jensen Huang) продемонстрировал первую в отрасли платформу для разработки искусственного интеллекта роботов с симуляцией, навигацией и манипуляциями.

На представленном видео показано, как модель робота NVIDIA Kaya толкает жёсткие тела и мягкие пляжные мячи, модель манипулятора управляется с корзинами, лотками и другими предметами и наконец логистический робот #robot занимается транспортировкой поддона с грузом, учитывая внешние препятствия и движения аналогичных роботов. Симуляции автоматизированных действий, произведённые в Isaac SIM 2020.1, затем с тем же успехом выполняются в реальных условиях.

Графические процессоры ускоряют машинное обучение, восприятие и планирование с использованием глубинных нейронных сетей. Моделирование процессов позволяет ускорить разработку, обучение и тестирование алгоритмов роботов.

Isaac SDK включает каркас приложений Isaac Engine, пакеты с высокопроизводительными робототехническими алгоритмами Isaac GEM, эталонные приложения Isaac Apps и мощную платформу моделирования Isaac Sim for Navigation. Эти инструменты и интерфейсы API ускоряют разработку роботов, упрощая внедрение искусственного интеллекта для восприятия пространства и навигации.

Набор инструментов разработчиков оптимизирован для систем NVIDIA Jetson AGX Xavier, представленных в декабре 2018 года и обеспечивающих хорошее сочетание производительности и энергоэффективности автономных машин. JetPack SDK включает в себя NVIDIA CUDA, DeepStream SDK, библиотеки для глубинного обучения, компьютерного зрения, ускоренных вычислений и мультимедиа.

Isaac SDK использует рабочие процессы машинного обучения и непрерывного тестирования при исполнении Isaac Sim на системах NVIDIA DGX, разработанных под требования ИИ и аналитики. Эти полностью интегрированные решения предназначены, чтобы предоставить учёным, работающим с данными, самые мощные инструменты для ИИ и машинного обучения.

Набор инструментов разработчиков и платформа Isaac SIM 2020.1 станут доступны позже в этом месяце.

Одноплатный компьютер Boardcon EM1808 подходит для обработки ИИ-задач

В ближайшее время начнутся продажи одноплатного компьютера Boardcon EM1808, на базе которого разработчики смогут реализовывать различные проекты в области искусственного интеллекта (ИИ) и машинного зрения.

Решение состоит из базовой платы и вычислительного CPU-модуля. Применён процессор Rockchip RK1808 с двумя ядрами Cortex-A35 (до 1,6 ГГц) и нейронным блоком, обеспечивающим производительность до 3,0 TOPS (триллионов операций в секунду).

Оснащение включает 2 Гбайт оперативной памяти LPDDR3, флеш-модуль eMMC на 8 Гбайт и слот для карты microSD. Есть возможность подключения твердотельного накопителя M.2 NVMe SSD.

Предусмотрены сетевой контроллер Gigabit Ethernet на базе Realtek RTL8211E, адаптеры беспроводной связи Wi-Fi 4 (802.11b/g/n) и Bluetooth 4.0. Опционально могут быть установлены модуль 4G/LTE и приёмник спутниковой навигационной системы GPS.

Есть порты USB 2.0 и USB3.0, набор 3,5-миллиметровых аудиоразъёмов, гнездо RJ45 для сетевого кабеля. Говорится о поддержке интерфейсов MIPI CSI & DSI, I2S, UART и др.

Базовая плата имеет размеры 131 × 91 мм, вычислительный модуль — 55 × 35 мм. Говорится о совместимости с операционными системами на ядре Linux. О цене сведений пока нет. 

Google представила клавиатуру Брайля TalkBack для Android-устройств

Благодаря специальным современным брайлевским дисплеям — устройствам вывода, предназначенным для отображения текстовой информации в виде шеститочечных символов азбуки Брайля — незрячие или плохо видящие люди могут пользоваться большинством смартфонов и компьютеров. Однако каждый раз подключать специальное устройство для того, чтобы что-то напечатать, не всегда удобно.

Компания Google представила цифровую клавиатуру Брайля TalkBack, интегрированную прямо в операционную систему Android. Она не требует наличия специального оборудования и позволяет с комфортом пользоваться социальными сетями, мессенджерами, текстовыми редакторами и почтовыми клиентами, озвучивая при этом все действия с устройством.

О разработке компания сообщила в своём официальном блоге. Там же она поделилась инструкциями, в которых подробно описывает, в том числе на русском языке, как можно включить и использовать цифровую клавиатуру Брайля TalkBack.

Отмечается, что TalkBack поддерживает работу с жестами, позволяет быстро печать и удалять буквы и слова, добавлять строки и отправлять текстовые сообщения. Кроме того, программа сообщает об уведомлениях и других событиях.

Клавиатура может работать с языком Брайля уровней Grade1 и Grade2, но в настоящее время поддерживается только объединённый английский шрифт Брайля.

TalkBack доступна на устройствах, работающих на базе Android версии 5.0 и выше.

Видео: автопилот Tesla скоро сможет реагировать на светофоры

В ноябре прошлого года Tesla добавила функцию, которая позволяла автопилоту обнаруживать дорожные конусы, что улучшило возможности машины ориентироваться при движении по улицам. Теперь, похоже, компания работает над ещё одной функцией по улучшению автопилота своих автомобилей.

Новая функция позволит автомобилям Tesla считывать сигналы светофора и предпринимать соответствующие действия. Согласно видео, опубликованному в Твиттере, автопилот Tesla может заметить светофор с расстояния около 150 метров и даже на короткое время выводит подсказку. При обнаружении светофора на экране появляется всплывающее окно с сообщением о том, что машина остановилась в рамках регулировки уличного движения.

Непонятно, может ли автопилот видеть светофоры дальше, но 150 метров кажется разумным расстоянием, чтобы безопасно замедлить движение перед светофором. Пока не ясно, когда будет доступна новая функция, но одно можно сказать: наверняка она будет развёрнута через обновления для существующих автомобилей Tesla.

eBay позволяет продавцам удалять фон на изображениях с товаром

Пресс-служба торговой площадки eBay объявила о запуске новой функции, основанной на технологии компьютерного зрения. С её помощью продавцы смогут убирать фон с изображений товаров, благодаря чему покупателям будет проще находить что-либо. Новая технология не только сделает более эффективной функцию поиска по картинке, но также упростит SEO-оптимизацию.

Большое количество продавцов, использующих eBay, выкладывают изображения своих товаров, сделанные самостоятельно. Далеко не каждый из них тратит время на редактирование снимков или нанимает профессионала, чтобы придать изображениям более привлекательный вид. Это приводит к тому, что зачастую публикуются снимки, на которых присутствует большое количество лишних предметов. Из-за этого потенциальным покупателям становится сложнее искать интересующие их товары.

Исправить это поможет новая функция eBay, позволяющая автоматически заменить оригинальный фон изображения на белый. Для использования данного инструмента нужно зайти в раздел размещения товара с мобильного устройства. Далее следует сделать снимок товара или же загрузить заранее подготовленное изображение. После этого останется нажать кнопку «Удалить фон» и опубликовать снимок.

Задействованный алгоритм компьютерного зрения использует процессор пользовательского устройства для разделения переднего и заднего фонов на обрабатываемом снимке. За счёт этого удаётся убирать оригинальный фон, заменяя его белым. Стоит отметить, что качество обработки зависит от того, насколько однороден оригинальный фон на обрабатываемых снимках. Соответственно, чем меньше посторонних объектов на изображении, тем более качественно алгоритм встроит белый фон. Если пользователь останется недоволен результатом работы алгоритма, то он сможет самостоятельно отредактировать изображение, используя для этого набор встроенных инструментов.    

На данный момент функция замены фона уже доступна для пользователей eBay из России, которые используют для взаимодействия с площадкой устройства под управлением Android и iOS.

ИИ-решение Intel поможет в подсчёте пингвинов в Антарктиде

Группа технологических компаний во главе с Intel разработала решение для компьютерного зрения, которое позволит экологам быстрее и точнее подсчитывать популяцию императорских пингвинов в Антарктиде, находящуюся под угрозой вымирания к концу столетия.

К печальному выводу о вымирании пингвинов пришла Британская антарктическая служба в результате исследования, проведенного в 2019 году. Это связано с климатическими изменениями, повлёкшими за собой серьёзные проблемы с воспроизводством у императорских пингвинов.

В разработке технологии компьютерного зрения, позволяющей различать пингвинов, участвовала AI Builders — курируемая Intel экосистема поставщиков программного обеспечения, наряду с инициативой AI for Earth компании Microsoft, а также с Gramener, консалтинговой компанией в области науки о данных. Для этого был проведен анализ фотографий колоний пингвинов Антарктиды, сделанных в рамках проекта «Наблюдение за пингвинами» Оксфордского университета. Речь идёт о миллионах фото, полученных в течение последнего десятилетия в более чем 40 местах.

Лидар вашему дому: Intel представила камеру RealSense L515

Компания Intel сообщила о готовности продавать лидарную камеру для использования в помещениях ― модель RealSense L515. Цена вопроса составляет $349. Приём предварительных заявок открыт. По словам компании, это самое компактное и экономичное в мире решение для компьютерного зрения. Камера Intel RealSense L515 перевернёт рынок решений для восприятия мира в 3D и создаст устройства ранее недоступные для этой технологии.

Высокое разрешение и встроенный в камеру процессор по предварительной обработке данных, что, например, позволит бороться с размытостью при движении камеры или объектов съёмки, даёт возможность использовать камеру не только как стационарное решение, но также с роботизированной или другой умной техникой в виде навесного оборудования.

Также камера RealSense L515 обещает найти применение в логистике. Что важно, лидар сохраняет высокое разрешение без необходимости калибровки в течение всего срока службы. Устройство поможет с оценкой запасов продукции с точностью до миллиметра. Другие потенциальные ниши для RealSense L515 ― это здравоохранение и розничная торговля.

Лидар Intel RealSense L515 использует в своей основе микроэлектромеханическое зеркало в сочетании с лазером. Это дало возможность снизить мощность лазерного импульса для сканирования глубины сцены без ущерба для скорости и разрешения. Лидар считывает пространство с разрешением 1024 × 768 при 30 кадрах в секунду ― это 23 миллиона точечных пикселей в глубину. При этом он потребляет всего 3,5 Вт, что делает его терпимым к батарейному питанию.

Глубина сканирования пространства в высоком разрешении начинается с 25 см и заканчивается 9 метрами. Точность определения глубины сцены не хуже одного миллиметра. Вес лидара RealSense L515 составляет 100 граммов. Его диаметр ― 61 мм, а толщина ― 26 мм. Устройство оснащено гироскопом, акселерометром и RGB-камерой с разрешением 1920 × 1080 пикселей. Для разработки ПО используется всё тот же Intel RealSense SDK 2.0 с открытым исходным кодом, что и для всех предыдущих устройств Intel RealSense.

Совместная лаборатория «Яндекса» и МФТИ займётся машинным обучением

«Яндекс» и Московский физико-технический институт (МФТИ) представили совместный проект по формированию новой исследовательской лаборатории.

Соглашение о создании структуры заключено между российским IT-гигантом и Физтех-школой прикладной математики и информатики МФТИ. Лаборатория будет заниматься исследованиями в области компьютерных наук.

В числе приоритетных направлений, в частности, названы технологии машинного обучения и компьютерного зрения, информационный поиск, рекомендательные системы, обработка естественного языка и машинный перевод.

В лабораторию смогут попасть студенты и аспиранты Физтеха и других вузов. Конкурсный отбор предусматривает выполнение нескольких тестовых заданий и собеседование. Важно отметить, что специалисты лаборатории будут получать зарплату, а поэтому смогут посвятить всё своё время реализации исследовательских проектов.

Результаты работ, как ожидается, будут освещаться на ведущих мировых научных конференциях, таких как ICML, NeurIPS и ACL. Руководить научной работой будут специалисты исследовательского подразделения «Яндекса» во главе с выпускником МФТИ Артёмом Бабенко.

«Мы очень рады тому, что открывается не просто очередная лаборатория, а лаборатория, которая будет развивать технологии не сегодняшнего, а завтрашнего дня в области машинного обучения», — заявляет руководство МФТИ. 

Intel готовит улучшенный ускоритель для задач компьютерного зрения: встречаем проект Keem Bay

На саммите AI Summit 2019 компания Intel представила третье поколение процессоров для реализации компьютерного зрения (VPU), получившее кодовое имя «Keem Bay». Новинка начнёт распространяться в первой половине нового года в виде чипов для встраиваемого применения, в формфакторе M.2 и в виде PCIe-адаптеров в многопроцессорных конфигурациях.

Раньше подобные чипы под именем Myriad X компания предлагала в виде USB-заглушек и встроенные в веб-камеры. Платформа позволяла на месте силами VPU распознавать образы и ускорять процессы с машинным обучением. Фактически это решение для пограничных вычислений. Оно будет конкурировать как с массой похожих разработок силами стартапов, так и с такими решениями, как NVIDIA Xavier (продукты Jetson TX2) и Huawei Hisilicon Ascend 310. И, что самое главное, обещает превзойти конкурентов по тем или иным характеристикам и даже по совокупности качеств.

Пока компания Intel скупо делится информацией о SoC или платформе Keem Bay. Заявлено, что объём бортовой памяти станет больше, а шина доступа к памяти будет расширена. Это и другие улучшения позволяют VPU Keem Bay десятикратно превзойти по производительности собственные продукты Myriad X последнего поколения (второго, если мы ничего не упустили).

По сравнению с конкурирующими продуктами, если верить внутреннему и не совсем прозрачному сравнению Intel, VPU Keem Bay оказывается в 4 раза производительнее SoC NVIDIA Xavier и на 25 % быстрее чипа Ascend 310 компании Huawei. В случае достижения одинаковой производительности с NVIDIA Xavier решение Intel VPU Keem Bay потребляет всего 1/5 от потребления конкурента. При этом Intel не раскрыла техпроцесс, площадь и потребление нового чипа. Данные получены на бенчмарке для модели ResNet-50 с использованием Int8, хотя для NVIDIA Xavier используются данные для вычислений с точностью FP16.

Остаётся ждать более подробной информации о новой разработке Intel. В чём можно не сомневаться, она действительно будет мощнее и более экономичнее, чем предыдущее поколение продуктов. В чём также можно не сомневаться, что мир становится всё более и более прозрачным. Вещи обретают зрение и память, которая ничего не забывает. Рано или поздно это перевернёт мир. Но это уже другая история.

Пауки помогли изобрести простой датчик глубины

Датчики измерения глубины становятся популярным решением. В том или ином виде они используются в системах компьютерного зрения, например, в смартфонах Apple для снятия блокировки с распознаванием лица пользователя или в виде TOF-камер в самоуправляемых автомобилях, в гарнитурах виртуальной и дополненной реальности и много где ещё. Одна беда, все эти решения требуют относительно больших вычислительных мощностей для обработки данных, поскольку все они используют принцип расчёта задержек между отправкой сканирующего луча к объекту и обратно в виде отражения.

Паук-прыгун для оценки расстояния использует расфокусированное зрение (Qi Guo and Zhujun Shi/Harvard University)

Паук-прыгун для оценки расстояния использует расфокусированное зрение (Qi Guo and Zhujun Shi/Harvard University)

Несколько иной подход для оценки расстояния до объекта использует человеческий мозг и мозг животных ― это стереоскопическое зрение. Этот вариант тоже требует значительных вычислительных мощностей для анализа изображений с каждого глаза. Но в природе есть мозги настолько маленькие, что в них нет ресурсов для подобного анализа. Например, у пауков-прыгунов. А ведь эти пауки совершают внушительные для их размеров тела и предельно точные прыжки на жертву. Как же они оценивают расстояние до объекта нападения и можно ли взять этот метод на вооружение?

Исследователи Гарвардской школы инженерных и прикладных наук им. Джона А. Полсона (SEAS) изучили строение глаз пауков-прыгунов и воплотили полученный результат в простой и компактный датчик глубины. Природа и эволюция создала главные глаза этих насекомых в виде многослойной сетчатки. На каждый из слоёв изображение проецируется с разной степенью размытости в зависимости от расстояния до объекта. По тому, на каком из слоёв наиболее чёткое изображение, паук и понимает насколько далеко от него находится цель. 

Учёные не стали слепо повторять за природой и создали горизонтальный массив линз (металинзы) с проекцией на один датчик изображений. На  датчике формируются изображения с разной степенью размытости. Да, определённый алгоритм для обработки картинок необходим, но он более простой, чем для ToF-камер. К тому же, система проекции представляется максимально упрощённой и недорогой, что ещё больше добавит популярности этой технологии, когда она будет доведена до стадии коммерческого производства. Подобные датчики обещают найти применение в массе областей, где необходимо оценивать дальность до объектов ― от повседневной жизни до робототехники и астрономии.

Tesla сделала поглощение, которое поможет ей развивать машинное зрение

На первых этапах электромобили Tesla в своей способности заменять водителя в определённых ситуациях полагались на компоненты компании Mobileye, которая позже стала частью корпорации Intel. Разрыву отношений Tesla и Mobileye способствовала одна из первых аварий со смертельным исходом, которая заставила задуматься о безопасности систем активной помощи водителю, применяемых американским производителем в то время. После «развода» с Mobileye компания Tesla обратила внимание на компоненты NVIDIA, но в апреле текущего года продемонстрировала всему миру характеристики процессора собственной разработки, который должен лечь в основу платформы третьего поколения, устанавливаемой на все серийные электромобили марки с весны этого года.

Источник изображения: Forge3

Источник изображения: Forge3

NVIDIA тогда попыталась сделать вид, что обиделась, и начала напоминать о быстродействии собственной платформы DRIVE PX в актуальном поколении, говоря о её превосходстве над решением Tesla. Однако теперь уже очевидно, что американский производитель электромобилей намерен двигаться собственным путём при создании компонентов, необходимых для полной автоматизации процесса управления транспортными средствами. Как сообщает CNBC, на работу в Tesla недавно перешёл основатель компании DeepScale, которая специализировалась на разработке высокоточных систем машинного зрения с использованием процессоров с низким уровнем энергопотребления. Источник также подтверждает, что Tesla купила DeepScale, хотя подробностей об условиях сделки не сообщается.

Ориентация на использование относительно недорогих процессоров для построения систем машинного зрения выгодна компании Tesla, поскольку это не только позволяет снизить их себестоимость, но и заложить необходимую для обеспечения надёжности избыточность подобных узлов. Илон Маск (Elon Musk) не раз публично утверждал, что для уверенной работы «автопилота» достаточно данных, получаемых ультразвуковыми датчиками и камерами, а оптические радары («лидары») в этом смысле избыточны, не очень удобны с компоновочной точки зрения, а также дороговаты в массовом применении. Разработки DeepScale наверняка позволят Tesla усовершенствовать технологии обработки изображений, получаемых бортовыми камерами электромобилей.

Сбербанк и АФК «Система» планируют вложиться в софт для беспилотных автомобилей

На Восточном экономическом форуме Алексей Нащекин, генеральный директор «Национальных телематических систем» (НТС), сообщил, что через 2-3 года в России заработают беспилотные грузовые перевозки. Сначала грузовики освоят маршрут «Москва–Санкт-Петербург» по новой скоростной автомагистрали М11. Проект уже прошел тестирование на полигоне в Казани.

НТС разработала аппаратную и программную части самостоятельно.

«Здесь полностью наша российская разработка, когда работает не только машина сама по себе с машинным зрением. А когда работает весь комплекс, — работает «умная дорога» и беспилотник работают в связке», — рассказал Нащекин.

Интерес к новой технологии проявил Сергей Яворский, генеральный директор Volvo Vostok. Он заявил, что компания готова поучаствовать в тестировании беспилотного тягача.

Инвесторы полагают, что в России таким образом сформируется новая и перспективная отрасль. Сегодня стало известно, что Сбербанк и АФК «Система» планируют вложиться в разработчика софта для беспилотников Cognitive Technologies. По мнению Александра Лупачева, директора по инвестициям Russia Partners Advisers, для них Cognitive Technologies – это прежде всего возможность расширить свои компетенции в области ПО для машинного зрения. Эксперт оценивает проект в $10 млн, основываясь исключительно на ценности технологий. Ранее Сбербанк и АФК «Система» вложились в разработчика систем машинного зрения VisionLabs через Sistema_VC.

В 2016 году в состав Cognitive Technologies вошла компания Cognitive Pilot (ООО «Когнитив-пилот»), производитель беспилотного транспорта. В августе 2019 года стало известно, что Cognitive Pilot вместе с Hyundai Mobis (входит в Hyundai Motor Group) планирует разработать программный модуль для автономного вождения, а также софт для распознавания пешеходов, автомобилей, велосипедистов и мотоциклистов.

Cognitive Technologies планирует выйти на международный рынок автономного транспорта, где, по мнению инвестиционного директора Российской венчурной компании Алексея Басова, скоро появятся новые «единороги».

6D.ai создаст 3D-модель мира при помощи смартфонов

6D.ai, созданный в 2017 году в Сан-Франциско стартап, нацелен создать полноценную 3D-модель мира, используя лишь камеры смартфонов без какого-либо специального оборудования. Компания объявила о начале сотрудничества с Qualcomm Technologies по развитию своей технологии на базе платформы Qualcomm Snapdragon.

Стартап 6D.ai разрабатывает технологию, позволяющую создавать детализированные 3D-модели окружающего мира, используя камеру мобильного телефона. Вчера компания заявила о начале сотрудничества с Qualcomm для развития платформы Snapdragon XR

Стартап 6D.ai разрабатывает технологию, позволяющую создавать детализированные 3D-модели окружающего мира, используя камеру мобильного телефона

Qualcomm рассчитывает, что 6D.ai обеспечит лучшее понимание пространства для шлемов виртуальной реальности на базе Snapdragon и находящихся сейчас в разработке XR-гарнитур — подключаемых к телефону устройств в виде очков с поддержкой AR и VR, которые смогут использовать для своей работы вычислительные ресурсы смартфонов на базе новейших процессоров Qualcomm, что сделает данные технологии значительнее дешевле и доступнее.

«3D-модель мира — это следующая платформа, на которой будут работать приложения будущего», — рассказывает генеральный директор 6D.ai Мэтт Мисниекс (Matt Miesnieks). — «Сегодня мы наблюдаем, как это происходит с предприятиями любых размеров в различных отраслях, которые стремятся создавать пространственно ориентированные приложения, которые выходят за рамки AR и включают в себя различные сервисы, работающие на основе определения местоположения пользователя в пространстве, а в будущем такие же технологии будут задействованы и для дронов и роботехники. Сегодня развитие нашей бизнес-модели и сотрудничество с Qualcomm Technologies — это первый из многих шагов, которые мы предпринимаем для построения трёхмерной карты мира  будущего».

Qualcomm Technologies и 6D.ai будут совместно работать над оптимизацией инструментов 6D.ai для устройств XR на базе Snapdragon, используя преимущества современного компьютерного зрения и искусственного интеллекта, чтобы дать возможность разработчикам и производителям устройств создавать приложения с максимальным эффектом погружения, что позволит стереть грань между реальным и виртуальным миром.

«Платформа XR, работающая на базе технологий ИИ и 5G, обладает потенциалом стать следующим поколением иммерсивных мобильных вычислений», — заявил Хьюго Сварт (Hugo Swart), старший директор по управлению продуктами и глава XR в Qualcomm Technologies. — «6D.ai расширяют наши возможности, создавая 3D-карты мира и этим помогая создать будущее, в котором устройства XR полностью понимают реальный мир, что в свою очередь позволит разработчикам создавать приложения следующего поколения, которые смогут распознавать, интерпретировать и взаимодействовать с миром, в котором мы живем».

Кроме того, недавно 6D.ai анонсировала бета-версию набора своих инструментов для Android, которые позволят пользователям приложений, созданных на базе 6D, работать с одной и той же 3D-моделью созданной при помощи их телефона на различных устройствах в любой момент времени. Как заявляет 6D.ai, любое приложение, которое будет выпущено на платформе компании до 31 декабря, сможет бесплатно использовать их SDK в течение трёх лет.

На данный момент тысячи разработчиков уже тестируют и создают приложения, которые непосредственно взаимодействуют с реальным миром при помощи платформы 6D.ai, включая такие компании, как Autodesk, Nexus Studios и Accenture.

На видео ниже вы можете увидеть, как работает приложение 6D.ai, создавая 3D-модель офиса компании в реальном времени.

window-new
Soft
Hard
Тренды 🔥