Теги → машинное зрение
Быстрый переход

Впервые технология обнаружения объектов вне прямой видимости добилась высокого разрешения — можно будет даже читать вывески за углом

Автопилоты и другая роботизированная техника учится лучше и глубже оценивать дорожную обстановку, чем водитель-человек. В это ей помогают также технологии обнаружения объектов вне прямой видимости. Однако из множества технологий визуализации объектов «за углом» до сих пор не было способа получить картинку в высоком разрешении. Учёные из Калифорнийского технологического института заполнили этот пробел, предложив новую технологию UNCOVER.

 Источник изображения: Caltech

Источник изображения: Caltech

Традиционно «за угол» можно заглянуть, если проанализировать в зоне прямой видимости свет, отражённый от других объектов, например, от стен. Поскольку свет от таких объектов рассеивается, более-менее цельное изображение можно собрать с помощью ИИ-алгоритмов. Но если рядом с искомой целью есть точечный источник света — guidestar (путеводная звезда), то скрытый объект можно рассмотреть намного детальнее.

Свет от точечного источника позволяет вычислить волновые фронты отражённого от стен света и использовать эту информацию для расчёта светового потока от наблюдаемого скрытого объекта. Проблема в том, что в обычной дорожной обстановке подсветить скрытые объекты никак невозможно. В противном случае каждому пешеходу и каждой машине на улице пришлось бы придать свою собственную «путеводную звезду».

Технология UNCOVER позволяет использовать как guidestar сам скрытый объект. В эксперименте учёные показали возможность различить находящиеся вне зоны прямой видимости сложные символы в виде звёздочки, геометрических фигур и букв. Предложенная технология, уверены учёные, поможет улучшить автопилоты на улицах городов и роверов на далёких планетах. Марсоходу не нужно будет пробираться по труднопреодолимым преградам, чтобы осмотреть скрытые за ними объекты. Если вокруг светло, он получит картинку даже за линией прямой видимости.

Британское правительство заблокировало лицензирование Китаю технологии машинного зрения

Правительство Великобритании обратилось к закону о национальной безопасности, чтобы заблокировать сделку, которая позволила бы китайской компании Beijing Infinite Vision Technology лицензировать технологию машинного зрения, разработанную в Манчестерском университете.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Китайская компания, которая позиционирует себя как передового разработчика технологий 3D-рендеринга и архитектурной визуализации, запросила у Манчестерского университета лицензию на решения SCAMP-5 и SCAMP-7. Лежащая в их основе технология предназначена для «тесной интеграции нового сенсорного и вычислительного оборудования с алгоритмами зрения, навигации и управления для обеспечения автономных роботов нового поколения». Сделку заблокировал министр предпринимательства, энергетики и промышленной стратегии Великобритании Квази Квартенг (Kwasi Kwarteng).

В январе в силу вступил британский Закон о национальной безопасности и инвестициях, который позволяет правительству страны отменять или ограничивать сделки по соображениям национальной безопасности — недавно он использовался для приостановки сделки по продаже валлийского завода Newport Wafer Fab нидерландской компании Nexperia, которой владеют китайцы.

Разработчики технологии для SCAMP-5 и SCAMP-7 пояснили, что в её основе лежит чип, производящий предварительную обработку изображений — он транслирует алгоритмам машинного зрения только необходимые данные. Чип также замеряет «время пролёта» по каждому пикселю, что ускоряет построение карт в реальном времени. Как решили (PDF) в британском правительстве, «существует вероятность, что технологию смогут использовать для создания оборонных или технологических инструментов, способных представлять угрозу национальной безопасности Соединённого Королевства».

Авторы проекта говорят, что разработанная ими технология сможет использоваться в самых разных сферах от игрушек и прочих потребительских товаров до военных систем — особенно для разведывательных и спасательных операций. В Манчестерском университете уже заявили о готовности подчиниться решению правительства.

Canon представила датчики изображения, которые видят почти в кромешной темноте — они пригодятся автомобилям

Большинство автопроизводителей при разработке систем активной помощи водителю полагаются на дублирование визуальной информации данными с сенсоров другого типа, включая радары, ультразвуковые датчики и лидары. Новые датчики изображения Canon позволят создавать камеры, способные различать объекты даже в условиях освещённости, не превышающей 10 % от нормальной. То есть почти в кромешной темноте.

 Источник изображения: Pixabay

Источник изображения: Pixabay

По информации Nikkei Asian Review, компания Canon намеревается наладить выпуск датчиков нового типа в следующем году. Новинка позволяет получать качественные цветные изображения в условиях низкой освещённости. В основе датчика изображения лежит однофотонный лавинный диод, который усиливает улавливаемый фотон до нескольких электронов, с которыми уже удобно работать для определения очертаний объекта.

Canon удалось увеличить разрешающую способность датчика изображения до 3,2 млн пикселей, это в три с лишним раза больше, чем у обычных датчиков данной марки. Для определения объекта датчику нового типа достаточно нескольких долей наносекунды светового воздействия. Массовое производство новинки начнётся на предприятии в Кавасаки во второй половине следующего года. Canon будет не только предлагать эти датчики сторонним клиентам, но и установит их в камеры для систем безопасности, которые начнут выпускаться к концу следующего года.

Важно, что новый тип датчиков можно будет выпускать на том же оборудовании, что и КМОП-матрицы, при сопоставимых затратах. Однофотонные лавинные диоды (SPAD) могут также применяться в автомобильных лидарах, поскольку используют схожий принцип действия. Не дремлют и конкуренты: Panasonic сейчас работает над увеличением разрешающей способности своих датчиков типа SPAD, а Sony намеревается начать выпуск автомобильных датчиков такого типа в марте следующего года.

«Яндекс» научил умную камеру определять состав продуктов и распознавать автомобили

Компания «Яндекс» сообщила о расширении функциональности умной камеры — специального инструмента для смартфонов, позволяющего осуществлять визуальный поиск.

 Здесь и ниже изображения «Яндекса»

Здесь и ниже изображения «Яндекса»

Умная камера использует поисковые технологии и средства компьютерного зрения. Для получения информации о том или ином объекте достаточно навести на него камеру мобильного устройства.

Одним из нововведений в приложении стал улучшенный поиск по продуктам питания. Теперь умная камера не только находит их в интернете, но и даёт подробное описание. В частности, выводится информация о количестве жиров, белков и углеводов, наличии сахара и ГМО, а также о содержании микроэлементов. Кроме того, приложение подскажет, сколько в продукте калорий и как долго нужно плыть или бежать, чтобы их израсходовать.

Умная камера научилась выдавать подробные данные об автомобилях. Наведя камеру на ту или иную машину, пользователь сможет быстро узнать марку, модель и технические характеристики — мощность, максимальную скорость и расход топлива.

Программа также подскажет порядок действий для решения линейных и квадратных уравнений. Для этого достаточно перейти в режим «Решения» и сфотографировать задание. Кроме того, камера поможет найти обучающие видео, которые подробно объясняют решение задач такого типа.

Среди прочих нововведений упомянуты функция зума для съёмки небольших объектов, возможность загрузки изображений из галереи и поддержка фронтальной камеры. Инструмент доступен в приложении «Яндекса» для iOS и Android.

Лазер и машинный алгоритм могут осмотреть запертую комнату через замочную скважину

Люди сегодня как на ладони, что обеспечивают смартфоны, камеры наблюдения и прочее. Но этого мало. Новые технологии позволят осмотреть все углы запертой комнате даже через замочную скважину, если другой возможности нет. Это дадут технологии непрямого наблюдения, что может найти применение у спецслужб, служб спасения и в сфере машинного зрения, включая автопилоты.

 Источник изображения: Stanford

Источник изображения: Stanford

Заклеивание камер ноутбуков скотчем покажется детской забавой. Как бы вскоре не пришлось заклеивать замочные скважины. Учёные из Стэнфордской лаборатории вычислительной визуализации представили технологию непрямого зрения по оси свечения лазерного луча. В такой схеме наблюдателю не нужно оглядываться по сторонам, достаточно одного крошечного канала по оси свечения, например, через замочную скважину или через проделанное отверстие.

Предложенный учёными метод опирается на сложные машинные алгоритмы, которые позволяют вычленить полезный сигнал из отражённых в комнате фотонов. Яркая точка лазера напротив источника становится источником фотонов, которые разлетаются по всему замкнутому пространству и переотражаются от препятствий. Часть фотонов после серии отражений возвращается по оси свечения, где захватывается датчиком и анализируется нейросетью.

Сообщается, что полученных фотонов недостаточно для полной визуализации объектов внутри закрытого помещения, но качество распознавания резко растёт, если объекты внутри перемещаются. В перспективе это может дать в руки служб инструмент для спасения людей в чрезвычайных ситуациях, а также найти применение в медицине и в автопилотах, что поможет лучше диагностировать проблемы со здоровьем и снизит риск аварийных ситуаций на дорогах. Технология позволит «заглядывать за углы», а значит точно предугадывать дорожную обстановку.

Китайский алгоритм машинного зрения впервые превзошёл людей в распознавании образов

Новые данные по соревнованию Visual Question Answering (VQA) Challenge 2021 по распознаванию образов машинными алгоритмами выявили несомненного лидера — компанию Alibaba и её модель AliceMind. Китайский алгоритм превзошёл не только алгоритм Microsoft, но также оказался сообразительнее человека. Точность работы алгоритма составила 81,26 %, а точность человека — 80,83 %.

 Источник изображения: Shutterstock

Источник изображения: Shutterstock

В соревнованиях VQA Challenge 2021 использовалось свыше 250 тысяч изображений, после изучения которых требовалось ответить на 1,1 млн текстовых вопросов об увиденном. Машинный алгоритм компании Alibaba справился с заданием лучше всех и лучше людей. Пока разница между машиной и человеком не очень большая, но со временем разрыв будет расти. К тому же, что критически важно, алгоритм может работать круглосуточно с одинаковой погрешностью, тогда как человек быстро снизит концентрацию внимания уже после пары–тройки часов работы.

В компании Alibaba считают, что алгоритм не вытеснит человеческий труд, но сможет убрать из него рутину. Например, компьютерное зрение сможет проводить первичный медицинский анализ, не отвлекая врачей от их главной обязанности — ставить точный диагноз. Также алгоритм распознавания поможет развить автоматическое вождение транспорта и улучшить поиск на тех же сайтах электронной коммерции, что уже сегодня реализуется в том или ином объёме.

«Лаборатория Касперского» разработала систему машинного зрения

«Лаборатория Касперского», российский разработчик средств обеспечения информационной безопасности, выйдет на рынок компьютерного зрения с новым программным продуктом.

 Здесь и ниже изображения pixabay.com

Здесь и ниже изображения pixabay.com

Решение, как сообщает газета «Ведомости», получило название Kaspersky Neural Networks. Это специализированная система аналитики, способная распознавать объекты, попадающие в поле зрения камеры беспилотных летательных аппаратов (БПЛА).

Отмечается, что программное обеспечение способно анализировать изображения, поступающие сразу с нескольких дронов. Причём функционирует система в режиме реального времени.

Предполагается, что разработка «Лаборатории Касперского» заинтересует спасательные службы. Решение Kaspersky Neural Networks может распознавать людей, оказавшихся в зоне бедствия, дома, автомобили, животных и пр.

Выполнение анализа может осуществляться непосредственно на борту беспилотного летательного аппарата. Известно, что программное обеспечение уже использует производитель дронов «Альбатрос».

С помощью бортовой камеры электромобили Tesla способны определять предметы, удалённые до 62 метров

Илон Маск (Elon Musk) долгое время бравировал готовностью Tesla обходиться без дорогостоящих лидаров для контроля расстояния электромобиля в движении до окружающих предметов, а недавно компания отказалась для рынка США и от использования обычных радаров. Энтузиаст продемонстрировал, как нейросеть помогает электромобилю Tesla определять дистанцию до объектов при помощи данных с камеры.

 Источник изображения: Electrek

Источник изображения: Electrek

Как отмечает Electrek, получивший доступ к исходному коду программного обеспечения Tesla энтузиаст с псевдонимом Green на страницах Twitter выложил видеоролик, демонстрирующий способность электромобилей этой марки определять расстояние до других расположенных на пути следования объектов. Работа нейросети завязана на данные с единственной фронтальной камеры, хотя их в данной части электромобиля три, а всего Tesla оснащает машины восемью камерами.

Для работы нейросети достаточно разрешения видео в одну восьмую часть от исходного, программное обеспечение определяет лишь силуэты объектов, удалённых от электромобиля во фронтальном направлении на дистанцию от 5 до 62 метров. Формируется трёхмерная картинка, которую исследователь ради наглядности преобразовал в монохромную с разными уровнями яркости объектов. Чем ближе предмет к электромобилю, тем он ярче. Пример доказывает, что уверенное определение расстояния до объектов может быть реализовано при помощи одних только видеокамер, без датчиков другого типа. К сожалению, обычные камеры уязвимы к погодным условиям, хотя Tesla предусмотрела подогрев того участка лобового стекла, к которому прилегает корпус основной фронтальной камеры — на случай снегопада или обледенения.

DJI Air 2S проиграл Skydio 2 в автоматическом уклонении от препятствий

DJI в своём новом дроне Air 2S серьёзно улучшила систему отслеживания препятствий и избегания столкновений: новый дрон получил помимо основной камеры также датчики снизу, сверху, спереди и сзади. Многие сразу задали неизбежный вопрос: сможет ли новый квадрокоптер видеть препятствия столь же эффективно, как уже относительно старый Skydio 2. И реальные тесты уже состоялись.

 (Канал DC Rainmaker на YouTube)

(Канал DC Rainmaker на YouTube)

По словам китайского производителя, новые датчики, основанная камера и улучшенные алгоритмы расширенного автопилота (APAS 4.0) позволяют Air 2S распознавать препятствия в ещё более сложных сценариях и на высоких скоростях. В рекламе даже показывают работу дрона в лесу с обилием веток — весьма многообещающе.

Американский Skydio 2 на базе NVIDIA Tegra X2 имеет отличную репутацию благодаря своим продвинутым системам отслеживания. Его шесть визуальных датчиков строят сферическую картину окружения, дрон постоянно оценивает обстановку и принимает решения, куда двигаться дальше. Его алгоритмы даже предсказывают наперёд, где будет то или иное препятствие или движущийся объект в ближайшее время. Работает это весьма эффективно: например, Skydio 2 понимает окружение гораздо лучше, чем «автопилот» Tesla и видит даже кабели в воздухе.

Air 2S стоит $999 — столько же, как и Skydio 2. Оба аппарата претендуют на отличное избегание препятствий и превосходные способности к отслеживанию окружения. Блогер с канала DC Rainmaker на YouTube опубликовал отличное видеосравнение двух аппаратов и их интеллектуальных систем:

Как можно убедиться по ролику, система распознавания препятствий Skydio 2 работает на голову эффективнее, чем у Air 2S. Конечно, у дрона DJI нет боковых датчиков, но квадрокоптер влетел в густые ветви дерева даже при полёте вперёд, хотя и после поворота. Однако Skydio 2 в той же ситуации не просто не влетел в дерево, но нашёл свободное пространство и проследовал за оператором. Также стоит отметить, что во время теста при резкой остановке велосипедиста Air 2S дважды приближался к человеку на опасно близкую дистанцию. Китайский дрон также легко теряет отслеживаемый объект из виду.

Служба поддержки DJI отметила, что дрон попросту не успел среагировать на препятствие, а команда разработчиков постоянно улучшает систему машинного зрения, особенно в отношении ветвей. Действительно, в будущем система APAS может дополнительно улучшиться программными алгоритмами, но сейчас на неё лучше не полагаться, особенно в сложных условиях вроде леса и обилия голых ветвей.

Тем не менее, Air 2S компактен, лёгок и может предложить массу отличных возможностей вроде съёмки видео 5,4K, 1-дюймовой 20-Мп матрицы, управления на дистанции до 12 км и так далее. Для съёмки качественного видеоряда и фотографий это отличный дрон, пусть и не со столь совершенной автоматикой, как у Skydio 2.

Следующая версия автопилота Tesla будет ещё сильнее полагаться на данные камер

Илон Маск (Elon Musk) является противником использования так называемых лидаров в системах автоматического управления транспортом. Он верит в потенциал систем машинного зрения, которые позволяют автоматике ориентироваться даже в тех местах, которые не охвачены цифровыми картами. В дальнейшем будет ослабевать роль и радара, и ультразвуковых датчиков.

 Источник изображения: Tech Times

Источник изображения: Tech Times

Распознавать препятствия и движущиеся объекты электромобили Tesla сейчас могут, используя как изображения с бортовых камер, так и информацию с набора ультразвуковых датчиков различного радиуса действия и фронтального радара. Если камеры способны распознавать дорожную обстановку на 50–250 метров, то радар охватывает пространство перед машиной на 160 метров, уверенно работая даже в сложных погодных условиях. Ультразвуковые датчики работают на дистанции не более 8 метров, они нужны для управления маневрированием на низких скоростях.

Как отмечает Electrek, в своём новом заявлении на страницах Twitter Илон Маск пояснил, что очередная бета-версия управляющей программы FSD для электромобилей Tesla выйдет в апреле, она позволит автоматизировать многие функции управления электромобилем исключительно за счёт использования камер и системы машинного зрения. Даже радар при этом не будет задействован, как уточнил глава Tesla. По его словам, данный шаг является важным этапом на пути внедрения системы искусственного интеллекта, способной работать в реальном мире.

Одновременно Илон Маск напомнил, что в программе бета-тестирования FSD теперь задействовано не менее двух тысяч автовладельцев, но из их рядов были исключены самые безответственные, которые не следили за дорожной обстановкой должным образом, находясь за рулём. Следить за поведением водителя компании Tesla позволяет обращённая в салон видеокамера. К счастью, как добавил глава Tesla, подобная халатность испытателей не привела к каким-либо дорожным происшествиям.

Робособакой Spot теперь можно управлять удалённо и она научилась заряжаться самостоятельно

Робот-собака Spot от Boston Dynamics стал намного более самодостаточным. Очень скоро компания представит новую версию робота Spot Enterprise и средства управления Scout на базе браузера с оптимизированным интерфейсом для управления Spot через интернет. Наконец, будет представлена универсальная роборука Spot Arm, возможности которой мы уже видели в ролике.

Презентация новых возможностей робособаки Spot пройдёт на YouTube-канале в 19:00 по московскому времени. Но журналисты уже раскрыли все подробности. Новые функции последовали за объявлением Boston Dynamics в июне прошлого года, что робот Spot Explorer станет доступен для любой компании, которая может позволить себе цену в $74 500. Добавленные возможности были в числе наиболее часто запрашиваемых первыми покупателями Spot (сегодня в мире насчитывается более 400 Spot).

«У клиентов во многих отраслях есть участки с важным оборудованием, которые работают почти без персонала, хотя иногда требуется несколько часов, чтобы отправить человека проверить или сделать что-то относительно простое, — отметил главный инженер Spot Зак Яковски (Zack Jackowski). — Наши клиенты хотели бы на таких объектах поставить роботов навсегда. В результате, человек, который будет следить за срабатыванием сигнализации или плановой проверкой, сможет просто запустить робота, чтобы тот встал, осмотрелся и сделал нехитрые манипуляции».

Приложение Scout является попыткой Boston Dynamics упростить дистанционное управление. На данный момент оно превращает Spot по сути в дорогую телекамеру. Компания отметила, что новая рука пока не работает с ПО удалённого управления, что делает Spot пригодным лишь для осмотра и фотографирования окружающей среды, а не для физического взаимодействия с ней. Но в планах — интегрировать в Scout поддержку манипулятора, чтобы робот смог управлять клапанами, тянуть рычаги, поворачивать ручки, открывать двери по команде оператора в сотнях или даже тысячах километрах от него.

Scout работает как с существующим роботом Spot Explorer, так и с новым Spot Enterprise. Последний получил ряд обновлений по сравнению с прошлой моделью, включая более мощный процессор, предназначенный для работы с более продвинутыми автономными алгоритмами в будущем и функцию автоматической зарядки. Современный Spot Explorer может работать порядка 90 минут автономно, а новый Spot Enterprise на удалённом объекте с зарядной станцией способен функционировать «бесконечно». Есть надежда, что благодаря зарядке и Scout компании смогут использовать Spot в качестве альтернативы отправке персонала на удалённые объекты.

Spot находит свою зарядную станцию ​​с помощью маркера в духе QR-кода — специальные точки камеры Spot могут идентифицировать и использовать для улучшенной навигации. Как только робот приблизится к зарядной станции он может автоматически сблизиться с зарядными разъёмами на подставке. Станция зарядки также включает проводное подключение к интернету, что позволяет быстрее и надёжнее загружать данные, собранные датчиками Spot во время прогулок.

Scout умеет работать через медленное подключение к интернету, потому что робот предназначен для развёртывания в удалённых местах вроде морских нефтяных платформ или подземных шахт. Для управления роботом достаточно полосы пропускания всего 2 мегабита/с (Netflix в настоящее время рекомендует 3 Мбит/с для потоковой передачи в формате SD). Это достигается за счёт выполнения большинства функций автономно. Система использует сервер Boston Dynamics, установленный в локальной сети, для обработки и сжатия данных перед их отправкой через интернет.

И раньше были возможности управлять Spot через интернет с помощью стороннего ПО. Но Scout — это первое оптимизированное программное обеспечение компании для браузеров. Журналист The Verge пробовал управлять роботом Spot Enterprise через такую систему с расстояния в 5000 км. Взаимодействие было достаточно медленным, но всё же робот был вполне управляем с помощью привычной раскладки WASD (контроллеры тоже поддерживаются). А можно просто указывать курсором точки, в которые робот идёт сам. Управление похоже на видеоигру с низким разрешением через медленную потоковую службу. Между нажатием кнопки и откликом наблюдаются заметные задержки, но за счёт встроенной в Spot технологии преодоления препятствий всё работало хорошо, в том числе при движениях по лестницам. Можно полностью передать управление роботу в случаях, когда он каждый раз патрулирует один и тот же маршрут. Оператор может заранее это запрограммировать, включая автоматическую зарядку между прогулками.

Роборука Spot Arm, которая прикрепляется к голове робота, может выполнять различные манипуляции. Функционально она похожа на то, что Boston Dynamics демонстрировала в предыдущих видеороликах, но манипулятор стал более надёжным и теперь готов к использованию в реальном мире. Захват роборуки оснащён камерой и различными датчиками для ориентации в пространстве и выполнения действий в автономно режиме. Манипулятор поддерживает существующие элементы управления Spot и предварительно запрограммирован на определённые действия вроде открытия дверей или поворачивания клапанов. Также разработчики предоставят пользователям API для самостоятельного программирования руки.

Spot Enterprise будет дороже существующего Spot с его ценой в $74 500. При этом роботизированная рука будет доступна владельцам существующих роботов Spot, если они готовы отправить свои устройства в Boston Dynamics для профессиональной установки.

Видеосравнение: дрон Skydio 2 понимает окружение лучше, чем автопилот Tesla

Мы уже писали о претензиях некоторых водителей к «полноценному автопилоту» Tesla, который на дорогах порой ведёт себя довольно опасно. В Сети появилось любопытное видео, которое подтверждает недостатки текущей бета-версии ПО, но при этом одновременно показывает возможности продвинутого автопилота Tesla.

Владелец канала Brandon M (судя по видео, его действительно зовут Брендоном — так его называет сидящая рядом русская пассажирка) решил испытать на узких улочках полный автопилот Tesla Model 3 (бета-версия 2020.40.8.11). Одновременно он поставил на автоматическое слежение за электрокаром дрон Skydio 2 на платформе Tegra X2, который отличается весьма продвинутыми возможностями кругового машинного зрения: даже в лесу разбить его сложно благодаря системе избегания столкновений. Получилось весьма интересное видео:

Skydio 2 весьма ловко обходил все препятствия на этих узких улочках. Впечатляет возможность автоматики избегать не только веток деревьев, но даже телефонных проводов и линий электропередач. Иногда дрон отставал от машины, но затем быстро находил маршрут и нагонял Tesla Model 3.

Что касается автопилота Tesla, то в целом он тоже работал неплохо. Но всё же были опасные моменты: один раз электрокар опасно приблизился на повороте к припаркованному автомобилю, заставив водителя схватиться за руль и вручную выправить положение. В другой момент Tesla Model 3, проезжая у припаркованного авто, резко замедлилась, вызвав у водителя и пассажира нервные восклицания.

В то время как автоматика Tesla местами колебалась или, казалось, замедляла машину, чтобы обрабатывать сложное окружение, Skydio 2 летал уверенно. Конечно, Tesla должна производить гораздо больше вычислений, чем дрон. Автопилот должен идентифицировать пешеходов, определять дорожную разметку, знаки и прочее. Тем не менее, всё это должно помогать машине на дороге, а не пытаться задеть стоящий прямо перед нею красный седан. Да и ответственность у электрокара на порядок выше: ошибка на дороге часто стоит кому-то жизни. Так или иначе, но ИИ у Skydio 2 действительно впечатляет.

Brandon M описывает себя как любителя всего технологичного — особенно его интересуют продукты Apple и Tesla, возобновляемые источники энергии и тому подобное. На его канале можно увидеть и ряд других тестов предварительной версии полного автопилота Tesla. Например, он опубликовал большое видео, записанное в ночном Сакраменто. Водитель вмешивался в работу последней версии автопилота гораздо реже, чем прежде. Машина замедлялась на «лежачих полицейских», выбоинах, справлялась с довольно сложными ситуациями, когда другие автомобили, пешеходы и велосипедисты пересекали дорогу:

Apple задаёт моду на лидары для смартфонов. Подобный датчик разрабатывает и SK Hynix

Как известно, в смартфонах Apple iPhone 12 Pro появились лидары. На самом деле, это так называемые времяпролётные камеры (по-англ., Time of Flight или TOF). Ранее компании Samsung и LG пытались оснащать свои смартфоны камерами TOF, но не смогли заинтересовать потребителей этой технологией. Apple заинтересует, в этом можно не сомневаться. Из этого также следует, что рынок TOF ждёт взрывной рост, что должно привлечь заинтересованных производителей.

 Источник изображения: SK Hynix

Источник изображения: SK Hynix

По сообщению южнокорейских источников, на открывшейся вчера в Сеуле выставке SEDEX 2020 (Semiconductor Exhibition) компания SK Hynix — новичок рынка датчиков изображений — продемонстрировала самостоятельно разработанный датчик TOF или времяпролётную камеру. Разработка не готова для массового производства, но подтверждает движение SK Hynix в сторону новых рынков — датчиков изображения в целом и решений для дополненной и виртуальной реальности, а также в сторону систем машинного зрения и работы с изображениями.

Несколько последних лет SK Hynix стремится снизить зависимость от рынка памяти DRAM и NAND. Часть производственных линий компания перенастроила на выпуск датчиков изображения. Сегодня ей принадлежит на этом рынке только 2 %, но в SK Hynix вынашивают планы стабильного расширения своей доли.

Новый рынок сбыта камер TOF для смартфонов также поможет компании в диверсификации полупроводникового производства. Но ещё сильнее спрос на камеры определения глубины породит машинное зрение, Интернет вещей, дополненная реальность и многое другое, связанное с оцифровкой реальности. Однажды шутка «сфотографировал на тапок» может стать суровой реальностью. Обувь недалёкого будущего вполне может обзавестись зрением для определения препятствий, например, при передвижении в темноте.

Роботы-пылесосы iRobot станут намного умнее благодаря новому ПО с продвинутым искусственным интеллектом

iRobot представила крупнейшее обновление ПО для своих роботов-пылесосов с момента основания компании 30 лет назад: речь идёт о новой платформе на основе искусственного интеллекта, известную как iRobot Genius Home Intelligence. Или, как описывает это генеральный директор iRobot Колин Энгл (Colin Angle): «Это лоботомия и замена интеллектуальных систем во всех наших роботах».

Платформа является частью новой концепции компании по разработке продуктов. Поскольку роботы-пылесосы становятся товаром, доступным менее чем за $200 от многих компаний, iRobot хочет сделать свою продукцию гораздо привлекательнее на фоне конкурентов, чтобы продавать её дороже.

«Представьте, что к вам домой пришёл уборщик, и вы не можете с ним поговорить, — отметил господин Энгл. — Вы не можете сказать ему, когда приходить и где убираться. Вы бы очень расстроились! То же самое происходит с роботами. Такими были первые роботы-пылесосы. Вы нажали кнопку, и они сделали свою работу, хорошо это или плохо. Однако с помощью ИИ пользователи могут более точно определять, чего они хотят. Автономность не означает интеллектуальность — мы же хотим обеспечить эффективное взаимодействие пользователя с роботом».

Компания уже некоторое время идёт в этом направлении: в 2018 году, например, роботы получили поддержку картографирования. Система позволяет совместимым аппаратам Roomba создавать карту дома, на которой пользователи могут обозначать определенные комнаты и направлять робота для уборки по запросу. Обновление Home Intelligence, которое включает в себя переработанный дизайн приложения iRobot, сделает возможной ещё более точную уборку. iRobot утверждает, это именно то, чего хотят люди в то время, когда они находятся в помещении и хотят убрать мелкий беспорядок в той или иной части дома.

Совместимые Roombas не только будут отображать дом, но и смогут использовать машинное зрение и встроенные камеры для определения предметов мебели в доме, таких как диваны, столы и кухонные стойки. Когда робот регистрирует эти объекты, он будет предлагать пользователю добавить их на свою карту в качестве «чистых зон» — определённых областей дома, к которым можно будет направить Roomba на уборку через приложение или подключённого цифрового помощника вроде Alexa с помощью простого голосового помощника.

«Например, когда дети поели, идеальное время, чтобы отдать команду: "Уберись под обеденным столом", потому что под ним повсюду есть крошки, но всю кухню убирать не нужно», — отметила директор по продукции iRobot Кейт Хартсфилд (Keith Hartsfield).

Чтобы создать необходимые алгоритмы машинного зрения, iRobot собрала десятки тысяч изображений из домов сотрудников, чтобы узнать, как выглядит мебель с видом от пола. «Когда наш робот собирал эти данные, на нём была ярко-зелёная наклейка, чтобы пользователи не забыли и не стали бродить по дому в исподнем», — отметил господин Энгл. По его словам, парк роботов его компании по сбору данных уступал вероятно, только Tesla.

В дополнение к «чистым зонам» обновлённые Roomba также определяют «запретные зоны». Если робот продолжает застревать среди кабелей, например, под подставкой для телевизора, он предложит пользователям пометить место как зону, которую следует избегать в будущем. Всё это можно настроить в приложении и вручную.

Возможна также автоматизация на основе событий. Если пользователь хочет, чтобы Roomba быстро пылесосил, когда он выходит из дома, можно подключить приложение к интеллектуальному замку или службе определения местоположения вроде Life360. Пылесос автоматически будет знать, когда следует начать уборку. Другие новые функции включают настраиваемые предустановленные процедуры очистки, рекомендуемые графики уборки, основанные на привычках пользователя, сезонные графики уборки: например, более частая уборка пылесосом, когда животное линяет, или во время сезона аллергии.

Однако эти функции не будут доступны на всех Roomba. Только Roomba i7, i7 +, s9 и s9 +, а также robomop Braava jet m6 смогут настраивать определенные зоны и предлагать новые графики уборки. Другие функции, такие как автоматизация на основе событий и избранные процедуры очистки, будут доступны для всех других Roomba, подключённых к Wi-Fi.

Компания стремится убедить клиентов в том, что собираемые данные являются конфиденциальными. Любые изображения, снятые пылесосом iRobot, никогда не покидают устройство и даже не сохраняются более нескольких секунд. Вместо этого они превращаются в абстрактные карты. Компания шифрует программное обеспечение робота, что затрудняет его взлом, но производитель утверждает, что даже если злоумышленник взломает устройство клиента, он не найдёт на нём ничего интересного.

iRobot обещает, что всё это — лишь начало развития функций искусственного интеллекта пылесосов Roomba. Это и воодушевляет, и несколько пугает — особенно, если в будущем роботы начнут претендовать на главенство в наших домах.

ИИ научили понимать связь между кожей и мозгом человека

Современные системы распознавания жестов на производстве и в быту вполне рабочие, но имеют ряд ограничений. Например, носимые датчики могут быть плохо закреплены или попадать в слепую зону для следящих устройств. Обойти эти ограничения может помочь ИИ в сочетании с «электронной» кожей, в чём поможет машинная имитация связи между мозгом и кожей живого человека.

Как сообщают источники, ученые из Технологического университета Наньян в Сингапуре (NTU Singapore) разработали систему искусственного интеллекта, которая распознает жесты рук, сочетая компьютерное зрение и напоминающую кожу электронику.

Для этого на руке закрепляются эластичные датчики деформации, состоящие из тончайшего слоя углеродных нанотрубок. В процессе работы (жестикуляции) на показания этих датчиков накладываются визуальные данные. Одновременно все показания обрабатываются специальным алгоритмом ИИ, что должно напоминать способ, с помощью которого органы чувств кожи и зрения обрабатываются вместе в мозгу. На основании сделанных выводов даже при недостатке входящих данных ИИ с высокой степенью точности распознаёт жесты.

Данное исследование учёных преследует цель наделить мир людей улучшенной и более широкой машинной поддержкой. Это могут быть и экзоскелеты для пожилых людей, и производство, и развлечения.

window-new
Soft
Hard
Тренды 🔥
Google Chrome признан самым уязвимым браузером 2022 года 33 мин.
Минцифры РФ пока не собирается тратить государственные деньги на создание отечественного игрового движка 40 мин.
Google представила нейросеть, которая генерирует HD-видео по текстовому описанию 43 мин.
Facebook изменила алгоритмы подбора контента в пользовательских лентах — теперь они станут более персонализированными 2 ч.
Эксперимент, очевидно, неудачный: Blizzard снимет требование привязки номера телефона с игроков Overwatch 2, но не всех 3 ч.
Sega поработала над оптимизацией: разогнать Sonic Frontiers до 60 кадров/с смогут владельцы даже не самых мощных ПК 3 ч.
Microsoft стала на шаг ближе к поглощению Activision Blizzard — бразильский регулятор не поддержал Sony 4 ч.
Придётся набраться терпения: CD Projekt раскрыла примерные сроки разработки следующей The Witcher 4 ч.
Илон Маск пытался купить Twitter на 30 % дешевле апрельского предложения 6 ч.
Instagram начнёт показывать рекламу на вкладке «Обзор» и в профилях пользователей 15 ч.
Toyota устранила дефект электромобилей bZ4X, из-за которого колёса могут отделить во время движения 3 мин.
Intel добилась рекордного выхода годных квантовых чипов — 95 % 60 мин.
Выбраны шесть площадок для размещения квантовых компьютеров в Европе по проекту EuroHPC JU 2 ч.
Китайская BYD закрепилась на втором месте среди крупнейших производителей тяговых аккумуляторов 2 ч.
Материнские платы ASUS на Intel Z790 для Core 13-го поколения отметились в европейских магазинах — от 270 до 1400 евро 3 ч.
Рынок ПК будет падать следующие два года и это навредит бизнесу AMD, считают аналитики 4 ч.
SpaceX осуществила 45-й запуск ракеты в 2022 году — на орбиту вывели очередную партию из 52 спутников Starlink 4 ч.
Симуляция космической миссии сроком 1 год в рамках проекта SIRIUS состоится, даже если NASA откажется от участия 5 ч.
В третьем квартале продажи смартфонов в России выросли в 1,5 раза 5 ч.
Новая статья: Обзор системы жидкостного охлаждения ID-Cooling DashFlow 240 Basic Black 13 ч.