Теги → зрение
Быстрый переход

Стартап Science бывшего главы Neuralink будет возвращать людям зрение с помощью встраивания в глаза электроники и генной терапии

Созданная в 2021 году компания Science анонсировала свой первый продукт, который со временем начнёт возвращать зрение пациентам с рядом фатальных заболеваний глаз. Разработанный в компании электронный блок с microLED экраном будет встраиваться прямо в глазное яблоко, что позволит страдающим слепотой пациентам возвращать зрение сначала частично, а в перспективе всё полнее и полнее.

 Источник изображений:Science

Источник изображений:Science

Существует множество причин для потери зрения. Предложенное компанией Science решение облегчит жизнь пациентам с такими болезнями, как пигментный ретинит (RP) и сухая возрастная дегенерация жёлтого пятна (AMD). В обоих случаях зрение теряется по причине деградации фоторецепторов в глазах людей, хотя нервные окончания и зрительные нервы остаются в полном порядке. Имплантат Science Eye способен возбуждать эти нервные окончания — так называемые ганглионарные клетки — и передавать в мозг путь сильно упрощённые, но зрительные сигналы.

В каждом глазу человека примерно по 100 млн клеток фоторецепторов. Нервных окончаний, которые передают весь этот массив информации, всего по 1 млн на глаз. Нетрудно понять, насколько будет упрощена передаваемая в мозг нервная информация, основанная на возбуждении всего одного миллиона нервных окончаний. Но это будет определённо лучше полной слепоты и, в перспективе, учёные научатся передавать зрительные данные в более полном объёме.

Созданный в Science имплантат представляет собой электронный блок с процессором и блоком питания, который вживляется под веко на верхнюю поверхность глазного яблока, и экран microLED, который заводится внутрь глаза и устанавливается напротив нервных окончаний в его сетчатке. И это была самая лёгкая часть. Операция займёт около двух часов и может быть сокращена до одного часа после отработки технологии.

 Имплантат с экраном шириной 2 мм

Имплантат с экраном шириной 2 мм

Самое сложное, точнее — самое труднопреодолимое препятствие будет заключаться в том, чтобы наделить нервные окончания глаза световой чувствительностью. Проделать это можно с помощью генной терапии. Учёные давно работают с флуоресцентными белками, которые могут светиться и воспринимать фотоны. Чтобы Science Eye работал, в нервные окончания глазного нерва необходимо будет ввести инородные для человека гены. Нетрудно представить, что эта необходимость вызовет бурную дискуссию как в научном сообществе, так и среди обычных людей.

В компании предупреждают, что получаемое с помощью Science Eye и генной терапии зрение будет совсем не таким, как мы его обычно воспринимаем. Однако это реальный шанс вернуть потерявшему зрение человеку возможность самостоятельно и лучше ориентироваться в пространстве. Впрочем, до этого пройдут годы работы по улучшению технологии. Сегодня она испытывается на кроликах и до работы с людьми ещё довольно долго.

 Очки для обеспечения работы иммплантат

Очки для обеспечения работы имплантата

Добавим, компанию Science создал бывший соратник Илона Маска — Макс Ходак (Max Hodak). До 2021 года он возглавлял компанию Маска Neuralink, которая разрабатывает мозговой имплантат. Весной 2021 года он покинул Neuralink и создал свой стартап Science, который к сегодняшнему дню привлёк финансирование в объёме около $160 млн. Имплантат Science Eye назван флагманским продуктом Science. Будет интересно узнать, что ещё есть в её портфеле разработок.

Впервые технология обнаружения объектов вне прямой видимости добилась высокого разрешения — можно будет даже читать вывески за углом

Автопилоты и другая роботизированная техника учится лучше и глубже оценивать дорожную обстановку, чем водитель-человек. В это ей помогают также технологии обнаружения объектов вне прямой видимости. Однако из множества технологий визуализации объектов «за углом» до сих пор не было способа получить картинку в высоком разрешении. Учёные из Калифорнийского технологического института заполнили этот пробел, предложив новую технологию UNCOVER.

 Источник изображения: Caltech

Источник изображения: Caltech

Традиционно «за угол» можно заглянуть, если проанализировать в зоне прямой видимости свет, отражённый от других объектов, например, от стен. Поскольку свет от таких объектов рассеивается, более-менее цельное изображение можно собрать с помощью ИИ-алгоритмов. Но если рядом с искомой целью есть точечный источник света — guidestar (путеводная звезда), то скрытый объект можно рассмотреть намного детальнее.

Свет от точечного источника позволяет вычислить волновые фронты отражённого от стен света и использовать эту информацию для расчёта светового потока от наблюдаемого скрытого объекта. Проблема в том, что в обычной дорожной обстановке подсветить скрытые объекты никак невозможно. В противном случае каждому пешеходу и каждой машине на улице пришлось бы придать свою собственную «путеводную звезду».

Технология UNCOVER позволяет использовать как guidestar сам скрытый объект. В эксперименте учёные показали возможность различить находящиеся вне зоны прямой видимости сложные символы в виде звёздочки, геометрических фигур и букв. Предложенная технология, уверены учёные, поможет улучшить автопилоты на улицах городов и роверов на далёких планетах. Марсоходу не нужно будет пробираться по труднопреодолимым преградам, чтобы осмотреть скрытые за ними объекты. Если вокруг светло, он получит картинку даже за линией прямой видимости.

Британское правительство заблокировало лицензирование Китаю технологии машинного зрения

Правительство Великобритании обратилось к закону о национальной безопасности, чтобы заблокировать сделку, которая позволила бы китайской компании Beijing Infinite Vision Technology лицензировать технологию машинного зрения, разработанную в Манчестерском университете.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Китайская компания, которая позиционирует себя как передового разработчика технологий 3D-рендеринга и архитектурной визуализации, запросила у Манчестерского университета лицензию на решения SCAMP-5 и SCAMP-7. Лежащая в их основе технология предназначена для «тесной интеграции нового сенсорного и вычислительного оборудования с алгоритмами зрения, навигации и управления для обеспечения автономных роботов нового поколения». Сделку заблокировал министр предпринимательства, энергетики и промышленной стратегии Великобритании Квази Квартенг (Kwasi Kwarteng).

В январе в силу вступил британский Закон о национальной безопасности и инвестициях, который позволяет правительству страны отменять или ограничивать сделки по соображениям национальной безопасности — недавно он использовался для приостановки сделки по продаже валлийского завода Newport Wafer Fab нидерландской компании Nexperia, которой владеют китайцы.

Разработчики технологии для SCAMP-5 и SCAMP-7 пояснили, что в её основе лежит чип, производящий предварительную обработку изображений — он транслирует алгоритмам машинного зрения только необходимые данные. Чип также замеряет «время пролёта» по каждому пикселю, что ускоряет построение карт в реальном времени. Как решили (PDF) в британском правительстве, «существует вероятность, что технологию смогут использовать для создания оборонных или технологических инструментов, способных представлять угрозу национальной безопасности Соединённого Королевства».

Авторы проекта говорят, что разработанная ими технология сможет использоваться в самых разных сферах от игрушек и прочих потребительских товаров до военных систем — особенно для разведывательных и спасательных операций. В Манчестерском университете уже заявили о готовности подчиниться решению правительства.

Lime оснастит электросамокаты компьютерным зрением, чтобы отучить людей ездить по тротуарам

Компания Lime, занимающаяся производством электрических велосипедов и самокатов, а также владеющая сервисами их проката, объявила о планах по внедрению усовершенствованной системы безопасности Advanced Rider Assistance Systems. Для этого была создана собственная платформа компьютерного зрения для выявления езды по тротуарам. В таких случаях пользователь будет уведомляться о нарушении звуковым сигналом или путём принудительного снижения скорости движения.

 Источник изображения: Lime

Источник изображения: Lime

Согласно имеющимся данным, Lime начнёт тестировать новую систему на 400 самокатах в Сан-Франциско к середине августа. К концу года планируется расширить действие пилотного проекта на шесть городов, включая Париж, где компания впервые и продемонстрировала новую технологию.

Отмечается, что за последнее время многие крупные сервисы микромобильности пытались внедрить ту или иную форму ARAS для самокатов. Bird, Superpedestrian и Neuron полагаются на системы, основанные на определении местоположения, чтобы фиксировать, где ездят и паркуются пользователи. Voi, Spin и Zipp опробовали технологии компьютерного зрения сторонних разработчиков. В Lime рассказали, что компания также тестировала системы компьютерного зрения сторонних разработчиков, чтобы проверить жизнеспособность такого подхода. В конечном счёте было принято решение об инвестировании в создание собственной технологии, которая позволит фиксировать и препятствовать случаям езды по тротуарам.

Системы ARAS на основе определения местоположения и компьютерного зрения имеют немало сторонников. Приверженцы первого варианта отмечают, что система определения местоположения дешевле и её проще интегрировать. Также отмечается, что технология компьютерного зрения ещё не развита настолько, чтобы быть по-настоящему эффективной. Не говоря уже о том, что для компьютерного зрения требуется дополнительное оборудование, которое может сломаться или стать объектом вандализма на улицах.

Canon представила датчики изображения, которые видят почти в кромешной темноте — они пригодятся автомобилям

Большинство автопроизводителей при разработке систем активной помощи водителю полагаются на дублирование визуальной информации данными с сенсоров другого типа, включая радары, ультразвуковые датчики и лидары. Новые датчики изображения Canon позволят создавать камеры, способные различать объекты даже в условиях освещённости, не превышающей 10 % от нормальной. То есть почти в кромешной темноте.

 Источник изображения: Pixabay

Источник изображения: Pixabay

По информации Nikkei Asian Review, компания Canon намеревается наладить выпуск датчиков нового типа в следующем году. Новинка позволяет получать качественные цветные изображения в условиях низкой освещённости. В основе датчика изображения лежит однофотонный лавинный диод, который усиливает улавливаемый фотон до нескольких электронов, с которыми уже удобно работать для определения очертаний объекта.

Canon удалось увеличить разрешающую способность датчика изображения до 3,2 млн пикселей, это в три с лишним раза больше, чем у обычных датчиков данной марки. Для определения объекта датчику нового типа достаточно нескольких долей наносекунды светового воздействия. Массовое производство новинки начнётся на предприятии в Кавасаки во второй половине следующего года. Canon будет не только предлагать эти датчики сторонним клиентам, но и установит их в камеры для систем безопасности, которые начнут выпускаться к концу следующего года.

Важно, что новый тип датчиков можно будет выпускать на том же оборудовании, что и КМОП-матрицы, при сопоставимых затратах. Однофотонные лавинные диоды (SPAD) могут также применяться в автомобильных лидарах, поскольку используют схожий принцип действия. Не дремлют и конкуренты: Panasonic сейчас работает над увеличением разрешающей способности своих датчиков типа SPAD, а Sony намеревается начать выпуск автомобильных датчиков такого типа в марте следующего года.

«Яндекс» научил умную камеру определять состав продуктов и распознавать автомобили

Компания «Яндекс» сообщила о расширении функциональности умной камеры — специального инструмента для смартфонов, позволяющего осуществлять визуальный поиск.

 Здесь и ниже изображения «Яндекса»

Здесь и ниже изображения «Яндекса»

Умная камера использует поисковые технологии и средства компьютерного зрения. Для получения информации о том или ином объекте достаточно навести на него камеру мобильного устройства.

Одним из нововведений в приложении стал улучшенный поиск по продуктам питания. Теперь умная камера не только находит их в интернете, но и даёт подробное описание. В частности, выводится информация о количестве жиров, белков и углеводов, наличии сахара и ГМО, а также о содержании микроэлементов. Кроме того, приложение подскажет, сколько в продукте калорий и как долго нужно плыть или бежать, чтобы их израсходовать.

Умная камера научилась выдавать подробные данные об автомобилях. Наведя камеру на ту или иную машину, пользователь сможет быстро узнать марку, модель и технические характеристики — мощность, максимальную скорость и расход топлива.

Программа также подскажет порядок действий для решения линейных и квадратных уравнений. Для этого достаточно перейти в режим «Решения» и сфотографировать задание. Кроме того, камера поможет найти обучающие видео, которые подробно объясняют решение задач такого типа.

Среди прочих нововведений упомянуты функция зума для съёмки небольших объектов, возможность загрузки изображений из галереи и поддержка фронтальной камеры. Инструмент доступен в приложении «Яндекса» для iOS и Android.

Лазер и машинный алгоритм могут осмотреть запертую комнату через замочную скважину

Люди сегодня как на ладони, что обеспечивают смартфоны, камеры наблюдения и прочее. Но этого мало. Новые технологии позволят осмотреть все углы запертой комнате даже через замочную скважину, если другой возможности нет. Это дадут технологии непрямого наблюдения, что может найти применение у спецслужб, служб спасения и в сфере машинного зрения, включая автопилоты.

 Источник изображения: Stanford

Источник изображения: Stanford

Заклеивание камер ноутбуков скотчем покажется детской забавой. Как бы вскоре не пришлось заклеивать замочные скважины. Учёные из Стэнфордской лаборатории вычислительной визуализации представили технологию непрямого зрения по оси свечения лазерного луча. В такой схеме наблюдателю не нужно оглядываться по сторонам, достаточно одного крошечного канала по оси свечения, например, через замочную скважину или через проделанное отверстие.

Предложенный учёными метод опирается на сложные машинные алгоритмы, которые позволяют вычленить полезный сигнал из отражённых в комнате фотонов. Яркая точка лазера напротив источника становится источником фотонов, которые разлетаются по всему замкнутому пространству и переотражаются от препятствий. Часть фотонов после серии отражений возвращается по оси свечения, где захватывается датчиком и анализируется нейросетью.

Сообщается, что полученных фотонов недостаточно для полной визуализации объектов внутри закрытого помещения, но качество распознавания резко растёт, если объекты внутри перемещаются. В перспективе это может дать в руки служб инструмент для спасения людей в чрезвычайных ситуациях, а также найти применение в медицине и в автопилотах, что поможет лучше диагностировать проблемы со здоровьем и снизит риск аварийных ситуаций на дорогах. Технология позволит «заглядывать за углы», а значит точно предугадывать дорожную обстановку.

Китайский алгоритм машинного зрения впервые превзошёл людей в распознавании образов

Новые данные по соревнованию Visual Question Answering (VQA) Challenge 2021 по распознаванию образов машинными алгоритмами выявили несомненного лидера — компанию Alibaba и её модель AliceMind. Китайский алгоритм превзошёл не только алгоритм Microsoft, но также оказался сообразительнее человека. Точность работы алгоритма составила 81,26 %, а точность человека — 80,83 %.

 Источник изображения: Shutterstock

Источник изображения: Shutterstock

В соревнованиях VQA Challenge 2021 использовалось свыше 250 тысяч изображений, после изучения которых требовалось ответить на 1,1 млн текстовых вопросов об увиденном. Машинный алгоритм компании Alibaba справился с заданием лучше всех и лучше людей. Пока разница между машиной и человеком не очень большая, но со временем разрыв будет расти. К тому же, что критически важно, алгоритм может работать круглосуточно с одинаковой погрешностью, тогда как человек быстро снизит концентрацию внимания уже после пары–тройки часов работы.

В компании Alibaba считают, что алгоритм не вытеснит человеческий труд, но сможет убрать из него рутину. Например, компьютерное зрение сможет проводить первичный медицинский анализ, не отвлекая врачей от их главной обязанности — ставить точный диагноз. Также алгоритм распознавания поможет развить автоматическое вождение транспорта и улучшить поиск на тех же сайтах электронной коммерции, что уже сегодня реализуется в том или ином объёме.

«Лаборатория Касперского» разработала систему машинного зрения

«Лаборатория Касперского», российский разработчик средств обеспечения информационной безопасности, выйдет на рынок компьютерного зрения с новым программным продуктом.

 Здесь и ниже изображения pixabay.com

Здесь и ниже изображения pixabay.com

Решение, как сообщает газета «Ведомости», получило название Kaspersky Neural Networks. Это специализированная система аналитики, способная распознавать объекты, попадающие в поле зрения камеры беспилотных летательных аппаратов (БПЛА).

Отмечается, что программное обеспечение способно анализировать изображения, поступающие сразу с нескольких дронов. Причём функционирует система в режиме реального времени.

Предполагается, что разработка «Лаборатории Касперского» заинтересует спасательные службы. Решение Kaspersky Neural Networks может распознавать людей, оказавшихся в зоне бедствия, дома, автомобили, животных и пр.

Выполнение анализа может осуществляться непосредственно на борту беспилотного летательного аппарата. Известно, что программное обеспечение уже использует производитель дронов «Альбатрос».

В России создали нейроимплант, который поможет незрячим снова видеть

Российская компания «Лаборатория “Сенсор-Тех”» (резидент «Сколково») совместно с фондом поддержки слепоглухих «Со-единение» создала нейроимплант, который поможет незрячим видеть. При разработке импланта для вживления в кору головного мозга ELVIS компания пользовалась научными консультациями Института высшей нервной деятельности и нейрофизиологии РАН и Центра коллективного проектирования Российского технологического университета МИРЭА.

 «Лаборатория “Сенсор-Тех”»

«Лаборатория “Сенсор-Тех”»

Вместе с имплантом, вживляемым в область зрительной коры головного мозга, пользователь получает головной обруч с двумя камерами для захвата изображения в реальном времени и микрокомпьютер, который крепится на поясе. Компьютер, анализирует изображение с камер, выделяя контуры важных объектов, и передаёт обработанные кадры на имплант, который стимулирует кору головного мозга малыми токами.

«Сенсор-Тех» начала разработку импланта два года назад, апробировав до этого американскую технологию «бионическое зрение», позволявшую видеть людям с повреждённой сетчаткой с помощью вживления импланта в сетчатку. Впрочем, бионический протез получили всего два человека.

По словам директора «Лаборатории “Сенсор-Тех”» Дениса Кулешова, число больных, которым может помочь бионическое зрение, крайне мало, в то время, как вживляемые в мозг импланты могут спасти гораздо больше пациентов. «Первые операции по установке имплантов в зону зрительной коры проходили еще в 1970-х годах в Америке», — отметил Денис Кулешов. Он рассказал, что в 2019 году в Калифорнии начались клинические испытания системы с нейроимплантом на шести добровольцах. Эксперимент продолжается, но создатели устройства неоднократно сообщали на международных конференциях о его положительных эффектах.

При стимулировании первичной зрительной коры, которая отвечает за восприятие изображения, электрическими импульсами, в сознании человека возникают вспышки света — так называемые фосфены. «Если подключён один электрод — одна вспышка, несколько электродов — вспышки в разных местах, а если электроды расположены в линию один за другим, у человека в сознании появляется некая белая линия, — объясняет директор “Сенсор-Теха”. — При этом мозг адаптируется под новый источник информации — это фундаментальный принцип работы мозга, который и делает возможным использование подобных нейроимплантов». В отличие от зрячего, получающего визуальные образы благодаря глазу, у незрячего мозг подстраивается под новую информацию, которая поступает напрямую в зону зрительной коры путём электрической стимуляции. Причём, человек с каждым днём всё лучше различает находящиеся перед ним предметы.

«Чтобы представить себе, что потенциально может увидеть незрячий человек с такой системой, нужно вообразить поле размером 10 × 10 пикселей, или точек, — рассказывает Кулешов. — Картинку, которую "видит" видеокамера, мы ужимаем до размера 10 × 10 точек и передаём в чёрно-белом виде в головной мозг. При помощи такого зрения нельзя разглядеть детали, только какую-то общую визуальную информацию, крупные контуры объектов. Например, понять, что перед вами стоит человек, который машет рукой, или что впереди находится забор и вы идёте вдоль забора. Зато это уже предметное зрение».

В настоящее время технология тестируется на грызунах, потом наступит очередь обезьян.

Вышло 50-долларовое устройство для побед в шутерах: ИИ анализирует изображение и прицеливается за игрока

Как пишет портал Arstechnica, жульничество в видеоиграх вышло на новый уровень. Хакеры разработали специальное устройство, которое помогает игроку точно наводить прицел на противника. Фактически речь идёт об аппаратном аналоге Aim Bot. Разработчики заявляют, что этот чит невозможно обнаружить никакой защитой, поскольку он не нарушает целостности игровых файлов, что характерно для программных читов. Устройство можно использовать как с ПК, так и с консолями.

По понятным причинам Arstechnica не стал говорить настоящее название устройства, формально обозначив его CVCheat, а также не предоставил ссылки, где его можно приобрести. Однако сами хакеры охотно поделились с порталом тем, как оно работает. Собственно, CVCheat является продвинутой картой видеозахвата, которая подключается к ПК или консоли с помощью разъёма HDMI и отслеживает кадры, передаваемые GPU на экран. С помощью встроенных алгоритмов искусственного интеллекта и компьютерного зрения CVCheat определяет в центральной области экрана, куда смотрит игрок, расположение врагов.

Далее в работу вступает алгоритм, который точно просчитывает, как далеко и в каком направлении необходимо переместить мышку для того, чтобы враг оказался в перекрестии прицела. CVCheat может определять не только врага целиком, но и его отдельные части тела, позволяя, например, эффективно раздавать хедшоты. Собранные картой захвата данные отправляются на специальное устройство сквозного ввода, например, Titan Two или Cronus Zen, которое используется для эмуляции движения мыши или геймпада, чтобы довести прицел до цели и совершить выстрел.

По отдельности, все устройства, использующиеся для работы CVCheat, вполне законны. Например, те же карты Titan Two или Cronus Zen применяются для возможности использования компьютерных мышек и клавиатур с игровыми приставками, а также для создания игровых макросов. Однако все вместе они создают эффективный чит, который не требует модификаций игровых файлов, поэтому никакой античит не может его обнаружить.

У CVCHeat имеются гибкие настройки, позволяющие определять размер области доведения прицела, скорость прицеливания, части тела, куда необходимо стрелять и так далее. В текущем варианте CVCheat работает по принципу Triggerbot, то есть позволяет производить точные выстрелы по противнику, которые попали в область доводки прицела. Помимо этого, он обладает функцией контроля отдачи после каждого выстрела.

В разработке уже находится более продвинутая версия, которая предложит полностью автоматизированные процесс прицеливания и стрельбы, и сможет работать с любой игрой для ПК, а также игровых консолей Xbox и PlayStation. Pro-версию CVCheat хакеры оценили в $50. По словам его разработчиков, он эффективно работает в играх, отображаемых с частотой до 240 кадров в секунду. А на определение врага на экране и произведение выстрела ему требуется всего 10 мс.

Разработчики игр уже забили тревогу. Например, издатель Activision блокирует на YouTube любые рекламные ролики с использованием CVCheat в их онлайн-шутерах Call of Duty: Warzone, поскольку в игре уже появились люди, его использующие. По словам самих хакеров, их разработкой пользуются уже около 200 человек.

С помощью бортовой камеры электромобили Tesla способны определять предметы, удалённые до 62 метров

Илон Маск (Elon Musk) долгое время бравировал готовностью Tesla обходиться без дорогостоящих лидаров для контроля расстояния электромобиля в движении до окружающих предметов, а недавно компания отказалась для рынка США и от использования обычных радаров. Энтузиаст продемонстрировал, как нейросеть помогает электромобилю Tesla определять дистанцию до объектов при помощи данных с камеры.

 Источник изображения: Electrek

Источник изображения: Electrek

Как отмечает Electrek, получивший доступ к исходному коду программного обеспечения Tesla энтузиаст с псевдонимом Green на страницах Twitter выложил видеоролик, демонстрирующий способность электромобилей этой марки определять расстояние до других расположенных на пути следования объектов. Работа нейросети завязана на данные с единственной фронтальной камеры, хотя их в данной части электромобиля три, а всего Tesla оснащает машины восемью камерами.

Для работы нейросети достаточно разрешения видео в одну восьмую часть от исходного, программное обеспечение определяет лишь силуэты объектов, удалённых от электромобиля во фронтальном направлении на дистанцию от 5 до 62 метров. Формируется трёхмерная картинка, которую исследователь ради наглядности преобразовал в монохромную с разными уровнями яркости объектов. Чем ближе предмет к электромобилю, тем он ярче. Пример доказывает, что уверенное определение расстояния до объектов может быть реализовано при помощи одних только видеокамер, без датчиков другого типа. К сожалению, обычные камеры уязвимы к погодным условиям, хотя Tesla предусмотрела подогрев того участка лобового стекла, к которому прилегает корпус основной фронтальной камеры — на случай снегопада или обледенения.

DJI Air 2S проиграл Skydio 2 в автоматическом уклонении от препятствий

DJI в своём новом дроне Air 2S серьёзно улучшила систему отслеживания препятствий и избегания столкновений: новый дрон получил помимо основной камеры также датчики снизу, сверху, спереди и сзади. Многие сразу задали неизбежный вопрос: сможет ли новый квадрокоптер видеть препятствия столь же эффективно, как уже относительно старый Skydio 2. И реальные тесты уже состоялись.

 (Канал DC Rainmaker на YouTube)

(Канал DC Rainmaker на YouTube)

По словам китайского производителя, новые датчики, основанная камера и улучшенные алгоритмы расширенного автопилота (APAS 4.0) позволяют Air 2S распознавать препятствия в ещё более сложных сценариях и на высоких скоростях. В рекламе даже показывают работу дрона в лесу с обилием веток — весьма многообещающе.

Американский Skydio 2 на базе NVIDIA Tegra X2 имеет отличную репутацию благодаря своим продвинутым системам отслеживания. Его шесть визуальных датчиков строят сферическую картину окружения, дрон постоянно оценивает обстановку и принимает решения, куда двигаться дальше. Его алгоритмы даже предсказывают наперёд, где будет то или иное препятствие или движущийся объект в ближайшее время. Работает это весьма эффективно: например, Skydio 2 понимает окружение гораздо лучше, чем «автопилот» Tesla и видит даже кабели в воздухе.

Air 2S стоит $999 — столько же, как и Skydio 2. Оба аппарата претендуют на отличное избегание препятствий и превосходные способности к отслеживанию окружения. Блогер с канала DC Rainmaker на YouTube опубликовал отличное видеосравнение двух аппаратов и их интеллектуальных систем:

Как можно убедиться по ролику, система распознавания препятствий Skydio 2 работает на голову эффективнее, чем у Air 2S. Конечно, у дрона DJI нет боковых датчиков, но квадрокоптер влетел в густые ветви дерева даже при полёте вперёд, хотя и после поворота. Однако Skydio 2 в той же ситуации не просто не влетел в дерево, но нашёл свободное пространство и проследовал за оператором. Также стоит отметить, что во время теста при резкой остановке велосипедиста Air 2S дважды приближался к человеку на опасно близкую дистанцию. Китайский дрон также легко теряет отслеживаемый объект из виду.

Служба поддержки DJI отметила, что дрон попросту не успел среагировать на препятствие, а команда разработчиков постоянно улучшает систему машинного зрения, особенно в отношении ветвей. Действительно, в будущем система APAS может дополнительно улучшиться программными алгоритмами, но сейчас на неё лучше не полагаться, особенно в сложных условиях вроде леса и обилия голых ветвей.

Тем не менее, Air 2S компактен, лёгок и может предложить массу отличных возможностей вроде съёмки видео 5,4K, 1-дюймовой 20-Мп матрицы, управления на дистанции до 12 км и так далее. Для съёмки качественного видеоряда и фотографий это отличный дрон, пусть и не со столь совершенной автоматикой, как у Skydio 2.

Intel продолжает второй сезон бесплатных вебинаров CV Academy для опытных разработчиков

Компания Intel продолжает второй сезон проекта CV Academy для опытных разработчиков — вебинары по компьютерному зрению, глубокому обучению и оптимизации.

17 марта 19:00 – 20:30 — Применение компьютерного зрения в медицине

Регистрация: https://jsc-intel.timepad.ru/event/1446273

На вебинаре Вы узнаете о современных подходах к решению вычислительно трудоемких задач в области медицины (хирургия, гистология, исследование ДНК) и биохимии.

Спикером выступит Дмитрий Куртаев, инженер по разработке ПО, Intel, нейросетевой хирург, IOTG Russia.

24 марта 19:00 – 20:30 — Компиляторы для нейронных сетей

Регистрация: https://jsc-intel.timepad.ru/event/1446273

Будут рассмотрены существующие компиляторы, их плюсы и минусы, особенности и концепции. Будут описаны основные программные методы, которые используются для выбора оптимального способа исполнения алгоритма на устройстве из всех возможных. Также Вы узнаете о перспективах развития данной области.

Спикер — Александр Новак, разработчик из команды Neural Network Compilers, Intel, IOTG Russia.

14 апреля 19:00 – 20:30 — Оптимизация нейронных сетей

Регистрация: https://jsc-intel.timepad.ru/event/1446273

На вебинаре будут рассмотрены актуальные методы, позволяющие ускорить вычисление нейронных сетей. Особое внимание будет уделено методам квантизации нейросетей как наиболее эффективным с точки зрения критерия “точность – ускорение”. Вы узнаете, как сделать мир интеллектуального Интернета вещей еще умнее.

Спикер — Александр Козлов, инженер по глубокому обучению, Intel, IOTG Russia.

Регистрация на вебинары CV Academy обязательна и позволяет:

  • Узнать о новейших трендах в AI / Deep Learning от экспертов мирового уровня
  • Принять участие в живой Q&A сессии с ведущими разработчиками Intel
  • Получить эксклюзивный доступ к видеозаписям вебинаров

Все вебинары в рамках CV Academy, на которые открыта регистрация:

  • 17 марта — Применение компьютерного зрения в медицине
  • 24 марта — Компиляторы для нейронных сетей
  • 31 марта — OpenCV для встраиваемых платформ
  • 7 апреля — Введение в OpenCV G-API, современный API в области компьютерного зрения
  • 14 апреля — Оптимизация нейронных сетей
  • 21 апреля — Оптимизация производительности
  • 28 апреля — Concept-Based polymorphism в С++

Следующая версия автопилота Tesla будет ещё сильнее полагаться на данные камер

Илон Маск (Elon Musk) является противником использования так называемых лидаров в системах автоматического управления транспортом. Он верит в потенциал систем машинного зрения, которые позволяют автоматике ориентироваться даже в тех местах, которые не охвачены цифровыми картами. В дальнейшем будет ослабевать роль и радара, и ультразвуковых датчиков.

 Источник изображения: Tech Times

Источник изображения: Tech Times

Распознавать препятствия и движущиеся объекты электромобили Tesla сейчас могут, используя как изображения с бортовых камер, так и информацию с набора ультразвуковых датчиков различного радиуса действия и фронтального радара. Если камеры способны распознавать дорожную обстановку на 50–250 метров, то радар охватывает пространство перед машиной на 160 метров, уверенно работая даже в сложных погодных условиях. Ультразвуковые датчики работают на дистанции не более 8 метров, они нужны для управления маневрированием на низких скоростях.

Как отмечает Electrek, в своём новом заявлении на страницах Twitter Илон Маск пояснил, что очередная бета-версия управляющей программы FSD для электромобилей Tesla выйдет в апреле, она позволит автоматизировать многие функции управления электромобилем исключительно за счёт использования камер и системы машинного зрения. Даже радар при этом не будет задействован, как уточнил глава Tesla. По его словам, данный шаг является важным этапом на пути внедрения системы искусственного интеллекта, способной работать в реальном мире.

Одновременно Илон Маск напомнил, что в программе бета-тестирования FSD теперь задействовано не менее двух тысяч автовладельцев, но из их рядов были исключены самые безответственные, которые не следили за дорожной обстановкой должным образом, находясь за рулём. Следить за поведением водителя компании Tesla позволяет обращённая в салон видеокамера. К счастью, как добавил глава Tesla, подобная халатность испытателей не привела к каким-либо дорожным происшествиям.

window-new
Soft
Hard
Тренды 🔥
Apple расширила ценовой диапазон в App Store — теперь приложение может стоить от $0,29 до $10 000 3 ч.
Microsoft обязалась 10 лет выпускать Call of Duty на консолях Nintendo и «в любой день» готова подписать соглашение с Sony 3 ч.
Создатели Dead Island 2 показали геймплей за зомби и функцию голосового управления 4 ч.
THQ Nordic подтвердила дату выхода экшен-платформера SpongeBob SquarePants: The Cosmic Shake — предзаказ доступен и в российском Steam 4 ч.
Microsoft рассматривает создание «суперприложения» для смартфонов, вдохновившись WeChat и «Яндекс.Go» 5 ч.
Adobe приступила к сокращению сотрудников вслед за другими IT-гигантами 6 ч.
Мобильная The Witcher: Monster Slayer в духе Pokemon GO закроется, не прожив и двух лет — разработчиков ждут увольнения 14 ч.
Токены и смарт-карты JaCarta совместимы с инфраструктурой виртуальных рабочих мест «Базис.WorkPlace» 15 ч.
Легендарный симулятор колонии дварфов Dwarf Fortress добрался до Steam — в том числе российского 16 ч.
CD Projekt RED опубликовала список модификаций, проверенных на совместимость с улучшенной версией The Witcher 3: Wild Hunt 16 ч.
Старт продаж видеокарт Radeon RX 7900-й серии пройдёт с осложнениями — ожидаются дефицит и перенос выпуска некоторых моделей 21 мин.
Blue Origin поборется со SpaceX за контракт NASA на ещё один лунный посадочный модуль 52 мин.
Intel подтвердила подготовку чипов Sapphire Rapids для рабочих станций — по слухам, у них будет до 56 ядер 2 ч.
Редакция 3DNews ищет авторов новостей 3 ч.
Через два года у Apple, AMD и NVIDIA появятся чипы «Made in USA»: их будет выпускать TSMC на новых заводах в Аризоне 3 ч.
TSMC уже работает над освоением 1-нм техпроцесса, заявил министр экономики Тайваня 5 ч.
Электромобиль Apple выйдет позже, чем ожидалось, откажется от полного автопилота, но будет дешевле $100 000 6 ч.
Новая статья: Обзор смартфона Xiaomi 12T Pro: прямо как раньше 13 ч.
Мощность двухмоторного Polestar 2 теперь можно поднять на 68 л.с. через платное обновление ПО — и никаких подписок 13 ч.
X-Com представила серию типовых Intel-серверов под собственным брендом 17 ч.