Теги → машинное зрение
Быстрый переход

Новая камера Intel RealSense поможет роботам ориентироваться без GPS

Intel представила новую камеру в серии RealSense с важной особенностью: она призвана наделить машины ощущением местности. Камера с длинным названием RealSense Tracking Camera T265 использует для отслеживания и навигации исключительно встроенные сенсоры и не нуждается во внешних датчиках, чтобы помочь с ориентацией роботов и различных автономных машин на местности даже в ситуациях, когда сигнал GPS ненадёжен или отсутствует.

Например, сельскохозяйственный дрон может как наносить на карту поле, так и адаптироваться на лету к препятствиям вроде деревьев, зданий или скал. В основе лежит та же аппаратная платформа Myriad 2, которая используется в других недавних проектах Intel и позволяет снимать большую часть нагрузки по обработке данных с основного процесса и за счёт этого экономить энергию батареи.

Единственным требованием камеры является потребляемая мощность в 1,5 Вт, подключение USB и достаточное количество памяти для работы — другими словами, T265 может быть без труда размещена на дроне. Поставки камеры T265 для машинного зрения и картографии начнутся 28 февраля, причём заявленная цена составляет 199 долларов.

Вряд ли подобное решение будет особенно востребовано в домашних проектах, но оно определённо поможет разработчикам, которые желают создавать продвинутые автономные устройства, не пытаясь делать подобные системы с нуля. Мы можем увидеть эти камеры, например, в автономных роботах, рассчитанных на использование внутри помещений или в беспилотных летательных аппаратах, доставляющих грузы в отдалённые районы.

Western Digital представила UFS-накопители для умных автомобильных систем

На днях компания Western Digital вновь расширила ассортимент однокорпусных флеш-накопителей iNAND. Двумя неделями ранее в линейке iNAND она выпустила однокорпусные накопители MC EU321 EFD с интерфейсом UFS 2.1 для широкого спектра применения в мобильных устройствах. Изюминкой новинок стало использование кристаллов 96-слойной памяти 3D NAND. Тем самым Western Digital и её производственный партнёр компания Toshiba Memory одними из первых начали коммерческие поставки 96-слойной памяти, что говорит о достаточной зрелости производства.

Western Digital

Western Digital

Многослойная память нового поколения пошла также на изготовление однокорпусных накопителей iNAND AT EU312 UFS EFD, которые предназначены для использования в развитых автомобильных системах и в городской инфраструктуре. В соответствии с требованиями отрасли память iNAND AT EU312 UFS EFD не только поддерживает коррекцию ошибок ECC, но также отвечает ряду индустриальных стандартов надёжности, включая JEDEC47, ISO26262 и AEC-Q100 Grade 3 и Grade 2. Например, поддержка стандарта AEC-Q100 Grade 2 гарантирует работоспособность памяти в диапазоне температур от –40 °C до +105 °C.

По сравнению с предыдущей продукцией в виде NAND-накопителей автомобильного назначения с интерфейсом eMMC, память iNAND AT EU312 UFS EFD с интерфейсом UFS 2.1 обладает увеличенной в 2,5 раза производительностью. Автомобили «умнеют» — объём собираемых и обрабатываемых автомобильными системами данных непрерывно растёт, что неуклонно и быстро повышает требования к объёму и скорости бортовой флеш-памяти машин. Чипы iNAND AT EU312 UFS EFD на памяти 3D NAND TLC способны записывать информацию на устоявшейся скорости до 550 Мбайт/с и считывать её со скоростью до 800 Мбайт/с. Память iNAND AT EU312 UFS EFD будет доступна в виде корпусов ёмкостью от 16 Гбайт до 256 Гбайт.

Учитывая специфику использования памяти Western Digital iNAND AT EU312 UFS EFD, для OEM-производителей созданы удобные инструменты по изменению микрокода накопителей под различные задачи — машинное зрение, сбор данных, анализ, дополненная реальность или использование в системах автоматической помощи водителю. Также представленная память поддерживает ряд функций самодиагностики, что предотвращает внезапный выход оборудования из строя. Для электроники автомобилей — это не самое последнее требование.

NVIDIA представила систему Jetson Xavier для интеллектуальных роботов

NVIDIA намерена играть более значимую роль в будущем робототехники с помощью своей платформы Isaac, полагающейся на новое решение Jetson Xavier. Название покажется знакомым, ведь продукт построен на том же процессоре, что используется в вычислительной платформе Xavier Drive для самоуправляемых автомобилей.

Jetson Xavier демонстрирует более чем 20-кратное преимущество над существующей системой Jetson TX2 — об этом сообщил руководитель NVIDIA Дженсен Хуанг (Jen-Hsun Huang) в нулевой день компьютерной выставки Computex 2018, проходящей на Тайване. Jetson была востребована в продуктах вроде дронов и роботов доставки, новое же поколение компания продвигает в более широком направлении: как первый в мире компьютер для интеллектуальных роботов.

Состоящий из 9 млрд транзисторов, Jetson Xavier объединяет 6 различных вычислительных блоков: 8-ядерный процессор с архитектурой ARM, графический ускоритель Volta Tensor Core, два чипа глубокого обучения NVDLA, а также процессоры компьютерного зрения, обработки видео и изображения. Xavier выполняет 30 триллионов операций в секунду и потребляет всего 30 Вт. NVIDIA утверждает, что данное решение по продуктивности эквивалентно существующим рабочим станциям стоимостью $10 000 с энергопотреблением в киловатт.

Как и в случае с самоходными автомобилями, вся эта вычислительная мощь поможет решать задачи машинного обучения и обработки данных с сенсоров для компьютерного зрения для любых роботов, нуждающихся в свободной навигации в пространстве и естественном взаимодействии с людьми.

Jetson Xavier является центральной частью платформы робототехники NVIDIA Isaac, которая следует одноимённой инициативе, анонсированной в прошлом году наряду с инструментами разработки интеллектуальных роботов. Чтобы помочь в разработке конечных продуктов, компания предлагает три продукта: Isaac SDK — набор API и инструментов для создания программных платформ и алгоритмов с полностью ускоренными библиотеками; Isaac IMX — набор готовых алгоритмов NVIDIA для роботов; Isaac Sim — высокореалистичное виртуальное окружение для машинного обучения с аппаратным тестированием на системе Jetson Xavier.

Дабы не возникало иллюзий, что Jetson Xavier может заменить собой представленную в конце прошлого года платформу Drive Pegasus, Дженсен Хуанг пояснил, что первая рассчитана на полуавтономные транспортные средства, тогда как последняя, обладая мощностью в 280 тфлопс, способна обеспечить нужды полностью автономных такси.

Разработчики смогут заполучить набор инструментов Jetson Xavier в августе по цене от $1300. Ориентируясь на стоимость, можно сказать, что продукт не рассчитан на использование в рядовых потребительских устройствах. Но, хотелось бы надеяться, он позволит создать более впечатляющих роботов, чем ASUS Zenbo.

Видео: автономная навигация робота SpotMini от Boston Dynamics

Boston Dynamics известна своими роботами, движения которых подчас удивительно напоминают животных и человека. В одном из последних роликов её модель SpotMini автономно перемещается по длинному заданному маршруту через большой офис и лабораторию, двигаясь внутри и снаружи помещений.

Перед тестом робот запускался вручную, чтобы создать карту пространства с помощью сбора визуальных данных с видеокамер, установленных на передней, задней и боковых сторонах робота. Кое-кто может заметить на видео QR-коды — они используются исключительно для измерения показателей производительности, не для помощи SpotMini в навигации.

Во время последующего автономного запуска SpotMini использует данные с камер уже для того, чтобы позиционировать себя на карте, обнаруживать и избегать возможные препятствия на своём пути. Как только оператор нажимает «GO» в начале видео, робот перемещается самостоятельно. Общее время прогулки по маршруту, записанному на ролике, составляет чуть более 6 минут (большинство отрывков на видео воспроизводится с ускорением).

Ролик может быть интересен не только с точки зрения технических достижений Boston Dynamics, но и просто всем, кому любопытно взглянуть на обстановку, в которой разрабатываются и тестируются впечатляющие роботизированные машины. Робот преодолевает немалое расстояние преимущественно по ровной поверхности (хотя есть и участок с лестницами), а затем возвращается по тому же маршруту обратно.

Со SpotMini публика знакома уже почти два года. В первый раз компания показала эту уменьшенную версию модели Spot в июне 2016 года: за счёт отказа от гидравлики в пользу электромоторов модель стала менее шумной, а также получила опциональную голову-манипулятор на длинной шее. В ноябре 2017 года робот стал более стильным за счёт жёлтых пластин, покрывающих его ноги и тело, а движения машины стали плавнее. Позже Boston Dynamics публиковала видео, как SpotMini открывает двери для себя и сородичей и как реагирует на попытки человека помешать ему войти в дверь. Кстати, недавно Boston Dynamics также разместила видео, на котором запечатлён антропоморфный Atlas на прогулке.

Сервис Google Lens стал доступен пользователям iOS

Функция Google Lens, которая изначально была доступной лишь владельцам Pixel и не так давно пришла на другие Android-гаджеты, недолго пробыла в статусе эксклюзива указанной мобильной платформы. Теперь оценить преимущества ПО, предлагающего машинное зрение с повадками ИИ для визуального поиска в режиме реального времени, смогут и обладатели Apple-смартфонов. 

Напомним, что Google Lens представляет собой программный алгоритм для распознавания изображений с указанием какой именно предмет/объект попал в кадр. К примеру, сервис может идентифицировать название цветка или растения на фотографии, памятников архитектуры, определить фильм по постеру или магазин по его витрине. Ещё одной важной особенностью Google Lens является способность оцифровать данные с визитной карточки или иной документации, чтобы добавить их в автоматическом режиме к контактам из адресной книги. 

Если Google Lens по силу справиться с поставленной задачей, то на экране мобильного устройства появится карточка с описанием содержимого изображения, а также ссылки, по которым пользователь сможет получить более детальную информацию о нём.

Поддержка сервисом Google Photos функции Google Lens уже доступна пользователям iOS в некоторых регионах. Полномасштабная интеграция будет завершена в течение следующей недели. 

Intel и Amazon представили интеллектуальную камеру DeepLens

На ежегодной конференции re:Invent в Лас-Вегасе компании Intel и Amazon Web Services (AWS) презентовали беспроводную камеру DeepLens для создания продуктов, использующих искусственный интеллект и технологии машинного обучения.

DeepLens построена на базе процессора Intel Atom X5 со встроенным графическим ядром. Полагаясь на собственные вычислительные ресурсы, камера может распознавать объекты и исполнять заданные разработчиками модели компьютерного зрения в реальном времени.

Поддерживаются программные продукты и библиотеки глубинного обучения, в том числе Intel Compute Library для нейронных сетей Deep Neural Network (clDNN) и Apache MXNet. Поддержка Caffe2 и Google Tensorflow появится в І квартале 2018 года.

Машинное зрение позволяет существенно продвинуть организацию умного дома, розничной торговли, промышленности и других направлений. Благодаря сотрудничеству Intel и AWS разработчикам предоставлены новые интеллектуальные инструменты в этой области.

Недавно Intel представила сопутствующий набор инструментов Speech Enabling, включающий аудиомодуль с голосовым управлением в дальней зоне, использующий возможности облачной службы голосового помощника Amazon Alexa Voice Service.

ИИ научили воссоздавать движки игр посредством наблюдения за геймплеем

Исследователи Технологического института Джорджии научили искусственный интеллект не играть в игры, как это бывает обычно, а изучать принцип их работы. Они описали систему, способную воссоздать движок проекта вроде Super Mario Bros. посредством простого наблюдения за игрой. У искусственного интеллекта нет доступа к коду: он просто смотрит на пиксели и обучается. Результаты не идеальны, но всё же впечатляют.

Система имеет ряд ограничений. Она не способна узнать об игре всё с нуля. Изначально она имеет доступ к двум важным наборам данных: визуальному словарю спрайтов и базе основных концепций вроде расположения объектов и их скорости. Всё это ИИ использует, чтобы анализировать то, что он видит. Компьютер разбивает игровой процесс на кадры, помечает их и ищет правила, которые объясняют действия на экране.

«Для каждого кадра видео у нас есть анализатор, который собирает факты, — рассказал ведущий автор исследования Мэтью Гуздиал (Matthew Guzdial). — Например, в каком состоянии анимации находится Марио или с какой скоростью перемещаются объекты. Представьте случай, когда в одном кадре Марио находится над гумбой (злой гриб, один из противников главного героя — прим.), а в следующем кадре гумбы уже нет. Так появляется правило, из которого следует, что когда Марио находится прямо над гумбой и его скорость отрицательная, гумба исчезает».

Система записывает правила как серии логических умозаключений и объединяет их для получения примерного представления о движке. Эти правила могут извлекаться и конвертироваться в целый ряд языков программирования, используемых для создания самой игры.

Сейчас ИИ работает только с двухмерными платформерами, поскольку именно человек указывает, что может произойти в той или иной игре. В трёхмерной игре на это уходило бы гораздо больше времени. Кроме того, потребовались бы гораздо более продвинутые инструменты машинного зрения.

Исследователи думают, что позже технологию можно будет использовать в реальной жизни. «Я уверен, в будущем она сможет [анализировать] ограниченные сферы реальности», — сказал Гуздиал. 

Intel анонсировала процессор машинного зрения Movidius Myriad X

Помимо сферы глубинного машинного обучения и тренировки нейросетей в наше время активно развивается такая сопутствующая и необходимая им отрасль, как машинное зрение. Обработка визуальной информации задача достаточно сложная, и у основных процессоров найдутся задачи поважнее, поэтому компании-разработчики микроэлектроники создают свои версии визуальных процессоров (VPU). Одну из таких разработок под названием Movidius Myriad X представила корпорация Intel. Это первый в мире визуальный процессор с собственной нейросетью на борту. Мощность нейросети составляет 1 триллион операций в секунду (TOPS), что меньше, нежели у чипа Google, но Myriad X намного меньше и предназначен для использования в экономичных решениях.

Полная же производительность достигает 4 TOPS. Внутри имеются полностью программируемые 128-битные векторные процессоры типа VLIW (Very Long Instruction Word), всего их 16, что отлично подходит для задач машинного зрения, в которых требуется параллельная обработка нескольких потоков данных. Внешний интерфейс представлен 16 линиями шины MIPI, которая позволяет подключать до 8 RGB-камер с разрешением HD (по всей видимости, речь идёт о разрешении 720p, поскольку приставка Full отсутствует), а тотальная пропускная способность этого интерфейса составляет 700 мегапикселей в секунду. На борту чипа также имеются различные аппаратные средства ускорения обработки таких параметров, как оптический поток (изображение видимого движения объекта) и глубины стереопанорамы. Основные ресурсы чипа при этом не расходуются. Всего таких аппаратных ускорителей 20.

Movidius Myriad X содержит в своём составе 2,5 Мбайт гомогенной интегральной памяти с производительностью до 450 Гбайт/с — это своеобразный высокоскоростной кеш, без которого работа с потоком данных на уровне 700 мегапикселей в секунду была бы невозможной или весьма затруднительной. Серия процессоров Intel Movidius уже не нова, но Myriad X — третье и самое последнее, а также наиболее совершенное их поколение. Эти чипы благодаря своей мощности, экономичности и компактности помогут сделать умнее почти любую технику, зависящую от машинного зрения — от автопилотов автомобилей до умных квадрокоптеров и роботов-доставщиков товаров. Ускорители Movidius уже существуют в виде USB-адаптеров и облегчат задачу разработки соответствующего программного обеспечения, поскольку подключить их можно к любой рабочей станции или ноутбуку. 

Prisma начнёт продавать свои технологии машинного зрения другим компаниям

Prisma, известная как разработчик одноимённого приложения для наложения фотофильтров на базе ИИ, переключается на сегмент B2B. Компания не собирается избавляться от основного продукта, но в будущем сосредоточится на продаже технологий машинного зрения другим организациям.

«Мы видим большие возможности в глубоком обучении и коммуникациях, — сказал сайту The Verge генеральный директор Prisma Алексей Моисеенков. — Мы считаем, многим компаниям необходимы знания в этой области. Даже Google покупает компании в сфере компьютерного зрения. Мы можем помочь предприятиям добавить машинное зрение в их приложения, поскольку мы понимаем, как внедрять эту технологию».

Компания запустила новый сайт для продвижения своих услуг. Это её собственные инструменты, среди которых — сегментация (отделение переднего плана фотографии от заднего), составление карты лица, а также распознавание сцен и объектов. Технологии Prisma на базе нейронных сетей работают не в облаке, а прямо на устройстве пользователя, что обеспечивает большую скорость и безопасность обрабатываемых приложением данных.

Несмотря на то, что Facebook скопировала фильтры Prisma, Моисеенков говорит, что он не намеревался конкурировать с крупными социальными сетями. «Мы никогда не думали, что станем соперниками Facebook — мы небольшой стартап с небольшим бюджетом», — заявил основатель компании. Но, добавил он, популярность этих фильтров демонстрирует, что для технологий Prisma можно найти множество применений.

Компания продолжит поддерживать приложение. Через него она будет демонстрировать свои последние достижения. Также стартап продолжит экспериментировать со спонсорскими фильтрами.

По словам Моисеенкова, у Prisma от 5 до 10 млн активных пользователей, большинство из которых живут в США. Также у компании есть приложение Sticky AI, которое преобразует селфи в стикеры.

Qualcomm показала высокоэффективную камеру с датчиком глубины

Двойные камеры уже так устарели, не правда ли? По крайней мере, Qualcomm готовится к развёртыванию камер нового поколения для экосистемы Android. Компания добавила три новых модуля в свою программу Spectra Module, позволяющую производителям использовать готовые системы камер в своих продуктах. Речь идёт о фронтальном сканере радужной оболочки глаза, системе машинного зрения начального уровня и системе машинного зрения высшего качества. Последние две предлагают пассивные и активные технологии чувствительности к глубине, соответственно, опирающиеся на переработанную архитектуру процессора цифровой обработки сигнала (ISP) Spectra второго поколения.

Среди трёх новых модулей, конечно, наиболее интересна продвинутая система машинного зрения. Решение способно активно отслеживать изменения глубины картинки с помощью инфракрасного источника света, инфракрасной камеры и 16-Мп (или 20-Мп, в зависимости от конфигурации) камеры. Лампа излучает свет, создающий точечный шаблон (используется особый фильтр), а инфракрасная камера считывает эту структуру. Затем процессор анализирует искривление точек на поверхности объектов и расстояние между точками, создавая на основании этого довольно точную карту глубины. Благодаря применению инфракрасного освещения система может работать и в темноте.

Во время недавней презентации в Нью-Йорке представители Qualcomm показали журналистам приведённое видео. Судя по нему, система довольно точно способна в реальном времени создавать объёмную картинку. В примере показывалась съёмка рук сверху при игре на пианино. Новая технология позволяла изменять ракурс и видеть ту же игру под другими углами на основе расчётов. Модуль создаёт картинку, задействуя 10 тысяч точек, и способен отличать расстояние между соседними точками от 0,125 мм, создавая, таким образом, весьма детализированную карту глубины, на относительно близком расстоянии.

Qualcomm считает, что в перспективе технологии оценки глубины изображения будут играть всё большую роль в мобильной электронике. И это действительно так, ведь вариантов применения таких возможностей масса. Наиболее распространённый — искусственное создание «портретного» эффекта малой глубины резкости на фотографиях. Также технология может применяться для точного определения лиц, распознавания и идентификации, реконструкции 3D-объектов, более точной дополненной реальности, картографии и так далее.

Другие два анонсированных Qualcomm модуля тоже полезны. Система машинного зрения начального уровня позволяет добиваться в бюджетных аппаратах тех же возможностей, хотя с меньшей точностью. Вдобавок, по словам производителя, она потребляет больше энергии по сравнению с флагманской. Модуль же идентификации по радужной оболочке глаза способен работать даже когда пользователь в солнцезащитных очках — представители компании продемонстрировали это журналистам на практике во время презентации.

К сожалению, пока не вполне ясно, когда новые камеры Qualcomm появятся в реальных устройствах, но компания обещает, что такие модули станут частью её новой мобильной платформы. Так что ждём анонса следующих однокристальных систем, оснащённых процессорами Spectra второго поколения. До появления же рыночных продуктов пройдёт, вероятно, ещё не менее года.

Facebook поглотила немецкую компанию, специализирующуюся на машинном зрении

Крупнейшая социальная сеть в мире, количество пользователей которой составляет почти 2 млрд человек, поглотила очередную мелкую компанию. Ею стала немецкая Fayteq, занимающаяся технологиями машинного зрения и разрабатывающая дополнения к программам вроде Adobe After Effects. Её решения позволяли интеллектуально отслеживать, выделять, удалять и добавлять объекты в оригинальное видео.

Деталей о поглощении немного, но Facebook подтвердила сделку ряду авторитетных изданий после первоначальной публикации новости на ресурсе Deutsche Startups. Вдобавок после поглощения Fayteq опубликовала на своём сайте сообщение для клиентов, в котором уведомила, что выпущенные ранее продукты и службы более недоступны для приобретения.

Технологии, разработанные специалистами Fayteq, могут быть использованы в разнообразных видеослужбах и видеофункциях компании вроде Facebook Live или Stories или интегрированы в платформу эффектов для камеры (Camera Effects Platform), которая включает инструменты для разработчиков, позволяющие задействовать возможности дополненной реальности.

Стоит отметить, что Facebook, как и большинство других крупных и влиятельных IT-компаний, непрестанно ищет перспективные стартапы и поглощает их или инвестирует значительные суммы в обмен на существенную долю акций. Среди последних поглощений Facebook можно отметить Source3, опыт которой социальная сеть собирается применить для борьбы с видеопиратством, а также Ozlo, занимающаяся разработками в области искусственного интеллекта.

Нейронные сети Google упростят создание приложений с поддержкой распознавания объектов

Смартфоны быстро стали одной из главных обителей искусственного интеллекта. На замену алгоритмам, которые работают в облаке и передают обработанную информацию на устройства через Интернет, пришло программное обеспечение, которое производит вычисления прямо на телефонах и планшетах. Google уделяет такому ПО особое внимание.

Последний пример искусственного интеллекта от калифорнийского поискового гиганта — MobileNets, набор нейронных сетей машинного зрения, которые адаптированы под работу на мобильных устройствах. Есть нейронные сети разных размеров: чем больше сеть, тем более мощный процессор должен быть у телефона.

MobileNets может использоваться для анализа лиц, обнаружения объектов, геопозиционирования фотографий. Нейронная сеть может, например, определить породу собаки на изображении. Инструменты легко поддаются адаптации, поэтому им можно найти массу применений. По словам Google, производительность сетей варьируется в зависимости от задач. Но в целом они либо соответствуют современным стандартам, либо близки к ним.

Пользователям в ближайшем будущем стоит ждать появления массы новых мобильных приложений с функциями ИИ. Тот факт, что искусственный интеллект работает прямо на устройстве, имеет ряд преимуществ, включая более высокие производительность и удобство, а также безопасность. Если быть точнее, то вам не нужно подключаться к Сети и ваши данные не отправляются на удалённые серверы.

Новый сенсор Sony отслеживает объекты со скоростью 1000 кадров в секунду

Корпорация Sony объявила о разработке высокоскоростного датчика изображения, предназначенного для применения в системах технического зрения.

Представленное изделие получило обозначение IMX382. Оно содержит 1/3,2-дюймовый КМОП-сенсор с обратной засветкой, насчитывающий 1,27 млн пикселей. Кроме того, в состав решения входит схема обработки сигналов.

Утверждается, что сенсор даёт возможность отслеживать объекты со скоростью 1000 кадров в секунду. Правда, в таком режиме разрешение составляет только 640 × 470 точек, а глубина цвета — 4 бита. При повышении разрешения до Quad VGA (1280 × 960 пикселей) и сохранении 4-битной глубины цвета частота съёмки сокращается вдвое — до 500 кадров в секунду.

Кроме того, датчик позволяет захватывать изображение с разрешением 1280 × 960 и 640 × 470 точек при глубине цвета 12 бит. В таких режимах скорость составляет соответственно 60 и 120 кадров в секунду.

Сенсор даёт возможность определять центр масс и вектор движения объектов. На базе датчика могут реализовываться точные системы машинного зрения.

Пробные поставки изделия корпорация Sony намерена организовать в октябре нынешнего года. Ориентировочная цена — 900 долларов США. 

Pinterest представила Lens — аналог Shazam для реальных объектов

Pinterest представила Lens — новый инструмент визуального поиска, использующий машинное зрение для обнаружения объектов в реальном мире и предлагающий пользователю просмотреть похожие предметы в сервисе. Функция, находящаяся на данный момент в стадии бета-тестирования и представленная в мобильном приложении Pinterest, является своего рода Shazam для поиска объектов. Достаточно направить камеру на еду, мебель или даже ночное небо, чтобы сервис показал похожие предметы.

Во время демонстрации сооснователь Pinterest Эван Шарп (Evan Sharp) использовал Lens для обнаружения граната. Так ему удалось найти в сервисе гранатовый хлеб, гранатовые сэндвичи и советы по чистке гранатов. Также он показал, как мальчик направляет телефон в ночное небо, после чего сервис находит целый ряд ночных пейзажей. «Это позволяет вашим глазам осуществлять поиск», — заявил Шарп.

По словам компании, появление Lens привело к созданию новой категории результатов поиска, показывающей объекты в каком-либо контексте. Например, направив камеру на настенные часы, пользователь может найти фотографии комнат, в которых часы являются частью декора. Аналогично функция работает с одеждой — при захвате свитера Pinterest представит изображения свитеров в различных стилях.

Lens базируется на технологии визуального поиска, которую компания представила ещё в ноябре 2015 года. Pinterest постоянно улучшает технологию: так, связанные пины теперь можно находить, нажимая на кружок в правом нижнем углу каждой публикации. Также была добавлена возможность определять предметы на изображениях и сразу их покупать.

Функция Lens доступна в приложениях Pinterest для iOS и Android — пока, правда, только в США.

window-new
Soft
Hard
Тренды 🔥