Сегодня 24 ноября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → супермаркет

Таргетинг нового уровня: камеры в японском супермаркете стали наблюдать за покупателями для показа целевой рекламы

Супермаркет Aruk Mitajiri в японском городе Хофу при содействии Fujitsu запустил интеллектуальную систему наблюдения, которая следит за поведением посетителей, анализирует его при помощи искусственного интеллекта, чтобы демонстрировать им основанную на этих данных рекламу.

 Источник изображения: Andrew Leu / unsplash.com

Источник изображения: Andrew Leu / unsplash.com

Система следит за тем, как посетители магазина задерживаются у витрин, наклоняются к ним, берут в руки товары, сравнивают их и совершают прочие действия. Данные с камер транслируются на платформу генеративного ИИ, которая в виде «консьержа-аватара» делает им персональные предложения. В Fujitsu считают, что эта технология способствует возвращению покупателей к прилавкам с намерением приобрести конкретный товар.

Компания разработала эту платформу при содействии группы учёных под руководством Наото Ондзо (Naoto Onzo), директора Института маркетинга и коммуникаций при университете Васэда. Исследователи выдвинули гипотезу, что «на решения потребителей о покупке влияют теплота и компетентность, индикаторы осведомлённости поставщика услуг о личности и знаниях потребителя, а также дизайн и функциональность продукта». На основе этой гипотезы была разработана модель, которая «оценивает вероятность перемен в поведении при обслуживании клиента и [показе ему] рекламного контента на основе данных о поведении и атрибутах отдельных потребителей, проанализированных технологией распознавания человека».

В Fujitsu согласились, что эта идея имеет перспективы, поскольку клиенты хотят «увлекательного клиентоориентированного опыта», но разработка соответствующего контента требует времени, денег и кадровых ресурсов. ИИ делает то же быстрее и дешевле. Технология будет тестироваться в супермаркете до 15 октября, и основанное на этом пилотном проекте решение будет подготовлено уже до конца 2023 финансового года — он завершится 31 марта 2024 календарного года.


window-new
Soft
Hard
Тренды 🔥
World of Warcraft исполнилось 20 лет — это до сих пор самая популярная ролевая игра в мире 16 ч.
Microsoft хочет, чтобы у каждого человека был ИИ-помощник, а у каждого бизнеса — ИИ-агент 20 ч.
«Атака на ближайшего соседа» сработала — хакеры удалённо взломали компьютер через Wi-Fi поблизости 21 ч.
Илон Маск отделался выплатой $2923 за неявку для дачи показаний по делу о покупке Twitter 23-11 06:25
Microsoft открыла доступ к скандальной ИИ-функции Recall — пользователям разрешили ограничить её «подглядывания» 23-11 00:59
Новая статья: Death of the Reprobate: что не так на картине? Рецензия 23-11 00:05
Главный конкурент OpenAI получил $4 млрд на развитие ИИ без следов Хуанга 22-11 23:13
Valve раскрыла часть игр, которые получат скидку на осенней распродаже Steam — официальный трейлер акции 22-11 22:34
Threads получила «давно назревавшие улучшения» в поиске и тренды 22-11 22:17
Ubisoft рассказала о возможностях и инновациях стелс-механик в Assassin's Creed Shadows — новый геймплей 22-11 21:13
Nvidia заинтересована в получении HBM3E от Samsung и верит в сохранение международного сотрудничества при Трампе 2 ч.
xMEMS представила бескатушечные МЭМС-динамики для открытых наушников, ноутбуков и носимой электроники 9 ч.
Microsoft и Meta представили дизайн ИИ-стойки с раздельными шкафами для питания и IT-оборудования 16 ч.
Eviden создаст для Финляндии ИИ-суперкомпьютер Roihu производительностью 49 Пфлопс 16 ч.
Tesla признана самой опасной маркой машин — в этом есть и заслуга Илона Маска 18 ч.
iFixit не нашли улучшений ремонтопригодности у нового Apple MacBook Pro на чипе M4 Pro 18 ч.
Вселенское ДТП на скорости 3,2 млн км/ч — «Джемс Уэбб» пролил свет на столкновение галактик 18 ч.
Стартап Enfabrica выпустил чип ACF SuperNIC для ИИ-кластеров на базе GPU 19 ч.
На Amazon всплыло «устройство подачи пикселей» Intel Arc B580 19 ч.
«Аквариус» и «Группа Астра» представили ПАК облачной инфраструктуры Aquarius AIC 19 ч.