Теги → машинное обучение
Быстрый переход

Amazon может открыть 3000 магазинов без кассиров к 2021 году

Недавно Amazon открыла первый магазин без кассиров за пределами родного Сиэтла. А теперь издание Bloomberg сообщает, что компания собирается запустить около 3000 таких торговых точек Amazon Go к 2021 году. Это был бы самый агрессивный шаг Amazon в области создания розничной сети магазинов с момента покупки Whole Foods в 2016 году. Это также значительно изменило бы потенциальный офлайновый успех компании в розничной торговле, поскольку ей придётся конкурировать с крупными сетями вроде Kroger, CVS, 7-Eleven, Walmart и Target.

Первый магазин Go, в котором используются датчики и программное обеспечение для автоматизации, позволяющее клиентам совершать покупки и оформление заказа без взаимодействия с людьми или кассами, открылся в Сиэтле в конце 2016 года. С тех пор Amazon тщательно изучила модель и не спешила двигаться вперёд слишком быстро. Второй магазин Go появился только в прошлом месяце, также в Сиэтле, а третий открыл свои двери в Чикаго в начале этой недели. По данным последних списков вакансий, в этом и 2019 году планируется строительство магазинов в Чикаго и Сан-Франциско.

В статье Blomberg амбиции Amazon в отношении своих магазинов Go описываются гораздо более грандиозно, чем в прошлых публичных заявлениях компании. Согласно этим данным, генеральный директор Джефф Безос (Jeff Bezos) хочет развивать магазины Go в самых разных направлениях. Например, для свежеприготовленных упакованных блюд или более похожие на 7-Eleven с ограниченным выбором блюд и готовыми продуктами. В общем, Amazon Go вполне могут сделать компанию конкурентом даже для заведений быстрого питания.

Модель Amazon Go, несмотря на свои новшества в области обслуживания без кассиров и продавцов, нацелена быть максимально понятной и знакомой покупателям. С помощью своей учётной записи Amazon на смартфоне пользователи могут брать с полок любые товары: бутерброды, салаты, бакалейные товары и предметы домашнего обихода. Датчики и программное обеспечение, которое обучено анализу предметов на прилавках, обновляют корзину покупок в режиме реального времени, а оплата происходит автоматически, как только человек покидает магазин.

По словам Bloomberg, если Amazon нацелит некоторые магазины Go на продажу упакованных блюд для потребителей на ходу, это позволит увеличить прибыль каждой новой торговой точки и ускорить работу Amazon, поскольку упакованные товары легче отслеживать ограниченным количеством датчиков и камер. Размещение нескольких таких магазинов неподалёку друг от друга поможет централизовать производство пищевых продуктов, если магазины сосредоточатся на продаже свежей еды вроде сэндвичей и салатов. Согласно сообщениям, Amazon планирует открыть до конца года 10 магазинов, ещё 50 точек в крупных городах — в следующем году, после чего последует экспоненциальный рост в 2020 и 2021 годах, если не возникнет особых непредвиденных препятствий.

Котировки акций крупных американских розничных сетей вроде Walmart и Target начали снижаться после новостей: становится ясно, что Amazon через несколько лет начнёт всерьёз выходить на традиционные рынки продуктов, ресторанов и домашних товаров. Amazon уже угрожает этим видам бизнеса, добиваясь доставки продуктов и товаров для дома в день заказа и путём укрепления связей между общенациональной сетью магазинов Whole Foods и её службой Prime Subscription.

Samsung планирует наделить все свои устройства средствами ИИ

Компания Samsung намерена значительно ускорить научные исследования в сфере искусственного интеллекта (ИИ) и расширить использование соответствующих технологий.

Южнокорейский гигант уже открыл несколько центров искусственного интеллекта. Такие подразделения, в частности, появились в Кембридже (Великобритания) и Торонто (Канада). Кроме того, ИИ-центр в этом году начал работу в нашей стране — он находится в Москве.

В течение нескольких следующих лет, по мнению Samsung, устройства с поддержкой ИИ будут генерировать обширные объёмы данных, которые помогут развернуть качественно новые «умные» сервисы в соответствии с предпочтениями пользователей. Поэтому до конца десятилетия компания намерена максимально расширить сферу применения средств искусственного интеллекта.

«К 2020 году все устройства Samsung будут наделены технологиями искусственного интеллекта с целью создания новых возможностей и потенциала для пользователей», — сообщила Мая Пантич (Maja Pantic), руководитель подразделения Samsung по системам ИИ.

Для создания пользовательской экосистемы Samsung планирует построить легко масштабируемую платформу ИИ, которая будет предоставлять глубокое понимание пользовательских предпочтений и поведенческих характеристик. Ожидается, что устройства с технологиями ИИ сделают жизнь людей проще и комфортнее, а также обеспечат высокий уровень безопасности пользователей.

Samsung планирует, что к 2020 году штат центров искусственного интеллекта компании во всём мире будет насчитывать около 1 тыс. исследователей, которые будут разрабатывать решения на базе искусственного интеллекта, способные постоянно обучаться и улучшать жизнь граждан. 

Два ведущих инженера из Tesla переметнулись в ИИ-стартап Дэвида Дитцеля

На конференции Hot Chips 2018 глава ИИ-стартапа компании Esperanto Technologies Дэвид Дитцель сообщил, что принял на работу двух ведущих инженеров из компании Tesla. Весной из Tesla ушёл талантливый разработчик микропроцессорных архитектур Джим Келлер (Jim Keller), который занял одну из руководящих должностей в компании Intel. За ним компанию Tesla начали массово покидать специалисты помельче. Интересно, что при этом Tesla собирается разрабатывать собственный процессор для бортового компьютера своих электрокаров. Кто это будет делать — загадка. Дитцель как раз принял на работу фактически архитекторов SoC Tesla: Дэвида Гласко (David Glasco) и Дэна Бейли (Dan Bailey).

Дэвид Дитцель на конференции RISC-V Workshop (PC Watch)

Дэвид Дитцель на конференции RISC-V Workshop (PC Watch)

Оба новых специалиста Esperanto Technologies являются опытными ветеранами полупроводниковой отрасли. Наличие таковых способно усилить любую команду разработчиков, и компании Tesla можно только посочувствовать. В Tesla Дэвид Гласко возглавлял направление по разработке однокристального процессора для автопилота машин компании, а Дэн Бейли занимался схемотехникой процессоров. В компании Esperanto Гласко назначен вице-президентом инженерного отдела, а Бейли занял должность руководителя по разработкам.

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Послужной список обоих специалистов вызывает крайнее уважение. До Tesla Гласко был старшим руководителем отдела компании AMD по разработке серверных однокристальных процессоров, а до этого 12 лет проработал в компании NVIDIA. Дэн Бейли тоже работал в AMD. Был ведущим разработчиком. До Tesla он трудился в компании Digital Equipment в проекте по разработке процессора Alpha. Компания Esperanto Дитцеля насчитывает всего 100 инженеров, но если все они подобного уровня, то её конкурентам должно быть неуютно.

Что касается самой компании Esperanto Technologies, то она возникла на горизонте в ноябре прошлого года как разработчик решений для машинного обучения. Отличительная особенность разработки Esperanto — опора на открытую процессорную архитектуру RISC-V. У Esperanto уже есть прототип архитектуры и она или её варианты чрезвычайно приглянулись компании Western Digital, которая хочет сделать контроллеры HDD значительно «умнее». Но это уже другая история.

Uber разделит расходы на частную поездку и служебную командировку при помощи машинного обучения

Uber анонсировала новую программу под названием «Рекомендации по профилю» (Profile Recommendations), которая использует преимущества машинного обучения для снижения числа ошибок пассажира при переключении между личными и бизнес-счетами, когда тот пользуется сервисом и для частных, и для служебных поездок.

Нет ничего необычного в том, чтобы иметь оба типа счетов, и бывает, что человек забывает переключаться между ними, когда пользуется услугами Uber, утверждают в компании. «Используя машинное обучение, Uber может предсказать, какой профиль и соответствующий метод оплаты должен использовать сотрудник, и предоставить соответствующую рекомендацию», — сообщил в блоге Ронни Гурион (Ronnie Gurion), генеральный управляющий и глава Uber for Business, рассказывая о новой функции.

«Эта новая функция не только экономит время сотрудников и администраторов, но также сокращает задержки, связанные с проверкой отчётов», — добавил Гурион.

Uber также объявил о поддержке ряда программ для составления отчётов о расходах с целью упрощения интеграции с этими системами. В настоящее время функция интегрирована с программами Certify, Chrome River, Concur и Expensify. Начиная с сентября, в ней будет добавлена поддержка Expensya, Happay, Rydoo, Zeno от Serko и Zoho Expense. Всё это должно помочь владельцам бизнес-счетов более эффективно вести учёт расходов на поездки, одновременно интегрируя свои аккаунты со многими ведущими программами учёта расходов, чтобы без труда перемещать сведения из базы данных Uber в системы учёта компании.

Дефицит GDDR6 может негативно сказаться на поставках новых видеокарт

Видеокарты NVIDIA и AMD следующего поколения будут использовать более быструю память GDDR6, однако своевременные поставки этих чипов, как сообщает EE Times, могут быть нарушены, если производителям не удастся быстро нарастить выпуск.

Высокий спрос на передовой тип оперативной памяти исходит из сектора решений для искусственного интеллекта, машинного обучения, криптовалютных ускорителей, автомобильной электроники, виртуальной и дополненной реальности, обработки видео высокого разрешения, дата-центров и сетевого оборудования. Следующая игровая консоль Xbox также будет использовать GDDR6.

Производители, конечно, стараются активно реагировать на потребности индустрии: Micron Technology недавно приступила к производству 8-Гбит чипов GDDR6, а Samsung ещё в начале года начала выпуск 16-Гбит кристаллов.

Директор подразделения вычислительных сетей Micron Андреас Шлапка (Andreas Schlapka) сказал, что за последние 3 года к традиционным применениям GDDR в области видеокарт и игровых консолей присоединились модули автономного вождения и сетевые решения. В современных автомобилях высокоскоростная память необходима для обработки в реальном времени огромных массивов данных от датчиков и камер. Расширенные системы помощи водителю (ADAS) должны реагировать мгновенно. К тому же появляется всё больше графических информационных панелей.

GDDR используется и в передовых картах сетевых интерфейсов (NIC). Пять лет назад самым крупным потоком в центрах обработки данных был трафик между терминалом и узлами. Теперь в центрах обработки данных с одного узла на другой передаётся гораздо больше информации, что существенно поднимает требования к пропускной способности.

«Если вы тренируете нейронную сеть, то стремитесь пропустить через неё как можно больше данных. Их нужно загрузить в память, а затем довольно быстро обработать. В этом случае GDDR становится важной частью процесса и очень хорошим решением», — подчеркнул Андреас Шлапка, добавив, что любые высокопроизводительные вычисления, особенно искусственный интеллект, выигрывают от пропускной способности GDDR.

Во многих из перечисленных направлений могла бы использоваться память HBM2, однако GDDR6 предоставляет пропускную способность до 20 Гбит/с, порой превосходя по этому показателю HBM2. К тому же она дешевле, что заставляет и в других секторах за пределами рынка видеокарт полагаться на этот тип памяти.

Подобные расхождения в потребностях рынках и возможностях производителей их обеспечить, как правило, корректируются ростом цен. Тем не менее, уже проходили слухи, что NVIDIA благоразумно подготовила огромные запасы видеокарт следующего поколения во избежание дефицита.

Google создала ИИ-ускоритель для чайников, холодильников, светофоров и прочего

Как известно, компания Google самостоятельно разрабатывает заказные БИС или ASIC для ускорителей Tensor Processing Unit (TPU) по работе с моделями машинного обучения (ML). В компании делают акцент на матричные или тензорные вычисления. До сих пор компания реализовывала проекты по ускорению моделей с помощью фреймворка TensorFlow на базе центров по обработке данных. С настоящего времени Google собирается перенести задачи по принятию решений в конечные (периферийные) устройства масштаба вещей с подключением к Интернету. Иначе говоря, вооружить миниатюрные датчики и модули электронными «мозгами», которые в масштабе реального времени смогут принимать то или иное решение.

Google ASIC Edge TPU

Google ASIC Edge TPU

Для датчиков и модулей IoT компания разработала ASIC Edge TPU миниатюрных размеров. О габаритах чипа можно судить по фотографии выше, где он размещён на 19-мм монете в один цент США. При проектировании ускорителя акцент был сделан на гипернизкое потребление, поскольку датчики и модули вещей с подключением к Интернету в массе будут располагать только батарейным питанием. Разработка отвечает трём требованиям: максимальным соотношением производительность на ватт, максимальным соотношением производительность на доллар и, конечно же, решение должно быть как можно меньше по размерам.

Модель работы «двухфакторной» системы ИИ по обучению моделей и принятию решений

Модель работы «двухфакторной» системы ИИ по обучению моделей и принятию решений

По понятным причинам столь миниатюрный чип не способен обучаться моделям машинного обучения. Поэтому Google реализовала проект в виде двух ступеней. Обучаться ML будут удалённые центры по обработке данных. Ускоритель Edge TPU в конечных устройствах будет оперировать обученными моделями и принимать решения на базе обмена с удалёнными базами. Сфера использования такого тандема, уверены в Google, предельно широка. Датчики на местах моментально смогут определять брак в изделиях на заводских конвейерах, подсказывать владельцам магазинов о скором исчезновении товаров на полках, регулировать движение транспорта, включая автопилоты и, в общем случае, управлять процессами, в которых всегда что-то может пойти не так.

Набор для разрабочиков с Google Edge TPU

Набор для разработчиков с Google Edge TPU

С октября текущего года компания начнёт распространять набор для разработчиков с ускорителями Edge TPU. Набор включает модуль SOM (system on module), который содержит Google Edge TPU, процессор NXP, Wi-Fi и чип безопасности Microchip. Набор уже можно заказать. Цена вопроса не раскрывается.

Windows 10 с помощью машинного обучения будет выбирать оптимальное время установки обновлений

Одна из самых неприятных особенностей Windows 10 — это то, что операционная система может начать устанавливать обновления прямо тогда, когда вы активно ей пользуетесь. Microsoft однажды уже попыталась решить эту проблему, добавив возможность откладывать установку обновлений. Но многие пользователи продолжают жаловаться на перезагрузки компьютера прямо во время работы.

Редмондский гигант отреагировал на жалобы. «Мы услышали вас и, чтобы облегчить вашу боль, обновили систему перезагрузки при ожидании установки обновлений, сделав её более адаптивной и упреждающей», — рассказала руководитель программы предварительной оценки Windows Дона Саркар (Dona Sarkar).

Microsoft создала «предиктивную модель», которая с помощью машинного обучения выбирает максимально комфортное для пользователя время перезагрузки. «Мы не только будем проверять, пользуетесь ли вы устройством в данный момент, прежде чем перезагрузить его, но и будем пытаться определить, могли ли вы отойти от устройства, только чтобы налить кофе и тут же вернуться», — объяснила Саркар.

Компания некоторое время тестировала систему среди своих сотрудников, и результаты, по её словам, многообещающие. Теперь технологию могут опробовать пользователи программы предварительной оценки Windows — она доступна в обновлениях Redstone 5 и 19H1.

ИИ научили различать радужные оболочки живых и мёртвых людей

Даже если человек умер, его смартфон бывает можно разблокировать с помощью его отпечатка пальца. Но о сканерах радужной оболочки глаза, судя по всему, такого скоро нельзя будет сказать. Исследователи из Варшавского политехнического университета разработали алгоритм машинного обучения, способный различать радужные оболочки живых и мёртвых людей с точностью в 99 %.

Учёные натренировали искусственный интеллект, используя базу радужных оболочек людей, умерших в разное время, а также образцы радужек сотен живых людей. Затем исследователи заставили систему взаимодействовать с изображениями глаз, на которых алгоритм не обучался.

Всё сложнее, чем можно подумать. Глаза мёртвых людей обычно удерживают ретракторы, поэтому сотрудники университета вынуждены были вырезать из изображений-образцов всё, кроме самих радужных оболочек, чтобы не вводить алгоритм в заблуждение. Также польским исследователям пришлось фотографировать живые радужные оболочки той же камерой, на которую снимали глаза трупов, чтобы технические различия не испортили результат.

В таком подходе есть подвох: алгоритм способен обнаружить мёртвый глаз только в том случае, если его владелец скончался 16 или более часов назад — в первые несколько часов разница несущественна. Теоретически злоумышленник мог бы убить кого-то, открыть глаз жертвы и разблокировать её смартфон. Впрочем, благодаря системе убийце, по крайней мере, пришлось бы поторопиться.

Нейросеть может создавать мемы и влиять на общественное мнение

23-летний аспирант Стэндфордского университета Лоренс Пирсон (Lawrence Peirson), изучающий теоретическую астрофизику, в этом году решил пройти дополнительные курсы в области искусственного интеллекта. Для своего итогового курсового проекта он вместе с коллегой Мелтэмом Толунеем (Meltem Tolunay) создал нейросеть, которая способна придумывать подписи к мемам.

Поначалу исследователь относился скептически к идее, но в итоге считает, что прошедшая глубокое обучение нейросеть выработала довольно интересное и оригинальное чувство юмора. С этим трудно не согласиться: творчество «нейропоэта» от Яндекс тоже вызывает улыбку — главное правильно выбрать объект подражания.

Для обучения сети Лоренс Пирсон использовал библиотеку сайта memegenerator.net, в которой содержится сотни тысяч мемов, созданных на базе шаблонов, подписанных пользователями. Для нужд проекта было использовано 3000 базовых изображений, каждое из которых имеет множество вариантов подписей.

«Среди 400 тысяч мемов большинство не такие уж весёлые, но они, по крайней мере, учат систему, что такое мем и какого рода шутки подходят. Мемы смешны зачастую из-за того, что доносят определённый смысл в довольно абсурдной форме», — пояснил Пирсон. Вот, например, такая подпись получилась у нейросети для шаблона с животным:

Интернет-мемы распространяются по сети в течение многих лет, особенно через сайты Reddit, Facebook, 9GAG и Quick Meme. И самые популярные могут получить более миллиона уникальных подписей. В результате они отражают различные стороны цифровой культуры — в документе описывается перекос данных для обучения к ругательному, расистскому и сексистскому содержанию. Лоренс Пирсон отмечает, что эта проблема выходит далеко за пределы мемов и касается в целом задач обработки естественного языка, и планирует в дальнем обеспечить фильтрацию данных.

Нейросеть была создана на языке CUDA и выполнялась на ускорителях NVIDIA TITAN Xp. Для оценки успешности обучения нейросети был создан критерий, по которому можно было оценить, способна ли нейросеть увидеть определённые паттерны в данных. Но всё-таки настоящей проверкой качества «нейромемов» стал опрос людей, которым предлагалось определить, создан мем человеком или компьютером, и поставить балл за чувство юмора. Согласно отчёту исследователей, созданные сетью мемы практически неотличимы от реальных. Что, признаться, не делает чести людям.

Если алгоритму предложить подписать неизвестное изображение, он будет искать аналогии с известными образцами из набора для обучения. Когда Лоренс показал нейросети свою фотографию, то получил следующий результат:

Исследователи видят большой потенциал своего проекта: искусственный интеллект может создавать мемы к текущим событиям и даже влиять на общественное мнение, технология может найти применение и в рекламе. «Вирусное распространение информации — это отличный способ выйти на рынок», — заключил Пирсон. Авторы очень удивлены вниманию общественности к их работе и обещают в скором времени выпустить в App Store соответствующее приложение Dank Learning.

Apple объединила команды машинного обучения, Siri и Core ML под руководством бывшего главы Google по ИИ

Apple объединила различные подразделения, занимающиеся искусственным интеллектом, в единую структуру. Её руководителем стал недавно нанятый компанией Джон Джайаннандреа (John Giannandrea), бывший глава Google по поиску и ИИ.

Сперва о реструктуризации сообщил TechCrunch, после чего Apple подтвердила изменение, добавив соответствующую информацию на страницу с топ-менеджерами. Джайаннандреа будет отвечать за команды, которые занимаются машинным обучением, голосовым помощником Siri и фреймворком Core ML. Последний представляет собой API, который помогает разработчикам сторонних приложений оптимизировать ИИ-задачи в приложениях для iOS.

Джайаннандреа получил должность руководителя отдела машинного обучения и стратегии ИИ. Очевидно, что Apple возлагает на новую структуру большие надежды. Она сильно отстаёт в ключевых сферах искусственного интеллекта — например, обработки естественного языка и компьютерного зрения. Обе важны как для Siri, так и для более продвинутых технологий вроде дополненной реальности, в которой активно используется распознавание объектов.

Из-за приверженности конфиденциальности пользователей и невысокой активности в сообществе исследователей искусственного интеллекта Apple не может похвастаться объёмными базами данных для тренировки новых алгоритмов и не имеет возможности привлечь талантливых сотрудников. Последние обычно уходят к Facebook, Google и другим гигантам Кремниевой долины.

Поэтому в новых, прибыльных сферах у Apple не самое выгодное положение. С созданием новой структуры компания надеется, что универсальное видение, объединение ресурсов и тесное сотрудничество помогут ей наверстать упущенное.

Видео: для симуляции волос в будущих играх, возможно, будет задействован ИИ

Исследователи из Университета Южной Калифорнии, Pinscreen и Microsoft разработали технику рендеринга волос, основанную на методах глубинного обучения. Эта нейронная сеть может визуализировать в 3D модели волос на основе эталонного 2D-изображения и является первой в своём роде, работающей в реальном времени. В играх методы рендеринга волос вроде NVIDIA GameWorks HairWorks или AMD TressFX Hair подчас приводят к значительному снижению производительности, даже если результат оказывается далёким от идеала. Вывод нескольких сотен тысяч отдельных волосков — очень ресурсоёмкая задача.

Но исследователи в области ИИ полагают, что свёрточная нейронная сеть поможет в реализации этой сложной задачи. «Реалистичное моделирование волос — одна из самых сложных задач при оцифровке виртуальных людей, — отметили исследователи. — В отличие от объектов, которые легко параметризуются, вроде человеческого лица, волосы охватывают широкий диапазон вариаций формы и могут быть очень сложными из-за их объёмной структуры и уровня деформируемости каждого волоска».

Чтобы обучить нейронную сеть, исследователи передали ей набор данных из 40 тыс. различных причёсок и 160 тыс. двумерных изображений с разных углов обзора. Цель была достигнута — нейронная сеть смогла создавать реалистичную трёхмерную визуализацию волос разной длины, стиля и цвета, пользуясь лишь одним 2D-изображением. За миллисекунды. Нейронная сеть также может имитировать видео и отображать движение отдельных прядей волос, взаимодействующих друг с другом.

«Волосы, воссозданные по нашему методу, могут точнее передавать детали и выглядят более естественными, — отмечают исследователи. — Особенно в случае с кудрявыми людьми». Это не идеальная система, некоторые причёски плохо воссоздаются. Однако исследователи полагают, что дальнейшее обучение алгоритма на основе ещё бо́льшего количества причёсок может помочь повысить качество.

Учитывая тот факт, что в будущих ускорителях NVIDIA появится поддержка ускорения задач машинного обучения (AI Tensor Cores), применение подобных методов для более качественной визуализации волос и других сложно алгоритмизуемых задач в играх будет вполне закономерным развитием событий. Пока же данная технология может существенно упростить жизнь разработчикам, позволив им создавать реалистичные волосы прямо на стадии захвата движений.

Google Duplex действительно работает — тестирование начнётся этим летом

На днях в ресторане в Маунтин-Вью (Калифорния) Google предоставила нескольким группам журналистов возможность ознакомиться с Duplex. Если кто забыл, Duplex — это технология на базе искусственного интеллекта, предназначенная для того, чтобы делать голосовые звонки от имени пользователя для автоматизации заказов столов в ресторане или записи в парикмахерскую. В демонстрации каждый журналист получил телефонный звонок от Duplex, и система попыталась договориться с ними о бронировании.

Поисковый гигант в лице вице-президента по маркетингу и дизайну Google Assistant Ника Фокса (Nick Fox) также объявил, что собирается начать ограниченное тестирование «в ближайшие недели». Это не значит, впрочем, что обычные пользователи смогут опробовать технологию так скоро: компания начинает с набора доверенных тестеров. Обкатка будет ограничена только предприятиями, с которыми Google сотрудничает.

Другими словами, развёртывание осуществляется поэтапно. Сначала будут отработаны звонки с вопросами о нерабочих часах, позже этим летом начнёт тестироваться бронирование столика в ресторане, а ещё позже — запись в парикмахерскую. Это единственные три функции, которым Google пока обучила Duplex.

Журналисты The Vegre сообщили, что показанная им демонстрация действительно была близка к тому, что мы видели на Google I/O, включая настолько запомнившиеся публике междометия вроде «ага» и «угу» в речи робота. В ней также было новшество: каждый вызов начинался с заявления о том, что звонок осуществляет машина и он записывается. Например, один вызов начался так: «Привет, я звоню, чтобы сделать заказ. Я автоматический сервис бронирования Google, поэтому я запишу звонок. Я могу заказать столик на утро воскресенья?».

Голос звучал так же естественно, как и в приведённом видео. Google тестирует, как людям наиболее комфортно беседовать с автоматикой и варьирует степень роботизированности голоса. Также после начального представления и предупреждения о ведущейся записи робот обычно коротко произносит междометие «эмм», после чего переходит непосредственно к просьбе о бронировании.

В первых прототипах Google голос не был столь естественным и человекоподобным. «Это не сработало. ...у нас было много брошенных трубок и незавершённых задач. Людям не нравилось, как неестественно звучит синтезированная речь», — отметил вице-президент по инженерным вопросам Google Assistant Скотт Хаффман (Scott Huffman). Потому в конце концов и появились все такие речевые недостатки, как «ахи» и «хмыканья», играющие важную роль в коммуникации людей наряду с жестами рук и так далее — эти аспекты изучает прагматика (раздел лингвистики).

В нескольких штатах вроде Техаса Duplex не будет работать — Google пока не получила там разрешения, но всё же почти на всей территории США в ближайшее время начнутся тесты. К сожалению, пока Duplex работает только на английском языке, но при этом Google потрудилась, чтобы система могла понимать множество диалектов и акцентов.

Поисковый гигант не спешит в вопросе развёртывания Duplex ещё и потому, что хочет быть максимально осторожным в столь новой и пока не особенно изученной области, как искусственный интеллект. Это одна из причин, по которой первоначальное тестирование будет проводиться только с предприятиями, с которыми сотрудничает Google. Компаниям будет разрешено выйти из программы приёма звонков от Duplex. Также Google не желает пока, чтобы звонков от роботов было слишком много и старается исключить использования технологии для розыгрышей. Поэтому Duplex будет сообщать номер телефона или email пользователя, от имени которого звонит.

Сообщается, что Duplex неплохо справляется, когда человек перебивает, отвечает на вопросы не по порядку и даже делает странные отвлечённые утверждения. Когда голос человека звучал смущённо или взволнованно, тон Duplex становился едва ли не извиняющимся — по-видимому, голосовой помощник старается имитировать внимательного и неконфликтного клиента.

Конечно, система пока несовершенна: все звонки, с которыми Duplex не справляется, отправляются в Google для анализа и улучшения ИИ-алгоритмов. Например, сейчас ИИ можно сбить с толку, если бармен на просьбу забронировать столик ответит, что заказ может быть оформлен на 7 часов, но полное обслуживание работает только до 6 часов, так что придётся довольствоваться только едой, доступной в баре. Но ведь это только начало.

Adobe использует ИИ для определения «фотошопа»

Редактирование фотографий с целью их улучшения в художественно-композиционном или содержательном отношении используется уже больше столетия, но цифровые инструменты вроде Adobe Photoshop довели этот процесс до совершенства, предоставив безграничные возможности внесения правок с высоким уровнем достоверности. Из-за сложности определения подделки манипуляция подложными фотофактами стала массовым явлением. Подобные «утки» нередко успевают получить вирусную популярность до момента разоблачения, а довести до всех опровержение нередко не представляется возможным.

«Ответственный» за происходящее создатель Photoshop намерен повысить доверие и уровень подлинности цифровых медиа и желает предоставить инструмент проверки изображения на отсутствие добавленных или удалённых объектов. Adobe видит путь к решению проблемы в использовании технологий искусственного интеллекта. Это ставит компанию в один ряд с Facebook и Google, которые наращивают свои усилия по борьбе с поддельными новостями.

При редактировании композиции изображения пользователь всегда оставляет более или менее заметные следы своего вмешательства. Визуально качественную работу сложно оспорить, но существуют особые малозаметные маркеры на уровне пикселей, опираясь на которые, можно определить подлог. Речь идёт о разнице в оттенках, яркости, резкости между исходным изображением и вставкой, о размытых границах, нарушениях в шумовой картине матрицы или JPEG-сжатия, о характерных артефактах при клонировании, вклеивании и удалении, а также об использовании информации из метаданных. Adobe утверждает, что сможет выявлять признаки манипуляции с фотографиями быстро и надёжно.

Характерным для методов машинного обучения способом команда Adobe совместно с исследователями из Университета штата Мэриленд заставляла компьютер сравнивать десятки тысяч редактированных изображений с их подлинниками. Благодаря этому искусственный интеллект научился за секунды выявлять типы использованных манипуляций и зоны редактирования. По словам Adobe, методы ещё не идеальны, но предоставляют больше возможностей для выявления цифровых подлогов, а потенциально в будущем смогут эффективно отвечать на вопросы подлинности.

Неизвестно, как скоро этот или подобные инструменты станут доступны хотя бы организациям, но это непременно произойдёт ввиду высокой востребованности в эффективном противоядии цифровым подделкам, наводнившим информационную среду.

Аналоговая память IBM ускорит глубокое машинное обучение

Как уже не раз было заявлено, современные микропроцессорные архитектуры и процессоры плохо подходят на роль аппаратных платформ для машинного обучения и, собственно, для платформ с искусственным интеллектом. Чтобы было хорошо, компьютер по структуре и методу работы должен быть похож на мозг человека. «Венец природы» не лишён самолюбия, да. С другой стороны, эволюция сотни тысяч лет работала над проектом «человек» и в этом деле может считаться экспертом.

Человеческий мозг, как известно, оперирует не двоичной системой записи, а сложными химико-биологическими конструкциями с использованием импульсов с электрической природой. К тому же, память и процессор в мозгу — это монолитная структура, а не отдельно банк памяти с внутренней шиной и процессором. И, да, с точностью вычислений в голове могут быть сложности, но вы и сами об этом знаете.

Исследователи IBM расценили, что работа нейронных сетей для глубокого обучения необязательно должна обладать такой же точностью, как исполнение двоичного кода. А раз высокая точность не нужна (для этого достаточно точности работы программной модели), то платформу для запуска задач на DNN (deep neural network) можно выполнить без использования сложных, но классических логических цепей с использованием многочисленных блоков для исполнения операций умножения и накопления.

Упрощённая платформа IBM для сетей с глубоким обучением предполагает использование аналоговой памяти. Иначе говоря, данные в ячейках памяти хранятся не в виде 0 или 1, а в виде некоего весового значения, которое вычисляется с приблизительной точностью и может иметь значительный разброс в значениях, включая выход далеко за пределы 1. В качестве примера аналоговой памяти можно привести магнитофонную магнитную плёнку или современные её виды — это резистивная память и память с ячейкой из вещества с изменяемым фазовым состоянием (phase-change memory, PCM).

Условная структура аналоговй памяти IBM (IBM)

Условная структура аналоговой памяти IBM (IBM)

Компания IBM так описывает работу аналоговой памяти: «Эта память позволяет выполнять операции умножения-накопления через распараллеливание с помещением в аналоговые домены весовых значений [данных], используя соответствующую физику [процесса]. Вместо больших цепей для умножения и сложения цифровых значений друг с другом, мы просто пропускаем небольшой ток через сопротивление в проводнике и затем просто соединяем множество таких проводников вместе, позволяя току нарастать. Это позволяет совершать множество вычислений одновременно, вместо выполнения последовательных операций».

Понятно, что с  точностью у вычислений «проводок плюс проводок» будет не так хорошо, как в случае работы триггера. Но на опытах IBM показала, что точность работы определённых моделей нейронных сетей на аналоговой памяти достаточная для выполнения многих задач. По прикидкам, на основе разработки можно создать ускоритель работы DDN с энергетической эффективностью 28 065 Гигаопераций/с/Вт или с пропускной способностью 3,6 Тераопераций/с/мм2. Это будет в разы больше, чем при запуске нейронных сетей на графических процессорах с одинаковой точностью в вычислениях. К тому же, расчёт весовых значений и их изменение происходят непосредственно в запоминающем элементе, что устраняет необходимость в энергоёмкой передаче данных из памяти в процессор и обратно.

IBM создала ИИ, успешно вступающий в дебаты с человеком

На недавнем небольшом мероприятии в Сан-Франциско IBM провела дебаты, подобные практикуемым в дискуссионных клубах, но между людьми и ИИ, под названием Project Debater. Цель заключалась в том, чтобы «искусственный интеллект» смог приводить обоснованные аргументы в соответствии с правилами дискуссии: неизвестная заранее тема беседы и никаких предварительно заданных ответов. Каждая сторона выступала с четырёхминутной вступительной речью, четырёхминутным опровержением аргументов оппонента и двухминутным заключительным словом.

Project Debater показал себя неплохо. Машина смогла проанализировать содержимое всех данных, чтобы найти соответствующий ответ, причём «ответ» содержал убедительные факты, связанные с субсидированием космоса и телемедицины и изложенные в четырёхминутных выступлениях. Проект Debater процитировал источники, учитывающие связь аудитории с детьми и ветеранами, и пару раз пошутил на темы докладов.

Это довольно впечатляюще: по сути, алгоритм без предварительной подготовки создал за пару минут текст на заданную тему, соответствующий уровню студента первого курса. База знаний системы включает несколько сотен миллионов статей по 100 областям знаний. Когда Project Debater получает тему, ему требуется несколько минут, чтобы проанализировать весь массив информации, выбрать оптимальные аргументы по теме и сгенерировать небольшую связную речь, описывающую эти моменты.

Но это не так впечатляет, как попытки ИИ спорить с оппонентом почти в реальном времени — системе понадобилось пару минут, чтобы проанализировать 4-минутную речь собеседника, прежде чем выступить с ответной. Впрочем, со стороны речь создавала впечатление, что машина прибегает к таким уловкам в споре, которые, как правило, заставляют слушателей меньше доверять докладчику.

Например, человек-участница дискуссии выдвинула тезис, что правительство не должно субсидировать исследования космоса. Она задала систему ценностей, отметив, что, по её мнению, субсидии должны соответствовать одному из двух конкретных критериев: удовлетворению основных потребностей человека или же созданию вещей, которые могут быть сделаны только правительством. Космические исследования не соответствовали ни тому, ни другому.

Project Debater, цель которого в идеале должна заключаться ответе на поставленный вопрос или попытке опровержения заданной системы ценностей, уклонился от прямой дискуссии. Машина заявила, что субсидирование космических исследований обычно окупается за счёт экономического роста от научных достижений, а также добавила, что для страны вроде США наличие программы космических исследований — важная часть задач великой державы. Впрочем, люди тоже часто уходят в дискуссиях от прямых ответов.

Вице-президент и директор лаборатории IBM по исследованиям в Алмадене Джефф Уэлсер (Jeff Welser) отметил, что Project Debater просто не распознал логику аргументации оппонента и потому ушёл от прямого ответа. ИИ присваивает баллы уверенности каждой информации, которую распознаёт. «Если бы он был уверен, что в самом деле правильно понимает аргументы в речи оппонента, то попытался выдвинуть очень сильный довод против этого момента», — объяснил господин Уэлсер.

В другой дискуссии, посвящённой телемедицине, Project Debater тоже в один из моментов не смог уловить точных нюансов, которые привёл в речи его оппонент-человек, делающий акцент на важности человеческого участия в диагностике. Вместо того, чтобы обсуждать эту тему, ИИ использовал более широкий аргумент, предположив, что, возможно, человек просто боится новаций. «Я же искренне верю в силу технологий, — подытожил ИИ, — как мне и положено».

Цель эксперимента IBM — показать, что она может обучать ИИ в новых областях исследований, которые в конечном итоге могут быть полезны на практике. Технология, анализирующая гору информации для выявления аргументов за и против, может быть использована для помощи в принятии решений о вложениях в акции той или иной компании. Другая сторона Project Debater — методы использования языка в риторике. Эти наработки могут помочь в будущем, например, структурировать аргументацию адвокатов или выявлять поддельные новости.

Пока, впрочем, речь не идёт о реальных продуктах. «Это всё ещё исследовательский проект», — отметил господин Уэлсер. Впрочем, некоторые лежащие в его основе технологии уже начинают применяться в различных проектах IBM.