Новости Hardware → Искусственный интеллект, машинное обучение, нейросети

Apple приобрела компанию, научившую куклу Барби понимать речь

Apple поглотила начинающую PullString, голосовые технологии которой легли в основу интерактивной куклы «Привет, Барби» (Hello Barbie), выпущенной компаний Mattel в 2015 году. PullString, ранее известная как ToyTalk, была основана ещё в 2011 году бывшими сотрудниками Pixar. Её интеллектуальная платформа дала компаниям-партнёрам и клиентам возможность создавать цифровых и физических персонажей, а также голосовые приложения, которые умеют общаться с людьми. «Привет, Барби» — лишь один из продуктов наряду с такими, как интерактивная игрушка «Паровозик Томас».

Кроме того, ранее PullString выпустила программное обеспечение, которое позволяет даже не имеющим особых технических навыков людям создавать собственные приложения для голосового помощника Alexa. Как сообщает ресурс Axios, купертинский гигант заплатил за сделку около $30 млн авансом и пообещал выплатить ещё около $10 млн потенциальной прибыли руководству.

Поскольку яблочная компания ещё официально не объявила о приобретении, пока не совсем ясно, что она планирует делать с технологиями PullString. Предположительно, покупка может привести к созданию программного обеспечения, которое поможет бо́льшему количеству людей создавать собственные приложения Siri. Это может сделать голосового помощника Apple и динамик HomePod более конкурентоспособным по сравнению с Alexa и Google Assistant.

Возможно, публика в будущем также увидит игрушки, оснащённые встроенным голосовым помощником Siri, хотя ещё неизвестно, рискнёт ли Купертино получить такой же объём резкой критики, с каким столкнулась Mattel после выпуска «Привет, Барби». Люди рассматривали эту куклу как инструмент наблюдения, особенно после предупреждений специалистов по безопасности о потенциальных уязвимостях. В наши дни, однако, потребители уже привыкли к мысли иметь дома устройства, которые всё время прослушивают окружение, чтобы в нужный момент отреагировать на голосовые команды пользователя.

Источники:

Военные хотят ИИ, который будет играть не по правилам

Обученные компьютеры с элементами искусственного интеллекта давно обыгрывают людей в шахматы и недавно научились обыгрывать в Go. Безусловно, эти программы можно назвать ИИ только с большой натяжкой. Но суть в том, что человек худо-бедно смог создать вычислительные системы, которые можно обучить для решения определённых задач по строго установленным алгоритмам в строго установленных рамках. К сожалению, это не работает в открытом мире, когда меняется окружение, условия задач и всё, всё, всё. Проще говоря, когда правила перестают работать. В таких условиях ИИ человеку не помощник, что категорически не нравится военным.

DARPA

DARPA

Для решения проблемы адаптации ИИ к меняющимся условиям при решении поставленной задачи Агентство перспективных исследований МО США (DARPA) сообщает о запуске программы Science of Artificial Intelligence and Learning for Open-world Novelty (SAIL-ON). Почти как команда ставить парус для выхода в открытое море. Обучение ИИ для адаптации к новизне открытого мира предполагает исследование и разработку базовых научных принципов и общих инженерных технологий и алгоритмов, необходимых для создания искусственных систем, которые могли бы сообразно и эффективно действовать в открытом мире.

Целью программы является разработка научных принципов для количественного и качественного описания тех явлений и ситуаций, с которыми ИИ впервые могут столкнуться в открытом мире. Иначе говоря, ИИ должны получить свод правил и механизмов для оценки чего-то нового для них с возможность моментального адекватного реагирования. Также программа SAIL-ON должна помочь создать такие системы и продемонстрировать, а также организовать их изучение в областях, на которые укажет Министерство обороны.

Наработки в области автономного вождения, которые заслуживают уважение и демонстрируют определённый прогресс, для решения задач военных определённо не годятся. Одно дело ездить по дорогам по правилам и совсем другое перемещаться по бездорожью в совершенно непонятной обстановке. Поэтому перед участниками программы SAIL-ON ставится непростая задача с множеством подчинённых областей, в которых предстоит решить массу сложных математических и алгоритмических задач.

Источник:

Google ограничила амбиции Android Things умными колонками и дисплеями

В мае 2018 года Google представила финальную версию платформы Android Things для устройств Интернета вещей (Internet of Things, IoT). Суть новинки состояла в том, чтобы производители оборудования получили надёжную ОС, с которой могли работать и сторонние разработчики. Ещё в период тестирования SDK скачали более 100 000 раз и от 10 000 разработчиков был получен отклик. Android Things была призвана стать центром подключаемой мелкой электроники.

Прошёл почти год — что же сделано за этот немалый срок? Устройств с поддержкой Android Things оказалось не особенно много. И вот недавно представитель поискового гиганта Дэйв Смит (Dave Smith) поделился информацией относительно будущего платформы. Google в течение прошлого года тесно сотрудничала с партнёрами по созданию потребительских продуктов на базе Android Things со встроенной поддержкой Google Assistant.

Главные успехи достигнуты в области интеллектуальных колонок и дисплеев, так что компания решила переориентировать Android Things на эти решения (по сути, речь идёт об ограничении амбиций). Платформа станет более специализированной и в будущем при её развитии основной акцент будет делаться на создание упомянутых устройств OEM-партнёрами. В связи с этим компания объявила о прекращении поддержки в публичной платформе систем-модулей (SoM, System on Modules) на базе чипов NXP, Qualcomm и MediaTek.

При этом Android Things SDK сохранит поддержку устройств на базе популярных NXP i.MX7D и Raspberry Pi 3B, так что желающие смогут продолжать экспериментировать и создавать интеллектуальные подключаемые устройства с этой ОС. Системные образы для этих плат останутся доступны через консоль Android Things, в которой разработчики смогут создавать новые сборки. По-прежнему некоммерческая версия платформы позволит управлять до 100 устройствами через одну консоль.

Разработчикам, которые хотят коммерциализировать продукты Интернета вещей в 2019 году, компания предлагает ознакомиться с сервисом Cloud IoT Core грядущей средой Cloud IoT Edge. Для приложений, использующих технологии машинного обучения на устройстве, Google вскоре обещает представить особые платы разработки со специализированными ускорителями Edge TPU.

Источник:

В России появится Лаборатория нейронаук и поведения человека

Сбербанк объявил о намерении создать Лабораторию нейронаук и поведения человека, которая поможет в развитии инновационных сервисов на базе цифровых технологий.

Новое подразделение займётся научными исследованиями в области нейрофизиологии, социальной психологии и когнитивистики. Результаты этих работ будут внедряться в повседневную практику компаний и структур Сбербанка.

Речь идёт о развитии интеллектуальных систем, которые позволят «сформировать эмоциональную связь с каждым». Очевидно, что новые сервисы будут использовать нейросети для принятия сложных решений и оказания максимально персонализированных услуг.

Лаборатория будет базироваться в двух городах Санкт-Петербурге и Москве. Её научным руководителем станет Андрей Курпатов, президент Высшей школы методологии, известный учёный, автор более сотни научных работ, создатель системной поведенческой психотерапии и методологии мышления.

«Ещё никогда значение человеческого фактора не было велико так, как сейчас — при переходе к цифровой экономике. Мир меняется: системы управления становятся всё сложнее, а люди ожидают более качественного руководства и персонализированного сервиса», — отметил господин Курпатов. 

Источник:

Adobe видит в ARM архитектуру «всевластия» и даже мечтает о собственном процессоре

Некоторое время назад Adobe провела домашнюю конференцию, на которой главный технолог компании Абхай Параснис (Abhay Parasnis) где намёками, а где открыто обрисовал пути для дальнейшего развития компании. Начнём с конца. По твёрдому убеждению Абхая, когда-нибудь мы войдём в мир, где кроме ARM не будет ничего. Из этого убеждения вытекают все остальные действия и стратегии компании.

wsj.com

wsj.com

Стратегия первая. Обуздать растущие мощности «железа» и, возможно, разработать или иными путями получить собственный процессор или ускоритель. Например, это можно сделать с помощью партнёра-специалиста по разработке аппаратных решений. Платформа ARM, по мнению Adobe, предоставляет возможность максимально тесно связать программную часть с аппаратной. При этом речь не идёт о создании собственных центров по обработке данных, как это делают Google, Microsoft, Amazon и другие.

Стратегия вторая. Искусственный интеллект. Компания уже создаёт продукты, использующие машинное обучение и элементы искусственного интеллекта. В частности, Adobe устами главного технолога призвала партнёров за год создать до 100 новых моделей обучения для фирменной платформы Sensei. Если компания не сможет переосмыслить свои продукты [франшизу] в парадигме ИИ, то это сделает кто-нибудь другой, опасаются в Adobe. Ориентация на ML также может заставить искать собственную аппаратную платформу. И это будут не процессоры Intel, подчёркивают в Adobe, которые сейчас повсеместно находятся в компьютерах под управлением Windows или ОС Apple.

Стратегия третья. Прочь от ПК и смартфонов. Необходимо осваивать новые направления в виде голосового управления и гарнитур дополненной и виртуальной реальности. Эти новые платформы также могут потребовать уникальных аппаратных решений для поддержки программ Adobe. В первую очередь, это вопрос энергоэффективности мобильных решений. Компания делает акцент на то, что ей не нужно что-то общее ― тот же ИИ общего назначения. Ей необходимо решать строго свои прикладные задачи, на что хорошо способны только те продукты, которые сделаны внутри компании или в тесном партнёрстве с заинтересованным специалистом.

Источник:

NEC научила ИИ опознавать человека, даже если он скрывается или отворачивается

В деле автоматического распознавания персоны наметился прогресс. Компания NEC разработала технологию машинного обучения, которая способна с 90 % точностью идентифицировать личность по неполным изображениям. Уточним, для идентификации не обязательно иметь снимок лица или части лица субъекта. Для новой системы распознавания NEC достаточно даже частичного изображения персоны со спины или под углом. Это тем более важно, что в реальных условиях камеры слежения вряд ли могут получить полное изображение человека. Этому всегда что-то будет мешать, включая других людей.

Технология NEC по опознанию людей создаётся в рамках фирменной программы компании «Безопасный город». Она является продолжением созданной ранее технологии идентификации по распознаванию лиц. Улучшенная технология идентификации поможет искать потерявшихся детей или следить за посетителями в многолюдных производственных, торговых или в других учреждениях.

Модель обучения с элементами искусственного интеллекта изучает одежду, форму тела и другие характерные признаки, по которым можно идентифицировать искомую личность. Персона может скрывать лицо или отворачиваться от камер, но полностью скрыть от них своё тело не сможет. Полученных фрагментов, уверяют в NEC, достаточно для почти гарантированной идентификации личности.

Источник:

DARPA призывает создать единый механизм защиты ИИ от обмана

Агентство перспективных исследований МО США объявило о запуске новой программы Guaranteeing AI Robustness against Deception (GARD). Программа «Гарантированная устойчивость ИИ к обману» призвана заткнуть дыру в безопасности систем с машинным обучением. Это не обязательно сознательный обман ИИ со стороны враждебно настроенных личностей или таких же ИИ-платформ. Система с машинным обучением может быть введена в заблуждение как несовершенством алгоритма обучения и принятия решений, так и вследствие изменения условий, в которых необходимо принимать решение. Цена ошибок может быть большой и даже неоценимой, если речь идёт об ИИ, которые вовлечены в процессы по обеспечению жизнедеятельности человека.

DARPA

DARPA

В рамках программы GARD будут преследоваться три основные цели. Во-первых, создание фундаментальных теоретических обоснований защищающихся ML и соответствующей терминологии. Во-вторых, разработка и тестирование защищающихся систем в широком спектре назначения и настроек. В-третьих, построение испытательного стенда для представления защищающихся систем машинного обучения (ML) в сценариях различных угроз.

Работу по созданию защищающихся систем машинного обучения предполагается начать с защиты систем распознавания изображений. Например, подобные системы используются в самоуправляемых автомобилях, которые в случае ошибочной интерпретации дорожных знаков могут оказаться в аварийной ситуации. Затем от ошибок и введения в заблуждение будут избавлять обучающиеся системы с обработкой видео, аудио и более сложные ― с множеством разнообразных датчиков. Также будут проводиться работы для создания систем с умением предсказывать ситуации, принимать решения и адаптироваться к различным условиям в течение времени жизни системы.

Программа GARD не будет ограничена чисто математическими или аппаратными наработками в области искусственного интеллекта и машинного обучения. Будут рассматриваться также биологические механизмы защиты на примере работы иммунной системы. Природа научила живые организмы идентифицировать атаки, запоминать их и противодействовать угрозам. Почему бы ни применить подобные алгоритмы для защиты искусственного интеллекта?

Источник:

DARPA хочет наделить машины способностью трезвой самооценки

Как справедливо рассуждают в DARPA, агентстве по управлению перспективными исследованиями Министерства обороны США, ключевой ингредиент любого успешного коллектива ― военного, спортивного или делового ― это взаимное доверие с полным пониманием того, кто и на что способен в той или иной ситуации. Поскольку машины становятся умнее, они вполне способны стать участниками команды в паре с человеком. Но для повышения уровня доверия необходимо, чтобы автономная система могла трезво оценить свой уровень компетентности в реально складывающихся условиях и сообщить об этом человеку или участникам коллектива. Сегодня это невозможно, уверены в DARPA, либо реализовано в самом зачаточном состоянии.

Автомобиль сообщает, что он 1000 раз ездил ночью в дождь и при этом мог с 90 % точностью различить человека и припятствие (DARPA)

Автомобиль сообщает, что он 1000 раз ездил ночью в дождь и при этом мог с 90 % точностью отличить человека от препятствия (DARPA)

Для наделения автономных систем способностью трезвой самооценки DARPA запускает программу Competency-Aware Machine Learning (CAML), подробнее о которой планирует рассказать 20 февраля. Уже из названия программы понятно, что агентство ищет решения в области машинного обучения и искусственного интеллекта. В программу входит не только моделирование и разработка алгоритмов поведения автономных систем, но также разработка интерфейса взаимодействия человека и машины.

В качестве примера автономной системы с возможностью самостоятельной оценки компетентности руководитель проекта CAML приводит следующую ситуацию. При заказе автономного такси ночью в плохую погоду клиент получает ответ от двух автомобилей, один из которых сообщает о 1000 успешных поездках в ночь и под дождём, в ходе которых система автомобиля с точностью 90 % отделяла живого человека от неодушевлённых препятствий. Другой автомобиль заявил о 99 % точности в сходных ситуациях, но он побывал в таких условиях только 100 раз. Тем самым клиент может сам сделать вывод и выбрать тот автомобиль, который покажется ему более опытным для поездки в сложных погодных условиях.

В конечном итоге знание человека об оперативном состоянии и готовности автономной системы выполнить определённую работу с прогнозируемым результатом повысит эффективность взаимодействия и приведёт к максимально согласованным действиям.

Источник:

Яндекс рассказала, как её автомобиль без водителя колесил по Лас-Вегасу

Мы уже писали, как робомобиль Яндекса покорял дороги Лас-Вегаса во время международной выставки потребительской электроники 7–10 января и приводили впечатления известного техноблогера Маркуса Браунли (Marques Brownlee). Но теперь директор по развитию бизнеса беспилотных автомобилей Артём Фокин поделился многими интересными подробностями об этом турне.

Желание продемонстрировать свою технологию беспилотного вождения на CES у команды разработчиков возникло давно. А когда автономные такси Яндекса заработали в московском Сколково и казанском Иннополисе, стало понятно, что время пришло. Прежде всего, следовало получить разрешение на тестирование самоходного транспортного средства в штате Невада. Можно было бы предположить, что для иностранной компании процедура могла оказаться гораздо сложнее, чем в родном для неё регионе — России. Но реальность нередко заставляет удивляться, особенно, когда речь идёт о государственной поддержке развития технологических направлений.

«Оказалось, что разрешение на то, чтобы ездить в Неваде по дорогам общего пользования, получить чрезвычайно просто. Этот процесс называется self-certification — если компания готова гарантировать, что всё будет хорошо, ей выдадут разрешение без лишних вопросов. В этом кардинальное отличие американского подхода от российского», — сообщил Артём Фокин.

Вторым шагом стала покупка в США гибридного автомобиля Toyota Prius и оснащение его системой автопилота. Для подстраховки команда в Москве приобрела такую же, но европейскую версию авто, чтобы смоделировать подобную ситуацию. Но, несмотря на ограниченную команду в Америке, всё пошло хорошо, и машина была готова уже через две недели.

Столько же времени машина ездила с водителем за рулём по выбранной зоне Лас-Вегаса в окрестностях выставочного комплекса CES, чтобы собрать данные об окружающей обстановке. И хотя американские и российские дороги, как и правила движения, довольно сильно отличаются, команда утверждает, что с более простой задачей ещё не сталкивалась: «Несмотря на то, что машин там сильно больше, чем в Сколково или Иннополисе, сама организация дорог делает вождение очень комфортным. Специально выделенные полосы под любой поворот или манёвр, логичное устройство проезжей части. Да и погодные условия тоже неплохие». В общем, рассчитанной на более суровые российские условия автоматике оказалось достаточно просто справиться с трафиком в Лас-Вегасе.

Уверившись, что автопилот ведёт себя отлично, специалисты Яндекса решили пересадить инженера-испытателя с водительского кресла на переднее пассажирское — выданное разрешение это позволяло. «Даже во время CES, когда бульвар Лас-Вегас-Стрип кишит беспилотниками с их внушительными радарами и сенсорами, автомобиль без инженера в водительском кресле — это настоящее событие», — признал журнал Wired.

«Во время поездки в машине Яндекса казалось, что за рулём реальный человек. Не было чувства опасности или „механичности“ происходящего. На водительском месте не было никого (в отличие от Aptiv или Waymo), а на пассажирском сидел инженер, который держал руку возле большой красной кнопки — на случай, если вдруг придётся экстренно отключить систему. Конечно, другие беспилотники тоже вполне безопасны.  Но в них сложно отделаться от ощущения, что тебя везёт твой дедушка» — написал журналист Forbes. С ним соглашается и обозреватель Business Insider, указывая, что характер вождения российского автопилота неотличим от опытного водителя.

Опробовать робомобиль «Яндекс.Такси» на CES мог каждый, но очень скоро запись на демонстрационную поездку пришлось закрыть из-за количества желающих, а время поездок — расширить с шести часов в день до десяти.

«Без человека в водительском кресле в Неваде и за её пределами сейчас не ездит никто из компаний-разработчиков беспилотных автомобилей. А мы начали, и это было удивительно. Мы показали, что технология, которую мы разработали в России, с минимальными доработками применима и в других странах», — заключил Артём Фокин.

Будем надеяться, что дальнейшему развитию подобных передовых технологий будет сопутствовать и оптимизация законодательства и правил дорожного движения, дабы достигнутый задел не сошёл в итоге на нет.

Кстати, недавно Яндекс представил собственную встраиваемую в приборную панель информационно-развлекательную систему «Яндекс.Авто» с «Навигатором», «Музыкой» и голосовым помощником Алиса. Список поддерживаемых моделей автомобилей расширяется, а стартовая цена составляет почти 30 тысяч рублей.

Источник:

Робопса Sony aibo наделят обязанностями секьюрити

На днях мы сообщали, что компания Sony готовит новую цветовую модификацию робопса aibo под породу бигль, которая получит поддержку режима патрулирования помещений. Если брать шире, то режим «aibo Patrol» получат все модели Sony aibo после обновления в середине февраля прошивки до версии 2.0. Но это не просто новый режим, о котором мы поговорим ниже, это начало реализации новой концепции в эксплуатации роботизированных псов, которую Sony назвала «securitainment» (security and entertainment или, по-русски, безопасность и развлечение).

Концепцию securitainment компания Sony будет развивать в сотрудничестве с компанией SECOM CO., LTD (SECOM) и, потенциально, с другими компаниями. Компания SECOM ― это специалист по домашним охранным системам в Японии. Поскольку с прошлой осени робопса aibo компания Sony начала продавать в США, следует ожидать нечто подобное на американском рынке. Опираясь на разработки Sony в области ИИ, домашних развлекательных систем и робототехники и собственный опыт в охранных системах, включая IoT, SECOM разработает для aibo пакет охранных сервисов и режимов и представит это всё в виде развлекательных режимов aibo Patrol.

Следует напомнить, что в полную стоимость робопса aibo ($2900 в США) входит пакет услуг на связь с удалённым сервисом и облачное хранилище (в США ― это Amazon). На 3-летний период оплата приближается к $1000. На сервисе пёс хранит объём фотографий (не более 500 в зависимости от объёма каждой), настройки для уведомлений хозяев и разного рода программы. Режим «aibo Patrol», сообщает Sony, будет бесплатным. В рамках этого режима владелец робопса получит доступ к картам помещений (он, оказывается, ещё и карты рисует!), по которым гуляет aibo, и сможет назначать ему маршруты для патрулирования.

Патруль начинается в строго отведённое для этого время. Под мелодию из м/ф «Щенячий патруль» пёс начнёт двигаться по маршруту. Псу можно указать изображения и имена до 10 людей, которых он должен опознавать в ходе патрулирования или в процессе свободного поиска. Управление настройками идёт через приложение «My aibo» на смартфоне. События в патруле отображаются в специальном рапорте.

Для желающих расширить возможности aibo в июле этого года будет предложена премиальная подписка «aibo Premium Plan» с месячной оплатой $13,5 (1480 иен). Премиальная подписка разрешит удалённо посылать робопса на патрулирование даже за пределы дома (на улицу), просматривать в реальном режиме времени статус пса в процессе патрулирования и немедленно получать уведомления об обнаружении требуемой персоны. При этом устраняется лимит на 500 сохраняемых удалённо фотографий (фотографируй сколько душе угодно), а фотографии будут упорядочены в дневник. Это компания называет «глубже интегрироваться с семьёй» и «не забывай неповторимые моменты».

Наконец, летом Sony планирует сделать API web для работы с aibo доступным для публичного использования с целью создания новых сервисов. Но для коммерческой реализации сторонних разработок потребуется приобрести лицензию Sony. Всё это похоже на жизнь за зеркальным стеклом. Владельцы роботизированных собак не видят за собой постоянной слежки, но это не означает, что её нет. Сто лет назад Евгений Замятин как в воду глядел...

Источник:

window-new
Soft
Hard
Тренды 🔥