Теги → машинное обучение
Быстрый переход

Apple объединила команды машинного обучения, Siri и Core ML под руководством бывшего главы Google по ИИ

Apple объединила различные подразделения, занимающиеся искусственным интеллектом, в единую структуру. Её руководителем стал недавно нанятый компанией Джон Джайаннандреа (John Giannandrea), бывший глава Google по поиску и ИИ.

Сперва о реструктуризации сообщил TechCrunch, после чего Apple подтвердила изменение, добавив соответствующую информацию на страницу с топ-менеджерами. Джайаннандреа будет отвечать за команды, которые занимаются машинным обучением, голосовым помощником Siri и фреймворком Core ML. Последний представляет собой API, который помогает разработчикам сторонних приложений оптимизировать ИИ-задачи в приложениях для iOS.

Джайаннандреа получил должность руководителя отдела машинного обучения и стратегии ИИ. Очевидно, что Apple возлагает на новую структуру большие надежды. Она сильно отстаёт в ключевых сферах искусственного интеллекта — например, обработки естественного языка и компьютерного зрения. Обе важны как для Siri, так и для более продвинутых технологий вроде дополненной реальности, в которой активно используется распознавание объектов.

Из-за приверженности конфиденциальности пользователей и невысокой активности в сообществе исследователей искусственного интеллекта Apple не может похвастаться объёмными базами данных для тренировки новых алгоритмов и не имеет возможности привлечь талантливых сотрудников. Последние обычно уходят к Facebook, Google и другим гигантам Кремниевой долины.

Поэтому в новых, прибыльных сферах у Apple не самое выгодное положение. С созданием новой структуры компания надеется, что универсальное видение, объединение ресурсов и тесное сотрудничество помогут ей наверстать упущенное.

Видео: для симуляции волос в будущих играх, возможно, будет задействован ИИ

Исследователи из Университета Южной Калифорнии, Pinscreen и Microsoft разработали технику рендеринга волос, основанную на методах глубинного обучения. Эта нейронная сеть может визуализировать в 3D модели волос на основе эталонного 2D-изображения и является первой в своём роде, работающей в реальном времени. В играх методы рендеринга волос вроде NVIDIA GameWorks HairWorks или AMD TressFX Hair подчас приводят к значительному снижению производительности, даже если результат оказывается далёким от идеала. Вывод нескольких сотен тысяч отдельных волосков — очень ресурсоёмкая задача.

Но исследователи в области ИИ полагают, что свёрточная нейронная сеть поможет в реализации этой сложной задачи. «Реалистичное моделирование волос — одна из самых сложных задач при оцифровке виртуальных людей, — отметили исследователи. — В отличие от объектов, которые легко параметризуются, вроде человеческого лица, волосы охватывают широкий диапазон вариаций формы и могут быть очень сложными из-за их объёмной структуры и уровня деформируемости каждого волоска».

Чтобы обучить нейронную сеть, исследователи передали ей набор данных из 40 тыс. различных причёсок и 160 тыс. двумерных изображений с разных углов обзора. Цель была достигнута — нейронная сеть смогла создавать реалистичную трёхмерную визуализацию волос разной длины, стиля и цвета, пользуясь лишь одним 2D-изображением. За миллисекунды. Нейронная сеть также может имитировать видео и отображать движение отдельных прядей волос, взаимодействующих друг с другом.

«Волосы, воссозданные по нашему методу, могут точнее передавать детали и выглядят более естественными, — отмечают исследователи. — Особенно в случае с кудрявыми людьми». Это не идеальная система, некоторые причёски плохо воссоздаются. Однако исследователи полагают, что дальнейшее обучение алгоритма на основе ещё бо́льшего количества причёсок может помочь повысить качество.

Учитывая тот факт, что в будущих ускорителях NVIDIA появится поддержка ускорения задач машинного обучения (AI Tensor Cores), применение подобных методов для более качественной визуализации волос и других сложно алгоритмизуемых задач в играх будет вполне закономерным развитием событий. Пока же данная технология может существенно упростить жизнь разработчикам, позволив им создавать реалистичные волосы прямо на стадии захвата движений.

Google Duplex действительно работает — тестирование начнётся этим летом

На днях в ресторане в Маунтин-Вью (Калифорния) Google предоставила нескольким группам журналистов возможность ознакомиться с Duplex. Если кто забыл, Duplex — это технология на базе искусственного интеллекта, предназначенная для того, чтобы делать голосовые звонки от имени пользователя для автоматизации заказов столов в ресторане или записи в парикмахерскую. В демонстрации каждый журналист получил телефонный звонок от Duplex, и система попыталась договориться с ними о бронировании.

Поисковый гигант в лице вице-президента по маркетингу и дизайну Google Assistant Ника Фокса (Nick Fox) также объявил, что собирается начать ограниченное тестирование «в ближайшие недели». Это не значит, впрочем, что обычные пользователи смогут опробовать технологию так скоро: компания начинает с набора доверенных тестеров. Обкатка будет ограничена только предприятиями, с которыми Google сотрудничает.

Другими словами, развёртывание осуществляется поэтапно. Сначала будут отработаны звонки с вопросами о нерабочих часах, позже этим летом начнёт тестироваться бронирование столика в ресторане, а ещё позже — запись в парикмахерскую. Это единственные три функции, которым Google пока обучила Duplex.

Журналисты The Vegre сообщили, что показанная им демонстрация действительно была близка к тому, что мы видели на Google I/O, включая настолько запомнившиеся публике междометия вроде «ага» и «угу» в речи робота. В ней также было новшество: каждый вызов начинался с заявления о том, что звонок осуществляет машина и он записывается. Например, один вызов начался так: «Привет, я звоню, чтобы сделать заказ. Я автоматический сервис бронирования Google, поэтому я запишу звонок. Я могу заказать столик на утро воскресенья?».

Голос звучал так же естественно, как и в приведённом видео. Google тестирует, как людям наиболее комфортно беседовать с автоматикой и варьирует степень роботизированности голоса. Также после начального представления и предупреждения о ведущейся записи робот обычно коротко произносит междометие «эмм», после чего переходит непосредственно к просьбе о бронировании.

В первых прототипах Google голос не был столь естественным и человекоподобным. «Это не сработало. ...у нас было много брошенных трубок и незавершённых задач. Людям не нравилось, как неестественно звучит синтезированная речь», — отметил вице-президент по инженерным вопросам Google Assistant Скотт Хаффман (Scott Huffman). Потому в конце концов и появились все такие речевые недостатки, как «ахи» и «хмыканья», играющие важную роль в коммуникации людей наряду с жестами рук и так далее — эти аспекты изучает прагматика (раздел лингвистики).

В нескольких штатах вроде Техаса Duplex не будет работать — Google пока не получила там разрешения, но всё же почти на всей территории США в ближайшее время начнутся тесты. К сожалению, пока Duplex работает только на английском языке, но при этом Google потрудилась, чтобы система могла понимать множество диалектов и акцентов.

Поисковый гигант не спешит в вопросе развёртывания Duplex ещё и потому, что хочет быть максимально осторожным в столь новой и пока не особенно изученной области, как искусственный интеллект. Это одна из причин, по которой первоначальное тестирование будет проводиться только с предприятиями, с которыми сотрудничает Google. Компаниям будет разрешено выйти из программы приёма звонков от Duplex. Также Google не желает пока, чтобы звонков от роботов было слишком много и старается исключить использования технологии для розыгрышей. Поэтому Duplex будет сообщать номер телефона или email пользователя, от имени которого звонит.

Сообщается, что Duplex неплохо справляется, когда человек перебивает, отвечает на вопросы не по порядку и даже делает странные отвлечённые утверждения. Когда голос человека звучал смущённо или взволнованно, тон Duplex становился едва ли не извиняющимся — по-видимому, голосовой помощник старается имитировать внимательного и неконфликтного клиента.

Конечно, система пока несовершенна: все звонки, с которыми Duplex не справляется, отправляются в Google для анализа и улучшения ИИ-алгоритмов. Например, сейчас ИИ можно сбить с толку, если бармен на просьбу забронировать столик ответит, что заказ может быть оформлен на 7 часов, но полное обслуживание работает только до 6 часов, так что придётся довольствоваться только едой, доступной в баре. Но ведь это только начало.

Adobe использует ИИ для определения «фотошопа»

Редактирование фотографий с целью их улучшения в художественно-композиционном или содержательном отношении используется уже больше столетия, но цифровые инструменты вроде Adobe Photoshop довели этот процесс до совершенства, предоставив безграничные возможности внесения правок с высоким уровнем достоверности. Из-за сложности определения подделки манипуляция подложными фотофактами стала массовым явлением. Подобные «утки» нередко успевают получить вирусную популярность до момента разоблачения, а довести до всех опровержение нередко не представляется возможным.

«Ответственный» за происходящее создатель Photoshop намерен повысить доверие и уровень подлинности цифровых медиа и желает предоставить инструмент проверки изображения на отсутствие добавленных или удалённых объектов. Adobe видит путь к решению проблемы в использовании технологий искусственного интеллекта. Это ставит компанию в один ряд с Facebook и Google, которые наращивают свои усилия по борьбе с поддельными новостями.

При редактировании композиции изображения пользователь всегда оставляет более или менее заметные следы своего вмешательства. Визуально качественную работу сложно оспорить, но существуют особые малозаметные маркеры на уровне пикселей, опираясь на которые, можно определить подлог. Речь идёт о разнице в оттенках, яркости, резкости между исходным изображением и вставкой, о размытых границах, нарушениях в шумовой картине матрицы или JPEG-сжатия, о характерных артефактах при клонировании, вклеивании и удалении, а также об использовании информации из метаданных. Adobe утверждает, что сможет выявлять признаки манипуляции с фотографиями быстро и надёжно.

Характерным для методов машинного обучения способом команда Adobe совместно с исследователями из Университета штата Мэриленд заставляла компьютер сравнивать десятки тысяч редактированных изображений с их подлинниками. Благодаря этому искусственный интеллект научился за секунды выявлять типы использованных манипуляций и зоны редактирования. По словам Adobe, методы ещё не идеальны, но предоставляют больше возможностей для выявления цифровых подлогов, а потенциально в будущем смогут эффективно отвечать на вопросы подлинности.

Неизвестно, как скоро этот или подобные инструменты станут доступны хотя бы организациям, но это непременно произойдёт ввиду высокой востребованности в эффективном противоядии цифровым подделкам, наводнившим информационную среду.

Аналоговая память IBM ускорит глубокое машинное обучение

Как уже не раз было заявлено, современные микропроцессорные архитектуры и процессоры плохо подходят на роль аппаратных платформ для машинного обучения и, собственно, для платформ с искусственным интеллектом. Чтобы было хорошо, компьютер по структуре и методу работы должен быть похож на мозг человека. «Венец природы» не лишён самолюбия, да. С другой стороны, эволюция сотни тысяч лет работала над проектом «человек» и в этом деле может считаться экспертом.

Человеческий мозг, как известно, оперирует не двоичной системой записи, а сложными химико-биологическими конструкциями с использованием импульсов с электрической природой. К тому же, память и процессор в мозгу — это монолитная структура, а не отдельно банк памяти с внутренней шиной и процессором. И, да, с точностью вычислений в голове могут быть сложности, но вы и сами об этом знаете.

Исследователи IBM расценили, что работа нейронных сетей для глубокого обучения необязательно должна обладать такой же точностью, как исполнение двоичного кода. А раз высокая точность не нужна (для этого достаточно точности работы программной модели), то платформу для запуска задач на DNN (deep neural network) можно выполнить без использования сложных, но классических логических цепей с использованием многочисленных блоков для исполнения операций умножения и накопления.

Упрощённая платформа IBM для сетей с глубоким обучением предполагает использование аналоговой памяти. Иначе говоря, данные в ячейках памяти хранятся не в виде 0 или 1, а в виде некоего весового значения, которое вычисляется с приблизительной точностью и может иметь значительный разброс в значениях, включая выход далеко за пределы 1. В качестве примера аналоговой памяти можно привести магнитофонную магнитную плёнку или современные её виды — это резистивная память и память с ячейкой из вещества с изменяемым фазовым состоянием (phase-change memory, PCM).

Условная структура аналоговй памяти IBM (IBM)

Условная структура аналоговой памяти IBM (IBM)

Компания IBM так описывает работу аналоговой памяти: «Эта память позволяет выполнять операции умножения-накопления через распараллеливание с помещением в аналоговые домены весовых значений [данных], используя соответствующую физику [процесса]. Вместо больших цепей для умножения и сложения цифровых значений друг с другом, мы просто пропускаем небольшой ток через сопротивление в проводнике и затем просто соединяем множество таких проводников вместе, позволяя току нарастать. Это позволяет совершать множество вычислений одновременно, вместо выполнения последовательных операций».

Понятно, что с  точностью у вычислений «проводок плюс проводок» будет не так хорошо, как в случае работы триггера. Но на опытах IBM показала, что точность работы определённых моделей нейронных сетей на аналоговой памяти достаточная для выполнения многих задач. По прикидкам, на основе разработки можно создать ускоритель работы DDN с энергетической эффективностью 28 065 Гигаопераций/с/Вт или с пропускной способностью 3,6 Тераопераций/с/мм2. Это будет в разы больше, чем при запуске нейронных сетей на графических процессорах с одинаковой точностью в вычислениях. К тому же, расчёт весовых значений и их изменение происходят непосредственно в запоминающем элементе, что устраняет необходимость в энергоёмкой передаче данных из памяти в процессор и обратно.

IBM создала ИИ, успешно вступающий в дебаты с человеком

На недавнем небольшом мероприятии в Сан-Франциско IBM провела дебаты, подобные практикуемым в дискуссионных клубах, но между людьми и ИИ, под названием Project Debater. Цель заключалась в том, чтобы «искусственный интеллект» смог приводить обоснованные аргументы в соответствии с правилами дискуссии: неизвестная заранее тема беседы и никаких предварительно заданных ответов. Каждая сторона выступала с четырёхминутной вступительной речью, четырёхминутным опровержением аргументов оппонента и двухминутным заключительным словом.

Project Debater показал себя неплохо. Машина смогла проанализировать содержимое всех данных, чтобы найти соответствующий ответ, причём «ответ» содержал убедительные факты, связанные с субсидированием космоса и телемедицины и изложенные в четырёхминутных выступлениях. Проект Debater процитировал источники, учитывающие связь аудитории с детьми и ветеранами, и пару раз пошутил на темы докладов.

Это довольно впечатляюще: по сути, алгоритм без предварительной подготовки создал за пару минут текст на заданную тему, соответствующий уровню студента первого курса. База знаний системы включает несколько сотен миллионов статей по 100 областям знаний. Когда Project Debater получает тему, ему требуется несколько минут, чтобы проанализировать весь массив информации, выбрать оптимальные аргументы по теме и сгенерировать небольшую связную речь, описывающую эти моменты.

Но это не так впечатляет, как попытки ИИ спорить с оппонентом почти в реальном времени — системе понадобилось пару минут, чтобы проанализировать 4-минутную речь собеседника, прежде чем выступить с ответной. Впрочем, со стороны речь создавала впечатление, что машина прибегает к таким уловкам в споре, которые, как правило, заставляют слушателей меньше доверять докладчику.

Например, человек-участница дискуссии выдвинула тезис, что правительство не должно субсидировать исследования космоса. Она задала систему ценностей, отметив, что, по её мнению, субсидии должны соответствовать одному из двух конкретных критериев: удовлетворению основных потребностей человека или же созданию вещей, которые могут быть сделаны только правительством. Космические исследования не соответствовали ни тому, ни другому.

Project Debater, цель которого в идеале должна заключаться ответе на поставленный вопрос или попытке опровержения заданной системы ценностей, уклонился от прямой дискуссии. Машина заявила, что субсидирование космических исследований обычно окупается за счёт экономического роста от научных достижений, а также добавила, что для страны вроде США наличие программы космических исследований — важная часть задач великой державы. Впрочем, люди тоже часто уходят в дискуссиях от прямых ответов.

Вице-президент и директор лаборатории IBM по исследованиям в Алмадене Джефф Уэлсер (Jeff Welser) отметил, что Project Debater просто не распознал логику аргументации оппонента и потому ушёл от прямого ответа. ИИ присваивает баллы уверенности каждой информации, которую распознаёт. «Если бы он был уверен, что в самом деле правильно понимает аргументы в речи оппонента, то попытался выдвинуть очень сильный довод против этого момента», — объяснил господин Уэлсер.

В другой дискуссии, посвящённой телемедицине, Project Debater тоже в один из моментов не смог уловить точных нюансов, которые привёл в речи его оппонент-человек, делающий акцент на важности человеческого участия в диагностике. Вместо того, чтобы обсуждать эту тему, ИИ использовал более широкий аргумент, предположив, что, возможно, человек просто боится новаций. «Я же искренне верю в силу технологий, — подытожил ИИ, — как мне и положено».

Цель эксперимента IBM — показать, что она может обучать ИИ в новых областях исследований, которые в конечном итоге могут быть полезны на практике. Технология, анализирующая гору информации для выявления аргументов за и против, может быть использована для помощи в принятии решений о вложениях в акции той или иной компании. Другая сторона Project Debater — методы использования языка в риторике. Эти наработки могут помочь в будущем, например, структурировать аргументацию адвокатов или выявлять поддельные новости.

Пока, впрочем, речь не идёт о реальных продуктах. «Это всё ещё исследовательский проект», — отметил господин Уэлсер. Впрочем, некоторые лежащие в его основе технологии уже начинают применяться в различных проектах IBM.

Радиорепортёр вернул свой утраченный голос с помощью синтеза речи

Два года назад работающий много лет на радио репортёр Джейми Дюпри (Jamie Dupree) потерял голос, что в его профессии можно считать приговором. 54-летний ветеран американской политической журналистики, работавший в Cox, нашёл выход: он сосредоточился на текстовых выпусках и брал интервью с помощью текстовых вопросов.

Но неспособность разговаривать затрагивает не только профессиональную деятельность, но и все остальные сферы жизни. Теперь с помощью современных технологий он может снова «говорить». Шотландская компания CereProc, которая развивает технологии преобразования текста в речь, создала новый голос для господина Дюпри: ПО, которое озвучивает напечатанные им предложения. Благодаря этому голос Дюпри вернётся в эфир на следующей неделе на радиостанциях в городах нескольких штатов: Атланте, Орландо, Джексонвилле, Дейтоне и Талсе.

Живущий в Вашингтоне Джейми Дюпри начал работу ещё с эпохи президентства Рейгана и освещал каждую президентскую кампанию с 1992 года. Проблемы журналиста начались в апреле 2016 года, во время семейной поездки в Англию. «Когда я вернулся домой, то взял несколько недель, чтобы поправиться, и за это время мой голос просто начал сходить на нет, превратился в писк, а потом полностью исчез», — написал он в интервью The Associated Press. Оказалось, что это дистония с выпячиванием языка — редкое неврологические заболевание, которое заставляет язык перекрывать горло, когда мозг посылает сигнал говорить. Врачи не знают, как лечить такое заболевание.

В декабре 2017 года член палаты представителей Илеана Рос-Лехтинен (Ileana Ros-Lehtinen) из Майами, штат Флорида, которая уже более двух десятилетий знала господина Дюпре, подняла проблему в Белом доме. В итоге это привело к переговорам с CereProc. Как правило, для создания голоса клиенты CereProc должны производить надиктовку, что невозможно в случае Дюпре — благо у него были записи за годы работы на радио.

«Мы использовали его архивные радиорепортажи в качестве исходного материала для голоса», — сказал участвовавший в работе Грэм Лири (Graham Leary). Через несколько недель машинный голос был готов. Илеана Рос-Лехтинен считает, то история Джейми Дюпри способна вдохновить людей, страдающих различными заболеваниями. Она счастлива, что решение было найдено и хочет снова услышать в передачах на радио его речь, пусть уже синтезированную.

Когда голос был готов 10 мая, репортёр сразу опробовал его в тестовой речи: «Моё имя — Джейми Дюпри. Это мой голос». Компьютер воспроизвёл слова. «Да, они звучат немного роботизированно, но я узнаю себя в этих словах, — сказал он. — Я быстро отправил аудиоклип моим детям и включил в него все их имена, чтобы они могли услышать».

Господин Дюпри отмечает, что новый голос даёт ему больше, чем шанс возобновить свою карьеру в эфире — он также позволяет ему возобновить общение в других областях своей жизни. Он будет получать обновления для алгоритма синтеза речи, которые сделают его реалистичнее. Но всё же журналист надеется когда-нибудь восстановить способность говорить самостоятельно, настоящим голосом, без использования технологий.

ИИ-алгоритм Facebook буквально раскрывает людям глаза

Существует множество вариантов манипуляций с фотографиями, призванных сделать портреты лучше: подавление эффектов красных глаз, бликов объектива, недостатков кожи и так далее. Но до сих пор моргание оставалось одним из главных врагов хороших снимков. Это может измениться благодаря интеллектуальному алгоритму, созданному специалистами Facebook: он убедительно заменяет закрытые глаза людей открытыми.

Это далеко не единственный пример «умного дорисовывания», когда ИИ заполняет выбранное пространство, ориентируясь на окружение. Adobe, например, уже годами развивает функции заполнения области с учётом контекста или интеллектуального сжатия и растяжения картинок, когда части изображения (например, лишняя ветвь или облако) реалистично заполняются частями окружения.

Но всё же «интеллектуальная заливка» Adobe не способна достойно ретушировать множество вещей, в том числе не умеет заменять закрытые глаза открытыми: до сих пор это казалось слишком уж сложной задачей для автоматики. Facebook, в базе которой, вероятно, больше фотографий моргающих людей, чем у любой другой компании, решила взяться за эту проблему.

Речь идёт об использовании самообучающейся нейронной сети Generative Adversarial Network. Одна часть этой сети учится распознавать открытые глаза людей. А другая — заменяет закрытые глаза открытыми, и на основе отклика от системы распознавания добивается всё более и более высокой реалистичности работы ИИ-алгоритма. Ориентируясь на изображения-образцы, алгоритм добивается ещё большей реалистичности.

Слева направо: изображения-образцы, исходные фото, обработка алгоритмом Photoshop, метод Facebook

Слева направо: изображения-образцы, исходные фото, обработка алгоритмом Photoshop, метод Facebook

Результаты, как видно, вполне достоверны: нет несогласования цветов или очевидных мест вклейки. При проверке алгоритма в половине случаев люди ошибочно принимали фальшивые фотографии с открытыми глазами за настоящие, или не могли уверенно определить подвох. Если присмотреться, то в большинстве примеров видно, что с глазами и ресницами у людей что-то не то, но беглый взгляд легко может не увидеть проблемы.

В некоторых ситуациях алгоритм создаёт странные артефакты: например, когда глаза человека частично закрыты волосами или когда не выходит точно воссоздать цвет. Но всё это в перспективе может быть преодолено. Подобную технологию вполне можно представить в повседневном будущем: пользователь хочет улучшить групповое фото, и указывает алгоритму человека, которому следует «открыть глаза», ориентируясь на другие его снимки. Вполне полезная функция для пользователей Facebook, не правда ли?

NVIDIA представила систему Jetson Xavier для интеллектуальных роботов

NVIDIA намерена играть более значимую роль в будущем робототехники с помощью своей платформы Isaac, полагающейся на новое решение Jetson Xavier. Название покажется знакомым, ведь продукт построен на том же процессоре, что используется в вычислительной платформе Xavier Drive для самоуправляемых автомобилей.

Jetson Xavier демонстрирует более чем 20-кратное преимущество над существующей системой Jetson TX2 — об этом сообщил руководитель NVIDIA Дженсен Хуанг (Jen-Hsun Huang) в нулевой день компьютерной выставки Computex 2018, проходящей на Тайване. Jetson была востребована в продуктах вроде дронов и роботов доставки, новое же поколение компания продвигает в более широком направлении: как первый в мире компьютер для интеллектуальных роботов.

Состоящий из 9 млрд транзисторов, Jetson Xavier объединяет 6 различных вычислительных блоков: 8-ядерный процессор с архитектурой ARM, графический ускоритель Volta Tensor Core, два чипа глубокого обучения NVDLA, а также процессоры компьютерного зрения, обработки видео и изображения. Xavier выполняет 30 триллионов операций в секунду и потребляет всего 30 Вт. NVIDIA утверждает, что данное решение по продуктивности эквивалентно существующим рабочим станциям стоимостью $10 000 с энергопотреблением в киловатт.

Как и в случае с самоходными автомобилями, вся эта вычислительная мощь поможет решать задачи машинного обучения и обработки данных с сенсоров для компьютерного зрения для любых роботов, нуждающихся в свободной навигации в пространстве и естественном взаимодействии с людьми.

Jetson Xavier является центральной частью платформы робототехники NVIDIA Isaac, которая следует одноимённой инициативе, анонсированной в прошлом году наряду с инструментами разработки интеллектуальных роботов. Чтобы помочь в разработке конечных продуктов, компания предлагает три продукта: Isaac SDK — набор API и инструментов для создания программных платформ и алгоритмов с полностью ускоренными библиотеками; Isaac IMX — набор готовых алгоритмов NVIDIA для роботов; Isaac Sim — высокореалистичное виртуальное окружение для машинного обучения с аппаратным тестированием на системе Jetson Xavier.

Дабы не возникало иллюзий, что Jetson Xavier может заменить собой представленную в конце прошлого года платформу Drive Pegasus, Дженсен Хуанг пояснил, что первая рассчитана на полуавтономные транспортные средства, тогда как последняя, обладая мощностью в 280 тфлопс, способна обеспечить нужды полностью автономных такси.

Разработчики смогут заполучить набор инструментов Jetson Xavier в августе по цене от $1300. Ориентируясь на стоимость, можно сказать, что продукт не рассчитан на использование в рядовых потребительских устройствах. Но, хотелось бы надеяться, он позволит создать более впечатляющих роботов, чем ASUS Zenbo.

Нидерландская полиция начала отбирать «холодные» дела с помощью ИИ

Нидерландская полиция собирается оцифровать более 1,5 тысячи отчётов и 30 млн страниц с материалами «холодных» дел. На данный момент лишь 15 % документов хранится в электронном виде. Полиция Нидерландов считает «холодными» дела, в рамках которых с 1988 года кто-то получил тюремный срок от 12 лет, а также которые остаются нераскрытыми как минимум три года.

thenextweb.com

thenextweb.com

Когда оцифровка завершится, алгоритм машинного обучения начнёт просматривать отчёты и определять, в каких делах у полиции имеются самые убедительные улики. Благодаря этому правоохранительные органы смогут закрывать такие дела за один день, а не за несколько недель.

«Мы обучаем машину судебной экспертизе, — рассказал один из создателей системы Джерун Хаммер (Jeroen Hammer) сайту The Next Web. — Цель в том, чтобы ИИ мог считывать “холодные” дела, которые мы в данный момент оцифровываем, и решать, какие из них содержат многообещающие улики, которые могут помочь раскрыть дело».

thenextweb.com

thenextweb.com

ИИ будет распределять дела по их «разрешимости» и указывать на возможные ДНК-улики. Позже команда планирует автоматизировать анализ и в других областях судебной экспертизы и, возможно, даже захватить данные в областях социальных наук и свидетельских показаний.

В будущем Хаммер надеется выпустить API для партнёров. «Сейчас этим занимается очень мало людей, и, насколько я знаю, никто не работает с “холодными” делами, — сказал он. — На самом деле, есть полицейские, у которых в календаре Outlook настроено ежегодное напоминание о том, что нужно позвонить в национальный судебный институт и узнать, не появились ли какие-нибудь новые способы анализа улик».

thenextweb.com

thenextweb.com

Анализатор «холодных» дел — разработка подразделения нидерландской полиции под названием Q, которое стремится упростить расследования с помощью инновационных решений.

Видео: забавная игра Google на базе ИИ по поиску реальных прототипов эмотиконов

Те, у кого под рукой есть телефон, могут открыть на нём ссылку emojiscavengerhunt.withgoogle.com, где располагается небольшая игра Google на базе ИИ. Речь идёт об эксперименте Emoji scavenger hunt, который показывает, что инструменты машинного обучения компании могут применяться также для создания мини-игр.

В данном случае разработчики предлагают за заданный отрезок времени использовать камеру смартфона для поиска объектов, соответствующих случайным эмотиконам. Каждый найденный реальный предмет увеличивает отведённое время. Сделан этот небольшой эксперимент неплохо, но вот функция распознавания предметов работает не всегда идеально.

Например, искусственный интеллект может отказаться узнавать вполне очевидные предметы вроде электрической розетки. Или примет держатель для полотенец за шарф. Десяток предметов вполне можно найти поблизости, но непреодолимое препятствие в прохождении может возникнуть в любой момент. Например, если игра попросит найти банан или клубнику за 10 секунд.

Так или иначе, но подобные эксперименты выступают хорошим примером того, что ИИ и распознавание объектов становятся всё более обыденными и повседневными возможностями. Это также хорошее напоминание о предстоящей конференции разработчиков Google I/O, где компания, безусловно, посвятит немало слов искусственному интеллекту. По слухам, запланированы новые возможности для ИИ-камеры AI Google Lens, новости об облачных предложениях вроде AutoML и специализированных ИИ-чипах, известных как TPU.

Samsung Exynos 7 Series 9610: скоростная съёмка и распознавание лиц в смартфонах

О подготовке к выпуску однокристальной сборки Samsung Exynos 7 Series 9610 стало известно ещё в июне прошлого года. Но лишь сегодня компания анонсировала эту интересную новинку для смартфонов премиального класса. Новый восьмиядерный прикладной процессор Samsung будет выпускаться с использованием 10-нм техпроцесса с FinFET-транзисторами. Правда, массовое производство решения начнётся только во второй половине текущего года, что почти на год позже ожидаемого.

Как уже сообщалось, в основе SoC Exynos 7 Series 9610 будут лежать четыре ядра ARM Cortex A-73 и четыре ядра ARM Cortex A-53. Тактовая частота старших ядер будет достигать 2,3 ГГц, а младших — 1,6 ГГц. Графика решения — видеоядра ARM Mali-G72. Изюминкой решения станут сигнальные процессоры для обработки статических изображений и видео. Более того, компания говорит о комбинации традиционных вычислительных алгоритмов с глубоким машинным обучением, что позволит поднять на новый уровень обработку визуальных образов.

Например, Samsung утверждает, что благодаря нейронным сетям платформа Exynos 7 Series 9610 позволит распознавать лица людей, которые отворачиваются от камер, либо частично скрытые преградами, например, головными уборами или прядями волос. Производительность сигнального процессора в составе Exynos 7 Series 9610 выросла в 1,6 раза, что позволит работать даже не с самыми совершенными датчиками изображения. Передовая система обработки с использованием наложения нескольких кадров также даёт возможность снимать одной единственной камерой чёткие изображения в условиях низкой освещённости, находящиеся не в фокусе и вести ускоренную съёмку FullHD со скоростью 480 кадров в секунду. Видео с разрешением 4K кодируется со скоростью до 120 кадров в секунду.

Группой ассоциированных с платформой Exynos 7 Series 9610 датчиков управляет контроллер (концентратор) на Cortex-M4F. Датчики всегда активны и для работы не требуют вывода из спячки прикладного процессора Exynos 7 Series 9610. Коммуникационные возможности Exynos 7 Series 9610 представлены широкополосным сотовым модемом с поддержкой LTE Cat.12 3CA для входящего трафика (до 600 Мбит/с) и LTE Cat.13 2CA для исходящего (до 150 Мбит/с). Поддержка Wi-Fi обеспечена стандартом 802.11ac 2×2 MIMO. В наличии модуль Bluetooth 5.0, FM-радио и решения для систем позиционирования GNSS, GPS, GLONASS, BeiDou и Galileo.

«Яндекс.Алиса» научилась заказывать такси

Команда разработчиков «Яндекса» сообщила об очередных усовершенствованиях голосового ассистента «Алиса» и включении в состав AI-сервиса функции вызова такси посредством мобильного приложения «Яндекс.Такси».

Теперь для вызова такси достаточно надиктовать сообщение голосовому помощнику и сказать, куда нужно ехать. «Алиса» уточнит указанный адрес и откроет упомянутое выше приложение, где уже будет заполнена строка «Куда». При этом «Алиса» сама определит текущее местоположение пользователя и укажет его при составлении маршрута в качестве отправной точки.

К голосовому ассистенту можно обращаться по-разному: «вызови такси», «закажи такси», «поехали на такси». «Алисе» можно назвать конкретные адреса или названия мест (Макдональдс, музей, кинотеатр). Также AI-помощник может вызвать такси домой или на работу: в первый раз «Алиса» уточнит адрес, а потом запомнит и будет указывать его в приложении «Яндекс.Такси» не переспрашивая.

Голосовой ассистент «Алиса» был запущен компанией «Яндекс» в октябре прошлого года. Сервис представляет собой альтернативу аналогичным решениям Apple (Siri), Google (Google Assistant), Amazon (Alexa) и в настоящий момент представлен для платформ Windows, Android, iOS. Созданная отечественными программистами помощница умеет искать информацию в Интернете, давать ответы на интересующие пользователя вопросы, беседовать на отвлечённые темы, подсказывать удобный маршрут, сообщать прогноз погоды, помогать в решении повседневных задач и даже играть в игры, такие, как «Угадай песню», «Слова», «Верю — не верю», «Города», «Этот день в истории» и некоторые другие.

Илон Маск покинул совет правления OpenAI во избежание конфликта интересов с Tesla

Технологический миллиардер Илон Маск (Elon Musk) покинул совет правления OpenAI — некоммерческой организации, которую он основал вместе с президентом Y Combinator Сэмом Альтманом (Sam Altman) и которая исследует этичность и безопасность искусственного интеллекта. Маск заявил, что уходит, чтобы избежать конфликта интересов OpenAI и Tesla: последняя разрабатывает системы для самоуправляемых автомобилей, которые активно используют возможности ИИ.

Маск продолжит финансировать и консультировать OpenAI. Организация также отметила, что к её донорам присоединились генеральный директор Valve Гейб Ньюэлл (Gabe Newell), основатель Skype Яан Таллинн (Jaan Tallinn) и бывшие американский и канадский олимпийские легкоатлеты Эштон Итон (Ashton Eaton) и Брианна Тейсен-Итон (Brianne Theisen-Eaton). OpenAI продолжит расширять этот список с целью наращивания инвестиций в «людей и вычислительные ресурсы, необходимые для обеспечения последовательных прорывов в области искусственного интеллекта».

OpenAI была основана около двух лет назад и очень быстро обрела значимость в глобальном сообществе машинного обучения. Она провела исследования в самых разных областях — например, научила компьютер управлять роботами с минимальным количеством инструкций и создала ИИ, способный эффективно играть в Dota 2.

Также стоит отметить, что совсем недавно организация внесла вклад в многодисциплинарный отчёт о том, каким образом в ближайшие пять лет ИИ может быть использован злоумышленниками.

Google Flights сообщит о задержке рейса раньше авиакомпании

Google добавляет несколько новых «фишек» в приложение Google Flights. Новшества должны помочь путешественникам с задержками рейсов. Теперь приложение будет не просто дублировать информацию, распространяемую авиакомпанией, а также предсказывать возможные задержки с помощью алгоритмов машинного обучения.

Как объясняют разработчики, существуют определённые комбинации факторов и специальные алгоритмы, позволяющие программе предсказать возможную задержку рейса раньше, чем об этом объявит авиакомпания. Причём в прогнозе задержка отобразится только при 80-процентной вероятности её возникновения. Это позволит пассажиру заранее настроиться на вынужденное ожидание и своевременно изменить планы. 

Также приложение будет отображать причину задержки или переноса рейса — погодные условия, задержка стыковочного рейса и другие. Статус рейса можно проверить по номеру или маршруту перелёта, введя эти данные в строке поиска.

В обновлённом сервисе можно будет узнать условия обмена и возврата купленного пассажиром билета, а также возможность и стоимость изменения даты авиаперелёта. В приложении клиента будет отображаться информация о его тарифе и ограничениях, которые этот тариф в себя включает.