Сегодня 23 января 2018
18+
CES 2018
Теги → нейронная сеть
Быстрый переход

Нейронная сеть Alibaba обогнала человека в глобальном тесте по чтению

Институт информационных технологий (iDST), исследовательское подразделение китайского гиганта Alibaba, разработал модель глубокого обучения, которая сумела обогнать человека в тесте по чтению Stanford Question Answering Dataset (Squad). У нейронной сети показатель составил 82,44, а человек ранее сумел достичь оценки 82,304.

Squad состоит более чем из 100 тысяч наборов вопросов и ответов по более чем 500 статьям с «Википедии». Участники должны были создать модели машинного обучения, которые могли бы отвечать на заданные вопросы.

Среди участников теста оказались различные университеты, исследовательские учреждения и поставщики технологий, включая Tencent, Google, IBM, Microsoft, Samsung, Тель-Авивский университет и Канвонский национальный университет в Южной Корее. Некоторые из них уже проходили тест в прошлом году. Например, азиатское исследовательское подразделение Microsoft (Microsoft Research Asia) 17 декабря 2017 года получило оценку 82,136. Предыдущий показатель Alibaba, равный 79,199, был зарегистрирован 28 декабря 2017 года.

Alibaba заявила, что в тесте по чтению сумела обогнать человека первой. Тем не менее, Squad поставил китайскую компанию на одно место с Microsoft Research Asia, которая заработала 82,65 балла. Ранг редмондского гиганта был зарегистрирован 3 января, а оценка Alibaba — 5 января.

Представитель китайского гиганта объяснил, что это даты подачи моделей. Результаты же теста Alibaba были зарегистрированы 11 января — на день раньше, чем у Microsoft. Поэтому Alibaba посчитала, что у неё есть право называть себя первой.

Модель компании основана на иерархической нейронной сети, способной выбирать потенциальные ответы из абзацев, предложений и слов. На базе той же технологии работал чат-бот Dian Xiaomi, который использовался во время фестивалей шопинга и ежедневно обслуживал 3,5 млн пользователей торговых площадок Taobao и Tmall.

По словам главного научного сотрудника iDST по обработке естественного языка Си Луо (Si Luo), Alibaba собирается поделиться методологией создания моделей с сообществом и в ближайшем будущем внедрить актуальную технологию в системы обслуживания клиентов компании.

CES 2018: Intel продвинулась в квантовых и нейроморфных вычислениях

На проходящей в Лас-Вегасе выставке CES 2018 корпорация Intel объявила о важных достижениях в области квантовых и нейроморфных вычислений. Последние представляют собой перспективный тип компьютерной логики и могут принципиально улучшить возможности искусственного интеллекта, а, следовательно, и оказать огромное влияние на многие научные, исследовательские и индустриальные области.

Квантовые вычисления смогут быстро решать специфические задачи, для которых современным суперкомпьютерам требуются месяцы или годы, вроде создания лекарств, финансового моделирования и климатических прогнозов.

Во время основного доклада исполнительный директор Intel Брайан Кржанич (Brian Krzanich) сообщил о выпуске сверхпроводящего квантового чипа под кодовым именем «Tangle Lake», обладающего 49 кубитами, а также пообещал внедрение нейроморфных вычислений, имитирующих работу мозга и способных эффективно обрабатывать структурированные и неструктурированные данные, объём которых экспоненциально растёт. Название процессора происходит от группы озёр в Аляске и указывает на экстремально низкие температуры и переплетение, что необходимо для функционирования квантовых битов.

Старший вице-президент Майк Мейберри (Mike Mayberry) сообщил, что пройдёт ещё 5–7 лет, пока индустрия научится решать технические проблемы и окажется способной создавать чипы с миллионом или больше кубитов для достижения коммерческого успеха технологии. Tangle Lake является важным шагом на этом пути, позволяя исследователям оценивать и улучшать техники коррекции ошибок и моделировать вычислительные задачи.

Продолжая инвестиции в сверхпроводящие кубиты, Intel в стремлении нарастить количество взаимодействующих кубитов ведёт параллельную разработку другого типа — спиновых кубитов (spin qubits) в кремнии. Последние способны иметь принципиальное преимущество будучи гораздо меньше сверхпроводящих кубитов.

Спиновые кубиты схожи с одноэлектронным транзистором, который в свою очередь имеет много общего с традиционными транзисторами, и потенциально могут производиться на близких к современным техпроцессах. Intel уже разработала принципы применения технологии производства 300-мм кремниевых пластин для спиновых кубитов.

Вторым достижением стал созданный Intel Labs полностью функциональный опытный чип «Loihi» в рамках новой парадигмы нейроморфных вычислений, имитирующей базовые операции мозга. Технология Loihi объединяет обучение и логический вывод в одном чипе и обещает экспоненциальный рост производительности и энергоэффективности для искусственного интеллекта.

Как объясняет Intel, нейроморфные процессоры могут быть задействованы в задачах обработки и анализа данных настоящего постоянно изменяющегося окружения. В качестве примера названы камеры наблюдения и городская инфраструктура, приспособленные для информационной поддержки автономных транспортных средств в реальном времени. В первом полугодии Intel планирует передать образцы чипов Loihi в ведущие университеты и исследовательские институты, применив их к более сложным проблемам и наборам данных.

ИИ Google сможет оценивать эстетическую привлекательность фотографий

Как хорошо машины могут интерпретировать красивые пейзажи? В конце концов, некоторые виды красивы просто потому, что вызывают эмоции у людей, чего компьютеры лишены. Другие пейзажи вроде песчаных дюн для робота слишком напоминают обнажённую натуру. Чтобы решить эти сложности, Google представила нейронную оценку наиболее эстетически привлекательных изображений.

Этот алгоритм стал результатом глубинного обучения нейронной сети на основе данных, помеченных людьми. Он научен предсказывать, какие изображения среднестатистический пользователь посчитает хорошо выглядящими с технической точки зрения или же эстетически привлекательными.

Технология, по словам Google, может быть использована для интеллектуального редактирования и улучшения визуального качества фотографий, исправления визуальных ошибок изображения с точки зрения восприятия. Речь идёт, в частности, о рекомендациях оптимального уровня яркости, детализации светлых и тёмных тонов.

Оценки ИИ Google основываются на эталонных фотографиях, если таковые доступны. Если же нет, используется статистический метод для предсказания качества фотографии. Цель поискового гиганта — добиться от алгоритма того, чтобы автоматическая оценка качества снимка совпадала с человеческим восприятием, даже если изображение подверглось искажениям.

Фотография с различными степенями искажений

Фотография с различными степенями искажений

Однажды, как надеется компания, искусственный интеллект будет помогать пользователям с выборкой наиболее удачных снимков из массива, а также предоставлять в реальном времени оценку той или иной фотографии (даже на этапе съёмки). Но пока эти модели и алгоритмы остаются внутренними концептуальными наработками, результатами которых компания поделилась в научной публикации.

Intel в 2017 году: достижения в РФ и стратегия развития

Корпорация Intel провела презентацию, в которой осветила целый ряд достижений компании, совершённых ею на российском рынке и в мире за уже практически завершившийся 2017 год. Если брать третий квартал, то статистика, безусловно, неумолима и демонстрирует существенный рост в ряде отраслей, от производства памяти и устройств класса IoT до продвижения технологий Intel в секторах ЦОД и супервычислений. На одни только клиентские устройства во всём мире пришлось почти $9 миллиардов дохода, а ещё около $5 миллиардов — на рынок ЦОД, причём в последнем случае это на 7 % больше, нежели за аналогичный период 2016 года. Неплохую динамику демонстрируют секторы FPGA и IoT, но особенно сильно вырос рынок памяти — на целых 37 %, хотя в абсолютных числах он и не самый денежный.

Основные достижения Intel в 2017 году вспомнить нетрудно: в первую очередь, это появление долгожданного нового типа энергонезависимой памяти 3D XPoint, разработанной Intel в альянсе с Micron. И здесь мы видим не только недорогие кеширующие ускорители Optane в формате M.2, но и мощные решения для серверной сферы и энтузиастов: SSD P4800 и Optane SSD 900P соответственно. Ёмкость последних обещает вырасти до 1,5 Тбайт в самое ближайшее время. Второе событие по важности — это запуск платформы Purley, в рамках которой были представлены и процессоры Xeon Scalable с архитектурой Skylake. Совсем недавно мы об этом рассказывали читателям. Наконец, коснулись серьёзные изменения и рынка ПК: компания наконец-то выпустила восьмое поколение настольных процессоров, в число которых вошли доступные шестиядерные решения Coffee Lake для платформы LGA 1151.

Восьмое поколение пришло не только на ПК, но и в мобильный сегмент. Какое-то время мобильные Core i7 можно было назвать таковыми лишь номинально, поскольку они имели всего два физических ядра, но теперь в семейство входят и полноценные четырёхъядерные модели с поддержкой HT и энергопотреблением 15 ватт в экономичном режиме. А при питании от сети их частота может достигать 4,2 ГГц, что вполне серьёзно. Такой ноутбук может потягаться с неплохим настольным ПК, а если он ещё и оснащён дискретной графикой, то и стать хорошей мобильной игровой платформой. Intel вообще уделила большое внимание разнообразию форм-факторов, представив решения практически всех форм и размеров: от компактнейшего Compute Card и чуть менее компактной серии NUC до моноблоков, ноутбуков и устройств класса «два в одном». Рост рынка в России составил 9,8 % — довольно неплохой показатель.

Решения Intel используются терминалах проекта «Парк Зарядье». Они применяются для облегчения навигации гостей парка, работают в качестве касс для покупки билетов, и даже в киосках, где посетители могут сделать собственное фото. В солнечные дни проблем нет, поскольку во всех терминалах установлены панели, яркость которых только начинается от 2500 кд/м2. Изображение видно под любым углом и даже при прямом попадании солнечного света. Поскольку базой является Intel NUC, система охлаждения существенно упрощена, а уровень энергопотребления в сравнении с решениями аналогичного класса ниже на 35 %.

В презентации компания рассказывает, какие направления она считает в настоящее время стратегическими: это системы искусственного интеллекта и машинного обучения, в том числе обеспечивающие работу беспилотного транспорта, беспроводные сети пятого поколения (5G), а также виртуальная и дополненная реальности. Рынок VR и AR (Augmented Reality) к 2020 году может достигнуть более $143 миллиардов, так что это кусок, за который явно стоит побороться. Казалось бы, VR и AR — несерьёзные области, однако это далеко не только развлечения. Особенно полезной может стать в работе дополненная реальность. Она пригодится практически везде и в любой профессии, от простого кладовщика до инженера-проектировщика или микрохирурга, предоставляя нужную информацию мгновенно и не требуя отвлекаться на операции с носимым планшетом или терминалом. Intel ещё предстоит пробить барьер несерьёзного отношения к VR/AR, но такие устройства, как HoloLens, уже начинают использоваться в серьёзных отраслях.

Немного об автономном вождении: по-настоящему безопасные и умные решения используют серьёзные потоки данных. Один только лазерный 3D-сканер (лидар) выдает от 10 до 70 Мбайт данных в секунду, поток аналогичного объёма поступает с видеокамер, и к этому стоит приплюсовать потоки данных от GPS, сонаров и классических радаров радиодиапазона. И это только данные. На их основании ИИ транспортного средства должен составить картину происходящего и правильно, не нарушая безопасности, выполнить свою задачу. Неудивительно, что Intel всерьёз вкладывается в разработки в области искусственного интеллекта: объём экономики пассажиров беспилотного транспорта к 2050 году может достигнуть $7 триллионов. И компания не сидит сложа руки. Уже в 2017 году на дорогах можно увидеть модели BMW и Fiat Chrysler с 4-м уровнем автономности, которые оснащены именно решениями Intel.

Направление ИИ у Intel пока держится на трёх китах: мощных платформах обучения нейросетей Nervana, которые внешне чем-то похожи на ускорители NVIDIA Volta и также используют многослойную высокоскоростную память, процессорах Movidius, предназначенных не для обучения новых нейросетей, а для быстрого выполнения уже натренированных и готовых к исполнению своей задачи решений (на одной платформе таких процессоров может быть до 64). Подключения к облаку при этом не требуется, процессоры справляются собственными силами. Единственное, что им нужно — это соответствующее задаче количество доступных портов в хабе USB 3.0. Наконец, стоит упомянуть и нейроморфный процессор Intel Loihi, который нам предстоит увидеть в первой половине 2018 года.

Если верить разработчикам, Loihi достаточно мощен, чтобы работать вне облака и быть при этом достаточно «сообразительным» для выполнения серьёзных задач. Данных по этой новинке пока мало, мы знаем лишь, что внутри используется ячеистая сетевая топология, такая же, как в процессорах Xeon Scalable и новых процессорах класса HEDT, а 14-нм ядра Loihi способны работать в асинхронном режиме и каждое из них имеет свой движок обучения. По приблизительным оценкам, такой процессор эквивалентен 130 тысячам нейронов и 130 миллионам синапсов человеческого мозга. До «сильного ИИ» пока далеко, но серьёзный прогресс налицо. Возможно, появления настоящих роботов, описанных ещё в старой научной фантастике, ждать придётся не так уж долго. 

NVIDIA с помощью ИИ превращает заваленные снегом улицы в летние

Солнечная погода в Калифорнии прекрасно подходит для обучения автомобильных автопилотов, но есть и минусы — обкатанной в этих условиях машине куда сложнее осуществлять навигацию при плохой погоде. Не говоря уже о том, что есть страны, где снег и дождь — обыденность. Исследователи из команды NVIDIA предлагают решение: они опубликовали ИИ-алгоритм, который позволяет компьютеру представлять улицы в ярком солнечном освещении, даже если вокруг сугробы, слякоть, дождь или непроглядная тьма. Это важно для самоуправляемых автомобилей, но метод может оказаться полезен и в других областях.

Преобразование последовательности зимних изображений в летние

Исследование основано на методе ИИ, который особенно хорош в формировании визуальных данных: генеративно-состязательной сети (GAN). Она построена на комбинации из двух нейронных сетей, одна из которых генерирует образцы, а другая отклоняет неточные по её мнению. В результате ИИ самообучается созданию всё более качественных результатов с течением времени. Этот подход применяется довольно широко в индустрии создания изображений самого разного рода, от поддельных лиц знаменитостей до новых моделей одежды и пугающих реалистичных визуализаций детских рисунков.

Преобразование последовательности дневных изображений в ночные

Впрочем, у исследования NVIDIA есть большое преимущество перед существующими GAN: их алгоритм обучается с гораздо меньшим контролем. Как правило, программам такого рода нужны помеченные наборы данных для генерации новых. Исследователь NVIDIA Минг-Ю Лю (Ming-Yu Liu) объясняет, что обычно для создания GAN, превращающего дневную сцену в ночную, нужно обучать алгоритм на парах изображений, сделанных в одном и том же месте ночью и днём. Затем на основе разницы между такими парами будут создаваться новые изображения.

Но метод NVIDIA не требует предварительной работы и функционирует без заранее помеченных наборов данных, выдавая при этом результаты хорошего качества. Это серьёзно экономит время ИИ-разработчиков, которым в противном случае пришлось бы тратить уйму времени на сортировку обучающих данных.

«Мы одни из первых, кто взялся за проблему, — сказал Минг-Ю. — И нашему методу есть много применений. Например, в Калифорнии редко идёт дождь, но мы хотим, чтобы наши самоуправляемые автомобили работали нормально, когда дождливо. Мы можем использовать наш метод, чтобы превратить солнечные записи вождения в Калифорнии в дождливые и обучать с их помощью наш автопилот».

Метод работает не только для преобразования фотографий улиц. Исследователи уверяют, что проверили его на фотографиях кошек и собак, чтобы превращать снимки одной породы или вида в другую; и использовали его для изменения выражения лиц людей на фотографиях. «Эта работа может быть использована для редактирования изображений, — отмечает разработчик, но добавляет, что конкретных примирений метода пока нет. — Мы делаем это исследование доступным для наших команд по разработке продуктов и клиентов. Но пока ничего не могу сказать о скорости или степени его внедрения».

В полной мере с исследованием можно ознакомиться в специальном документе на ресурсе arXiv, а с дополнительными примерами преобразований — в каталоге изображений.

Нейронная сеть записала убедительный альбом в стиле блэк-метал

На Bandcamp появился вполне неплохой альбом в стиле блэк-метал под названием Coditany of Timeness. Пластинка имеет намеренно ухудшенное качество звучания и дополнена атмосферными интерлюдиями, энергичными барабанами и соответствующим жанру вокалом. Но написан альбом был не живыми музыкантами, а искусственным интеллектом.

Двое исследователей из стартапа Dadabots скормили нейронной сети альбом нью-йоркской команды Krallice под названием Diotima, предварительно разбитый на небольшие кусочки. ИИ должен был угадывать форму волны каждого образца аудио.

Сперва сеть производила только невнятный шум. «На ранних стадиях тренировки производимые звуки были шумными, гротескными и текстурными», — рассказал Си Джей Карр (CJ Carr), один из разработчиков алгоритма и по совместительству технический директор компании. Но по мере появления новых предположений — всего за три дня их было около пяти миллионов — сеть стала звучать очень похоже на Krallice.

Coditany of Timeness звучит как альбом настоящей группы, от которого поклонники жанра вполне могут получить удовольствие. Нейронной сети удалось воссоздать характерные для блэк-метала длинные вступления, дополненные безумными барабанами и искажённым вокалом. Названия песен и обложка пластинки тоже были сгенерированы алгоритмом.

Эта работа — часть побочного проекта Карра и его напарника, музыкального продюсера Зака Зуковски (Zack Zukowski). Coditany of Timeness стал первым из трёх альбомов Dadabots. Два других — пластинка в стиле мат-рок Calculating Calculating Infinity на основе работ металкор-группы Dillinger Escape Plan, а также Deep the Beatles! на базе музыки легендарной ливерпульской четвёрки.

Исследователи планируют выпускать по одному такому альбому в неделю. Следующие работы нейронной сети могут основываться на композициях других метал-групп вроде Converge и Meshuggah и даже на экспериментальном джазе Джона Зорна (John Zorn).

NVIDIA научилась генерировать снимки знаменитостей с помощью ИИ

Один из самых неочевидных вариантов использования современного искусственного интеллекта — генерация поддельных изображений. NVIDIA ещё раз это подтвердила: она опубликовала исследование о том, как ИИ может создавать фотореалистичные картинки с лицами несуществующих знаменитостей. Сама по себе идея не нова, но компания утверждает, что научилась производить самые правдоподобные и подробные снимки.

Процесс подробно продемонстрирован в видеоролике ниже: в самом начале показаны фотографии настоящих людей, с которыми работала система. Исследователи использовали генеративно-состязательную нейронную сеть, которая состоит из двух отдельных сетей. Первая производит изображения на основе полученных данных, а вторая проверяет, реальны ли показанные на них люди.

Вместе эти две сети создают правдоподобные картинки, причём не только с лицами, но и с повседневными предметами и пейзажами. Генеративная сеть создаёт изображения, состязательная проверяет их, а затем генеративная улучшает результат. По существу, система обучает сама себя.

У этого метода есть ограничения. По стандартам современных камер фотографии получаются небольшими — всего 1024 × 1024 пикселя. При этом можно обнаружить признаки того, что они поддельные. Во-первых, несуществующие знаменитости похожи на тех, на основе которых созданы. Во-вторых, на картинках попадаются недочёты — например, ухо может быть размазано в красную кашицу.

Подобную технологию можно использовать во многих областях. У неё есть очевидные преимущества для тех, кто, например, создаёт рекламу и видеоигры. По сути, ИИ способен делать сложную работу быстро и эффективно.  

Intel представила нейроморфный процессор Loihi

Сегодня практическая сторона вопросов, связанных с разработкой искусственного интеллекта, лежит в плоскости реализации глубокого или глубинного обучения (deep learning). На основе подобранных особых образом паттернов происходит обучение системы, которая затем реализует полученные знания на практике: водит машины, распознаёт образы или звуки, делает что-то ещё.

И всё бы хорошо, только для глубокого обучения требуется предварительный массивный обмен информацией с базой данных, что в оперативной обстановке реализовать или очень тяжело, или попросту невозможно. От роботов и ИИ хотелось бы большей сообразительности, чтобы думал как человек, опираясь на ассоциативное мышление. Это желание породило попытки воплотить в кремнии подобие человеческого мозга, где электронные схемы имитировали бы работу нейронов и синапсов.

В современной истории более-менее комплексное воплощение «человеческого мозга» в кремнии создали инженеры компании IBM. В 2011 году компания представила процессор TrueNorth и позже развила архитектуру до 4096-ядерного процессора с одним миллионом цифровых нейронов и 256 млн программируемых цифровых синапсов. Весной прошлого года на базе 16 28-нм процессоров TrueNorth компания поставила первый в индустрии «когнитивный» компьютер Национальной администрации по ядерной безопасности (National Nuclear Security Administration). Что интересно, анонс IBM TrueNorth в 2011 году заставил задуматься о нейроморфных процессорах компанию Intel.

Ведущий разработчик «когнитивного» процессора IBM, Дхармендра Модха (Dharmendra S. Modha)

Ведущий разработчик «когнитивного» процессора IBM, Дхармендра Модха (Dharmendra S. Modha)

Сегодня Intel раскрыла карты. Оказывается, в компании шесть лет назад начали разрабатывать фирменный нейроморфный процессор. Воплощением многолетней разработки стало решение под кодовым именем Loihi (скорее всего речь идёт о крупнейшем подводном вулкане в США — Лоихи). Процессор Loihi будет выпускаться с использованием 14-нм техпроцесса и начнёт поставляться академическим учреждениям в первой половине 2018 года.

По словам Intel, Loihi сочетает процессы обучения, тренировки и принятия решений в одном чипе, позволяя системе быть автономной и «сообразительной» без подключения к облаку (к базе данных). К примеру, Intel заявляет, что при обучении с помощью базы данных MNIST (Mixed National Institute of Standards and Technology) нейроморфный процессор Loihi оказывается в 1 млн раз лучше, чем другие типичные спайковые нейронные сети. При этом, если сравнивать Loihi с обычными свёрточными нейронными сетями, разработка Intel при обучении использует много меньше ресурсов, а это каналы связи, потребление и скорость принятия решений. Также Intel уверяет, что Loihi обучается в 1000 раз эффективнее, чем обычные компьютерные системы общего назначения.

Нейроморфный процессор Intel Loihi (Intel)

Нейроморфный процессор Intel Loihi (Intel)

К сожалению, компания не уделила достаточно внимания описанию технических спецификаций Loihi. Вкратце сообщается, что Loihi — это многоядерное решение с внутренней ячеистой сетью. Ядра Loihi — нейроморфные асинхронные (каждое из них может работать независимо от других). Ячеистая сеть имеет несколько степеней разрежённости, она иерархическая и поддерживает рекуррентную топологию нейронной сети, где каждый нейрон может взаимодействовать с тысячами других нейронов.

Также каждое нейроморфное ядро включает механизм (движок) обучения, который может быть запрограммирован для адаптации сети в процессе работы. Если транслировать состав процессора Intel Loihi на возможности мозга человека, то решение включает 130 000 нейронов и 130 млн синапсов. Процессор Intel Loihi не такой умный, как процессор IBM TrueNorth, но определённо эффективнее с позиции производства с технологическими нормами 14 нм.

В Москве планируется создать нейросеть для считывания показаний счётчиков

В российской столице стартовал эксперимент по созданию электронного сервиса на основе нейронных сетей для сбора показаний счётчиков воды по фотографиям.

Как сообщает Официальный портал Мэра и Правительства Москвы, проект курирует Департамент информационных технологий. Специальные алгоритмы, как ожидается, позволят с высокой надёжностью распознавать показания счётчиков по снимкам, сделанным на камеру мобильных устройств.

Обучить быстрому и точному распознаванию показаний нейросеть планируют до конца года. Для этого создатели сервиса просят горожан принять участие в эксперименте, прислав фотографии своих счётчиков. Чем больше фотографий получит система, тем быстрее нейросеть сможет обучиться распознавать показания без ошибок. Для отправки изображений регистрация не требуется.

После завершения обучения нейросеть будет способна распознавать цифры на любых снимках, которые способен различить человеческий глаз, независимо от их качества, разрешения камеры, уровня освещённости и угла съёмки.

Предполагается, что сервис станет доступен всем пользователям мобильных приложений «ЖКХ Москвы», «Госуслуги Москвы» и в личном кабинете на сайте mos.ru. Считывание показаний по фотографии избавит от необходимости вводить цифры вручную, что позволит сэкономить время. 

За переводы в Facebook теперь полностью отвечает искусственный интеллект

Facebook долгое время работала над улучшением переводов текста в публикациях и комментариях. Теперь она объявила о том, что эта работа завершена. Благодаря искусственному интеллекту переводы в социальной сети станут гораздо точнее.

Раньше Facebook использовала модели машинного перевода на основе фраз. Система разбивала предложения на слова или словосочетания, из-за чего качество перевода целого предложения зачастую оставляло желать лучшего. Особенно сильно это было заметно, когда сервис переводил на язык со структурой, которая значительно отличается от структуры языка оригинального текста.

Теперь сайт переводит с помощью нейронных сетей, которые принимают во внимание содержимое всего предложения, а также его контекст. Благодаря этом перевод становится в разы точнее и живее. Пример представлен на картинке ниже. Первый вариант — результат работы фразовой системы, второй — нейронной сети.

Нейросети работают с незнакомыми словами лучше, чем другие системы, и переводят быстрее. Преимущества нейронных сетей настолько очевидны, что ими пользуются многие крупные компании — например, Google и Microsoft.

«Завершение перехода от фразового перевода к нейронному является важной вехой на пути к предоставлению возможностей Facebook каждому на предпочитаемом языке, — заявила компания. — Мы продолжим расширять границы технологии нейронного перевода, чтобы дать живой перевод каждому в Facebook».

Нейронные сети Google упростят создание приложений с поддержкой распознавания объектов

Смартфоны быстро стали одной из главных обителей искусственного интеллекта. На замену алгоритмам, которые работают в облаке и передают обработанную информацию на устройства через Интернет, пришло программное обеспечение, которое производит вычисления прямо на телефонах и планшетах. Google уделяет такому ПО особое внимание.

Последний пример искусственного интеллекта от калифорнийского поискового гиганта — MobileNets, набор нейронных сетей машинного зрения, которые адаптированы под работу на мобильных устройствах. Есть нейронные сети разных размеров: чем больше сеть, тем более мощный процессор должен быть у телефона.

MobileNets может использоваться для анализа лиц, обнаружения объектов, геопозиционирования фотографий. Нейронная сеть может, например, определить породу собаки на изображении. Инструменты легко поддаются адаптации, поэтому им можно найти массу применений. По словам Google, производительность сетей варьируется в зависимости от задач. Но в целом они либо соответствуют современным стандартам, либо близки к ним.

Пользователям в ближайшем будущем стоит ждать появления массы новых мобильных приложений с функциями ИИ. Тот факт, что искусственный интеллект работает прямо на устройстве, имеет ряд преимуществ, включая более высокие производительность и удобство, а также безопасность. Если быть точнее, то вам не нужно подключаться к Сети и ваши данные не отправляются на удалённые серверы.

Facebook научила ботов вести переговоры

Facebook разработала бота, который способен на гораздо большее, чем просто приём заказов или платежей. Компания наделила его способностью вести переговоры, разрабатывать стратегии и заранее планировать фразы.

Научить компьютер воспринимать разговор на человеческом уровне очень сложно. Это требует большого объёма знаний, а также способности к быстрой и точной адаптации. Но исследователям из Facebook Artificial Intelligence Research (FAIR) удалось разработать технологию, которая позволяет ботам успешно вести переговоры.

Для этого исследователи взяли в качестве источника знаний реальные переговоры двух людей. Им показали набор предметов вроде книг, мячей и головных уборов. Каждый человек получил свой набор значений для каждого предмета. Затем они начали спорить о том, как разделить эти предметы между собой. Наконец, на основе этих переговоров была обучена рекуррентная нейронная сеть.

Но исследователи не просто запрограммировали имитирование переговоров: они заставили систему учиться, как добиваться целей. Боты были протестированы на реальных людях. По словам Facebook, большинство из них даже не поняли, что общаются с компьютером.

Чтобы достичь такого результата, исследователи использовали специальную технологию, которая позволила реализовать долгосрочное планирование разговора. По сути, бот обдумывает потенциальный диалог и симулирует его до самого конца. Это помогает компьютеру избегать запутывания, разочарований и неинформативного обмена фразами. Бот ведёт диалог так, чтобы достичь поставленных целей.

Такие боты ведут переговоры более целеустремлённо и предлагают окончательное решение чаще. Они могут производить новые изречения, а не только те, с которыми столкнулись во время обучения на основе исходных данных.

Что наиболее примечательно, боты разрабатывают хитрые стратегии. Были случаи, когда компьютер притворялся, что ему интересен предмет, который на самом деле не имел для него никакого значения. Затем он как бы уступал этот предмет в обмен на что-то, что ему действительно было нужно.

«Это поведение не было запрограммировано исследователями, а были обнаружено ботом как метод достижения целей», — пояснила Facebook.

Носимое устройство на базе ИИ отличает человека от машины по голосу

Команда австралийских исследователей из технологического агентства DT представила устройство для тех, кто боится, что скоро отличить человека от машины будет невозможно. Носимая система под названием Anti-AI AI определяет синтетическую речь и предупреждает пользователя, что голос, который он слышит, не принадлежит человеку.

Прототип устройства был разработан всего за пять дней. Он работает на нейронной сети на базе системы машинного обучения Tensorflow от Google.

Исследователи натренировали искусственный интеллект, используя базу данных синтетических голосов. Так сеть научилась распознавать образцы искусственной речи. Носимое устройство захватывает звук и отправляет его в облако. Если оно распознаёт синтетическую речь, то тонко намекает человеку, что он общается не с себе подобным.

Вместо того, чтобы предупреждать пользователя посредством света, звука или вибраций, прототип делает это с помощью миниатюрного термоэлектрического охлаждающего элемента.

«Мы хотели, чтобы устройство давало носителю уникальное ощущение, которое соответствует тому, что он чувствует, когда понимает, что голос синтетический», — объяснили разработчики.

«Используя термоэлектрический элемент Пельтье размером 4 × 4 мм, мы смогли воссоздать заметный холодок на коже в районе задней части шеи, не используя слишком много тока», — добавили исследователи.

Anti-AI AI — пока всего лишь концепция: маловероятно, что в ближайшее время устройство выйдет на рынок. Но исследователи продолжают совершенствовать технологию и обещают, что в будущем система будет распознавать синтетические голоса гораздо лучше.

Специалисты из Сколково предложили устранять шумы на фото при помощи нейросети

Команда специалистов из Сколковского института науки и технологий под руководством профессора Стаматиоса Лефкиммиатиса (Stamatios Lefkimmiatis) достигла успеха в вопросе эффективного подавления шумов на изображениях. По словам сколковских инноваторов, ими был найден уникальный метод, который превосходит в качественном аспекте все известные и доступные аналоги.

sk.ru

sk.ru

В основе методики устранения шумов лежат нейронные сети. За счёт реализованного в программном обеспечении алгоритма для их глубинного обучения учёные добились максимальной результативности при обработке снимков. Приоритетной задачей для господина Лефкиммиатиса и его группы при написании ПО значилось сохранение присущих любой фотографии аутентичных нюансов, которых они лишались вместе с шумами. 

Нейронная сеть из Сколково справится с удалением шумов и не исказит при этом характерные для изображения детали как на чёрно-белых фотографиях, так и снимках в цвете. При этом она способна даже выявлять и учитывать такую особенность, как идентичные участки исследуемого файла. 

Приобщение нейронных сетей к обработке фотографий показалось весьма перспективным начинанием не только для Стаматиоса Лефкиммиатиса, но и Ричарда Чжана (Richard Zhang) и его коллег. Благодаря данной технологии на свет усилиями команды Ричарда Чжана появилась программа для трансформации чёрно-белого фото в цветное, которая также дополнительно учитывает требования и личные предпочтения пользователя. 

Частота ошибочных слов в распознавании речи Google снизилась до 4,9 %

Генеральный директор Google Сандар Пичаи (Sundar Pichai) сообщил, что частота ошибочных слов технологии распознавания речи компании снизилась до 4,9 %. Другими словами, Google расшифровывает неправильно каждое 20 слово. В 2013 году показатель составлял 23 %, два года назад во время конференции I/O 2015 — 8 %.

VentureBeat

VentureBeat

Пичаи сообщил о достижении в рамках I/O 2017, на которой компания уделила огромное внимание искусственному интеллекту. Для достижения высокой точности распознавания речи Google использует технологии глубокого обучения.

«Мы используем голос как средство ввода во многих наших продуктах, — сказал Пичаи. — Всё потому, что компьютеры стали гораздо лучше понимать речь. У нас было несколько значительных достижений, но с прошлого года темп роста был удивительным. Наша частота ошибочных слов продолжает улучшаться даже в очень шумных местах. Поэтому мы можем точно захватывать ваш голос, когда вы говорите с Google через ваш телефон или Google Home».

В октябре 2016 года Microsoft сообщила, что достигла паритета с человеком в плане машинного распознавания речи. Тогда её уровень ошибок в распознавании слов составил 5,9 %. Неясно, производят ли обе компании оценку по одним и тем же стандартам.

В начале года Google рассказала, что её частота ошибок в распознавании речи с 2012 года сократилась более чем на 30 %. По словам компании, этому поспособствовало активное использование нейронных сетей.

Пичаи поделился интересной подробностью разработки «умной» колонки компании. «Когда мы готовились к поставкам Google Home, то сначала планировали добавить восемь микрофонов, — рассказал генеральный директор. — Но благодаря нейронным сетям и использованию технологии под названием “нейронное формирование луча” мы смогли выпустить её всего с двумя микрофонами и достичь того же качества».