Теги → нейронная сеть
Быстрый переход

Новая нейросеть NVIDIA воссоздала игру Pac-Man за 4 дня

Pac-Man появилась на аркадных автоматах 22 мая 1980 года. На разработку игры ушло целых 17 месяцев — ни один проект прежде не требовал столько времени. Ровно 40 лет спустя компания NVIDIA представила нейросеть GameGAN, которая смогла воссоздать всю игру Pac-Man всего за 4 дня.

GameGAN — это игровая генеративно-состязательная сеть (Generative Adversarial Network, GAN), подобная тем, которые используются для создания фотореалистичных изображений несуществующих людей.

В общем понимании GAN состоит из двух нейросетей — генерирующей и дискриминативной. Генерирующую сеть обучают с использованием больших наборов данных, а затем ставят перед ней задачу — создать или воссоздать какое-то изображение на основе полученной информации. Дискриминирующая нейросеть сравнивает результат работы первой сети с тем, что содержится в базе данных, а затем определяет, насколько точным получился этот результат. Совместная цикличная работа обеих нейросетей способна приводить к созданию всё более и более реалистичных изображений.

В случае с GameGAN компания NVIDIA обучила генеративную нейросеть с помощью 50 тыс. игровых сессий в Pac-Man. Затем перед ней поставили задачу — воссоздать увиденную игру целиком, начиная от статичных стен и точек и заканчивая двигающимися призраками и самим Пакманом. Обучение и воссоздание игры проводилось с использованием квартета графических ускорителей NVIDIA Quadro GP100.

Самое интересное заключается в том, что GameGAN не предоставили доступ к оригинальному коду игры или её движку. Всё обучение сводилось к тому, что одна нейросеть наблюдала за тем, как в Pac-Man играла другая нейросеть.

«За последние годы было создано множество ИИ, способных играть в игры. Но они лишь агенты в этих играх. Наша GAN способна воспроизводить игры фактически из ничего», — прокомментировал Рев Лебаредян (Rev Lebaredian), вице-президент NVIDIA по вопросам технологий симуляции.

Создателем GameGAN является специалист NVIDIA Сын-Вук Ким (Seung-Wook Kim)

Создателем GameGAN является специалист NVIDIA Сён-Вук Ким (Seung-Wook Kim)

Как указано в блоге компании, одна нейросеть выступает в качестве агента (игрока), GameGAN в свою очередь реагирует на действия первой нейронной сети и покадрово создаёт новое игровое окружение в реальном времени. Более того, на основе изображений из игр с многоуровневой структурой GameGAN способна генерировать новые игровые уровни, которые она никогда не видела раньше.

Это чем-то похоже на методы процедурной генерации, которые использовались ещё с конца 70-х годов.

«Для создания игры, подобной Pac-Man, программисту требуется придумать и прописать правила поведения и взаимодействия всех имеющихся агентов внутри игры. Это очень кропотливая работа. GAN может упростить эту задачу. Нейросеть способна обучаться новым правилам через наблюдение. В идеале алгоритмы, подобные GameGAN, можно будет обучить процедурной генерации правил для той игры, которую вы хотите создать», — пояснил Лебаредян.

Процесс обучения при этом будет таким же простым, как, скажем, установка видеорегистратора в автомобиль с последующей поездкой по городу. Аналог GameGAN сможет обучаться по записанным видео и процедурно генерировать реалистичные уровни на основе того, что покажет камера.

В перспективе подобный метод также сможет ускорить подготовку автоматизированных машин. Использующиеся на тех же складах и сборочных линиях роботы могут представлять опасность для работающих там людей. Поэтому перед запуском в работу эти машины проходят виртуальную подготовку с применением различных сценариев, что в итоге минимизирует возможные риски. Проблема в том, что разработка всех этих обучающих сценариев отнимает большое количество ресурсов и времени. Вполне возможно, что однажды будет создана модель глубокого машинного обучения, с помощью которой можно будет предсказывать те или иные последствия в различных сценариях. Но пока этого нет.

«В конечном итоге мы создадим ИИ, который сможет имитировать правила вождения или законы физики, просто наблюдая за тем, как действуют агенты в этих средах. GameGAN — первый шаг к этому», — добавил Санья Фидлер (Sanja Fidler), директор исследовательской лаборатории NVIDIA в Торонто.

Полноценную версию Pac-Man, созданную нейросетью GameGAN, NVIDIA собирается опубликовать в Сети этим летом.

Нейросеть научилась превращать портреты людей в фотографии животных

Бельгийский программист Ксандер Стинбрюгге (Xander Steenbrugge) разработал нейросеть «Humanimals», которая превращает людей на фото в животных. Новый эксперимент исследователя стал частью его крупного проекта «Neural Synesthesia», в рамках которого он создаёт произведения искусства совместно с искусственным интеллектом.

В рамках нового эксперимента программист совместил две нейронные сети, выложенные в открытый доступ. Первая генеративная модель называется StarGAN v2, основана на 15 тысячах HD-изображениях животных и способна превращать одних зверей в других. Вторая модель известна как StyleGAN v2 и плавно придаёт лицу одного человека очертания другого лица.

Обе нейронные сети являются генеративно-состязательными и состоят из двух частей. Первая генерирует образцы, а вторая отфильтровывает те, которые не соответствуют заданным требованиям и пропускает «правильные». Обычно генеративно-состязательные нейросети используются для создания портретов и улучшения качества фотографий.

«В большинстве научных работ нейронная сеть имеет одну намеченную цель «А». Но поскольку методы машинного обучения очень гибки, на самом деле он может достигать целей «B», «C» и «D» с одной и той же моделью, но с разными алгоритмами. Вот тут-то и начинается настоящее веселье»,объяснил Ксандер Стинбрюгге журналистам издания Motherboard.

Практического применения новой нейронной сети нет, но она в очередной раз доказывает, что компьютеры тоже могут заниматься творчеством. В рамках проекта «Neural Synesthesia» Ксандер уже создавал произведения искусства. Например, ранее он научил нейронную сеть создавать плавные переходы между картинами и скрестил полученный результат с музыкой. Результат работы можно посмотреть на видео ниже.

Разработкой подобных нейронных сетей занимаются в России. В 2019 году сотрудники Центра искусственного интеллекта Samsung создали модель, которая буквально «оживляет» портреты известных людей. Посмотреть, как бы выглядел говорящий Ф. М. Достоевский, можно здесь.

Бельгийцы научат дроны высшему пилотажу

Когда ты большой, обходить препятствия много ума не надо. Их можно даже не замечать. Другое дело маленький и юркий дрон, встреча которого со стенкой, веткой, столбом закончится там же, где началась. В жизни с задачей безопасного пилотирования и уклонения от препятствий легко справляется относительно маленький аналоговый мозг птиц. Но рукотворные цифровые решения с той же функциональностью представляются всё ещё слишком большими для маленьких дронов. Или уже нет?

Бельгийский исследовательский центр Imec сообщил об интересной разработке. Сводная группа инженеров спроектировала первый в мире чип на основе нейронной сети для обработки радиолокационных сигналов. Утверждается, что процессор (или ускоритель) на основе спайковой рекуррентной нейронной сети потребляет в 100 раз меньше «традиционных решений» и имеет в 10 раз меньшие задержки. Это означает, что дроны или любая другая автономная система с использованием радаров, лидаров, сонаров и прочего будет практически мгновенно реагировать на препятствия и тратить на расчёты, предотвращающие столкновения, минимум энергии.

Первоначально чип SNN (спайковая нейронная сеть) разрабатывался бельгийцами для расшифровки показаний приборов ЭКГ (съём электрокардиограмм). Однако получившийся в результате микропроцессор превзошёл все ожидания. Рекордно низкое потребление и мизерные задержки перевели разработку в плоскость систем с автопилотами. Более того, они подходят и для дронов, размеры которых и ограниченная ёмкость батарей не позволяли им быть слишком умными и сообразительными.

По данным разработчиков, спайковая нейронная сеть в составе чипа классифицирует микродоплеровские сигнатуры радиолокаторов с использованием всего 30 мкВт мощности, а интеллектуальная маломощная радиолокационная система определяет приближающиеся объекты за считанные миллисекунды. Впрочем, это не ограничивает использование чипа в таких сферах, как распознавание речи или расшифровка показаний медицинских приборов или данных с других произвольных наборов датчиков. Но предложенное сочетание экономности, эффективности и производительности обещает привести к появлению портативных решений с достаточно сильным интеллектом.

В светлое облачное будущее Huawei рассчитывает въехать на собственных GPU

Взятый Huawei курс на самодостаточность является отчасти вынужденной мерой, поскольку китайскую компанию регулярно притесняют американские власти. Южнокорейские источники теперь сообщают, что в недрах нового подразделения Huawei вызревают планы по созданию собственных графических процессоров.

Источник изображения: Reuters

Источник изображения: Reuters

Впрочем, речь пока не идёт о выходе на потребительский рынок. Графические процессоры нужны Huawei для развития платформ искусственного интеллекта и ускорения масштабных вычислений. Как сообщает корейское издание The Elec, местное представительство Huawei Technologies в этом году сформирует новое подразделение Cloud and AI Business Group, входящее в состав дивизиона по работе с корпоративными клиентами. В дальнейшем новое подразделение обретёт независимость и расширится.

Сейчас Huawei уже охотится за бывшими и действующими специалистами NVIDIA, а также руководящим составом американской компании, чтобы переманить на работу людей с опытом создания графических процессоров. В августе 2019 года Huawei представила процессоры Ascend 910, ориентированные на работу в системах искусственного интеллекта. В январе текущего года были представлены процессоры Kunpeng 920, которые сочетают архитектуру ARMv8 и наличие 64 ядер: они будут применяться в серверных системах. Для полного «ансамбля» Huawei не хватает только ускорителей вычислений на базе графических процессоров, и теперь компания надеется их создать силами нового подразделения.

NVIDIA работает над настраиваемой пользователем резкостью для DLSS 2.0

NVIDIA недавно выпустила новую версию своей технологии интеллектуального масштабирования — DLSS 2.0. Этот метод уже используется в таких проектах, как Deliver Us The Moon, Wolfenstein: Youngblood, Control и MechWarrior 5. И, согласно команде разработчиков, в перспективе будет добавлена пользовательская регулировка уровня резкости.

Как сообщается, в настоящее время существует скрытая команда для DLSS 2.0 — r.NGX.DLSS.Sharpness, но её вызов ничего не даёт. Однако, согласно NVIDIA, речь идёт о регулируемом пользователем уровне резкости, который вскоре будет добавлен в DLSS 2.0:

«В настоящее время мы усердно трудимся над обкаткой настраиваемого пользователем уровня резкости, чтобы он хорошо сочетался с внутренним значением резкости, создаваемым нейросетями DLSS — дабы на выходе получался всегда высококачественный результат, но со значительным уровнем гибкости в отношении резкости, которую предпочитает пользователь. В настоящее время эта возможность доступна только в качестве функции отладки в предварительных сборках DLSS».

Это, несомненно, порадует тех игроков, которые считают результат работы DLSS 2.0 слишком резким (или, напротив, недостаточным) на свой вкус. К сожалению, NVIDIA не указала, когда эта функция будет доступна в реальных играх с DLSS 2.0 и будет ли она поддерживаться уже вышедшими проектами.

Платформа Huawei MindSpore для вычислений в области ИИ стала открытой

Вычислительная платформа Huawei MindSpore похожа на Google TensorFlow. Но у последней есть преимущество, поскольку это платформа с открытым исходным кодом. Следуя по стопам конкурента, Huawei тоже сделала среду Mindspore открытой. Компания объявила об этом во время мероприятия Huawei Developer Conference Cloud 2020.

Китайский технологический гигант Huawei впервые представил платформу MindSpore для вычислений в области ИИ в августе 2019 года вместе со своим специализированным процессором Ascend 910. MindSpore преследует три основные цели: простота разработки, эффективное исполнение кода и возможность адаптации к любым сценариям соответственно.

Поскольку конфиденциальность стала проблемой в современном мире, большое внимание при разработке MindSpore было уделено защите данных и отсутствию прямого доступа к личной информации. Инфраструктура MindSpore может использоваться во всех сценариях, на всех устройствах: как на конечных терминалах вроде смартфонов, так и облачной среде.

Благодаря тому, что в типичных нейронных сетях для NLP (Natural Language Processing) MindSpore требует на 20 % меньше строк основного кода, чем другие платформы, эффективность разработки, как утверждает компания, повышается минимум на 50 %. Инфраструктура Huawei MindSpore поддерживает не только собственные найропроцессоры вроде упомянутого Ascend 910, но и другие доступные на рынке процессоры и графические ускорители.

«Яндекс» открыла галерею нейросетевого искусства

Компания «Яндекс» объявила о запуске виртуальной галереи нейросетевого искусства. Галерея покажет пользователям 4000 уникальных картин, автором которых является алгоритм на основе технологий искусственного интеллекта. Любой желающий может выбрать одну из оставшихся в наличии картин и забрать её себе абсолютно бесплатно. При этом полноразмерная версия картины будет только у её владельца.

Галерея нейросетевого искусства подразделяется на 4 тематических зала. Пользователи могут смотреть творения ИИ-системы в категориях «Природа», «Люди», «Город» и «Настроение». Виртуальная галерея позволит посетителям, не выходя из дома побывать на полноценной выставке, а понравившимися работами можно поделиться с друзьями в социальных сетях.

Первые посетители смогут скачать одну приглянувшуюся картину в полном размере. Чтобы стать обладателем картины, написанной нейросетью, потребуется авторизоваться в каком-либо сервисе «Яндекс». Картины, которые получат владельцев, продолжат оставаться доступными для просмотра, но в галерее они будут отображаться только в уменьшенном виде.

Представленные работы создавались нейросетью, которая повторяет архитектуру StyleGAN2. В процессе обучения нейросети специалисты использовали произведения разных направлений, таких как кубизм, минимализм, стрит-арт и др. В процессе обучения нейросеть изучила 40 000 картин, после чего взялась за создание собственных произведений. Для отбора картин по разным категориям использовалась другая нейросеть, которая применяется в сервисе «Яндекс.Картинки» для поиска изображений по запросам. Именно она смогла увидеть на картинах людей, природу, город и разные настроения, отсортировав имеющиеся в наличии работы по категориям.

Intel Xeon в несколько раз превзошёл восемь Tesla V100 при обучении нейросети

Центральный процессор в несколько раз обошёл по производительности связку сразу из восьми графических процессоров при глубоком обучении нейросетей. Звучит как что-то из научной фантастики, не так ли? Но исследователи из Университета Райса (Rice University) с помощью Intel Xeon доказали, что это реально.

Графические процессоры всегда намного лучше подходили для глубокого обучения нейросетей, нежели центральные процессоры. Это связано с архитектурой GPU, которые состоят из множества мелких ядер, которые способны параллельно выполнять очень много небольших задач, что как раз и требуется для тренировки нейросетей. Но оказалось, что и центральные процессоры при должном подходе могут быть очень эффективны в глубоком обучении.

Сообщается, что при использовании алгоритма глубокого обучения SLIDE процессор Intel Xeon с 44 ядрами оказался в 3,5 раза производительнее, нежели связка из восьми ускорителей вычислений NVIDIA Tesla V100. Пожалуй, это первый раз, когда CPU не только сравнялся с GPU в подобном сценарии, но и превзошёл их, причём очень заметно.

В выпущенном университетом пресс-релизе говорится, что алгоритм SLIDE не нуждается в графических процессорах, так как использует совершенно иной подход. Обычно при обучении нейросетей используется методика обратного распространения ошибки обучения, которая использует перемножение матриц, которое является идеальной нагрузкой для GPU. В свою очередь SLIDE превращает обучение в проблему поиска, которая решается с помощью хеш-таблиц.

Глава исследовательской группы по разработке SLIDE Аншумали Шривастава (Anshumali Shrivastava)

Глава исследовательской группы по разработке SLIDE Аншумали Шривастава (Anshumali Shrivastava)

По словам исследователей, это значительно снижает вычислительные затраты на обучение нейросетей. Для того, чтобы получить точку отсчёта, исследователи использовали имеющуюся в лаборатории Университета Райса систему с восемью ускорителями Tesla V100 для обучения нейросети с использованием библиотеки Google TensorFlow. Процесс занял 3,5 часа. После, аналогичная нейросеть была обучена с помощью алгоритма SLIDE на системе с одним 44-ядерным процессором Xeon, и это заняло всего лишь 1 час.

Тут стоит отметить, что в ассортименте Intel сейчас нет 44-ядерных моделей процессоров. Возможно, исследователи использовали какой-то кастомный или ещё не вышедший чип, но это маловероятно. Куда более вероятно, что здесь была использована система с двумя 22-ядерными Intel Xeon, или просто в пресс-релизе допущена ошибка, и речь идёт о 44 потоках, которые обеспечил один 22-ядерный процессор. Но в любом случае это не умаляет самого достижения.

Конечно, алгоритму SLIDE ещё предстоит пройти множество проверок и доказать свою эффективность, а также отсутствие каких-либо особенностей и подводных камней. Однако то, что мы видим сейчас, очень впечатляет и действительно может сильно повлиять на развитие индустрии.

«ВКонтакте» будет использовать собственную технологию распознавания голосовых сообщений

Пресс-служба «ВКонтакте» сообщила о том, что в социальной сети началось тестирование технологии распознавания голосовых сообщений. Для того чтобы увидеть содержание голосового сообщения, пользователям будет достаточно нажать на соответствующую кнопку, после чего на экран будет выведен расшифрованный текст.

В настоящее время воспользоваться технологией распознавания речи могут только участники программы тестирования VK Testers. Функция распознавания речи работает на iOS, опираясь на стороннюю технологию. В дальнейшем планируется интегрировать собственную разработку социальной сети, на основе которой функция распознавания речи станет доступна широкому кругу пользователей. Технология представляет собой нейросетевое решение, способное обучаться русскому сленгу, а также может масштабироваться и настраиваться. В будущем данная технология может стать основой функции поиска по сообщениям, в том числе голосовым.

«Ежемесячно 30 миллионов человек обмениваются голосовыми сообщениями ВКонтакте. Для такого высоконагруженного сервиса требовалось решение, способное обрабатывать огромное количество входящей информации без потери качества. Поэтому мы создали его сами. Ещё одним серьёзным вызовом стал разговорный язык. Записывая голосовые сообщения, люди редко выражаются как персонажи классической русской литературы — напротив, они используют много сленга и заимствованной лексики. Готовые решения на наших тестах плохо справлялись с распознаванием таких слов, но мы учли специфику современного русского языка при разработке собственной технологии», — сказал директор по исследованиям в области искусственного интеллекта ВКонтакте Павел Калайдин.

Функция Facebook 3D Photos придаёт объём любой фотографии

После внедрения поддержки сферических фотографий и видеороликов Facebook представила в 2018 году функцию, позволяющую просматривать и публиковать 3D-фотографии. Однако её работа зависит от способности смартфона делать стереоскопические снимки аппаратными средствами. Но Facebook работает на тем, чтобы донести этот новый визуальный формат до большего количества людей.

Компания задействовала методы машинного обучения для создания трёхмерных фото практически из любого изображения. Будь то новая фотография, только что сделанная на устройстве Android или iOS с помощью стандартной одиночной камеры, или фотография десятилетней давности — Facebook может преобразовать её в стереоснимок.

Создание технологии потребовало преодоления множества технических проблем, таких как обучение модели, которая бы правильно определяла трёхмерные позиции чрезвычайно широкого спектра объектов, и оптимизация системы для работы на типичных мобильных процессорах за долю секунды.

Специалисты обучили свёрточную нейронную сеть (CNN) на миллионах пар полноценных 3D-изображений, находящихся в открытом доступе, и сопровождающих их карт глубины и использовали ранее разработанные Facebook AI методы оптимизации FBNet и ChamNet. Основной этап тренировки нейросети занял примерно три дня и потребовал 800 графических процессоров Tesla V100.

Новую функцию 3D Photos уже можно опробовать в приложении Facebook на смартфонах iPhone и Android. Более подробно ознакомиться с созданием алгоритмов и примерами их работы можно в блоге компании.

Искусственный интеллект поможет правильно выбрасывать мусор

За последние годы искусственный интеллект стал использоваться в самых различных областях, иногда очень неожиданных. Например, инженеры стартапа Intuitive AI разработали мусорный контейнер, оснащённый искусственным интеллектом, который должен помочь правильно выбрасывать мусор.

Как известно, в общественных заведениях нередко устанавливаются контейнеры для раздельного сбора мусора с отдельными отсеками под органические отходы и различное вторсырьё. Однако иногда стоя перед такими разделёнными контейнерами люди не могу определиться, в какой именно отсек выбросить тот или иной предмет.

И здесь на помощь как раз и должен прийти «умный» контейнер от Intuitive AI. Он построен на ИИ-платформе NVIDIA Jetson TX2, а также оснащён камерой, динамиками и дисплеем. Камера автоматически сканирует выбрасываемый предмет в руках человека, а нейромодуль анализирует информацию с камеры основываясь на машинном обучении на основе собственной базы данных мусора под названием WasteNet. И спустя несколько секунда контейнер укажет, в какой именно отсек лучше выбросить ваш мусор.

Разработчики Intuitive AI утверждают, что «умный» мусорный контейнер позволил улучшить распределение мусора на 300 % в тех местах, где был установлен. Можно предположить, что связано это не только с работой ИИ, но и с интересом со стороны людей к необычному устройству, однако главное, что положительный результат достигнут.

Билл Гейтс: искусственный интеллект и генная терапия позволят спасти жизни

Основатель Microsoft Билл Гейтс (Bill Gates) считает, что искусственный интеллект и генная терапия — две технологии, способные изменить жизнь людей. В своей речи, произнесённой 14 февраля в Американской ассоциации содействия развитию науки, он сказал, что ИИ имеет смысл при работе со сложными биологическими системами, в то время как инструменты на основе генов способны излечить СПИД.

Minasse Wondimu Hailu / Anadolu Agency / Getty Images

Minasse Wondimu Hailu / Anadolu Agency / Getty Images

Потенциал ИИ сейчас только начинает раскрываться, считает миллиардер-филантроп, — вычислительные мощности в этой области удваиваются каждые 3,5 месяца. Наряду с улучшениями в обработке данных, господин Гейтс указал, что это даёт возможность синтезировать, анализировать, выявлять закономерности и делать прогнозы по гораздо большему количеству направлений, чем может осознать человек.

Гейтс сказал, что самая захватывающая часть ИИ — это возможность разобраться в сложных биологических системах и ускорить открытие терапевтических средств для улучшения здоровья в беднейших странах. По его словам, технологии редактирования генов помогут с вакцинами, диагностикой и терапией. «Имеется большой потенциал для улучшения медицины — не только в области редких генетических заболеваний, но и в сфере болезней, которые преимущественно поражают людей в бедных странах», — добавил он.

Господин Гейтс коснулся и проблемы смертельного коронавируса, сказав, что эти две технологии могут помочь с диагностическими тестами, лечением и разработкой вакцин. А также добавил: «Наш фонд выделил до $100 млн на борьбу с этим новым коронавирусом, потому что мы считаем, что он представляет серьёзную угрозу для мирового здравоохранения. Эти деньги поддержат усилия по выявлению, изоляции и лечению подтверждённых случаев, помогут странам Африки к югу от Сахары и государствам Южной Азии предпринять шаги по подготовке к эпидемии и защитить своих наиболее уязвимых граждан, а также ускорить разработку вакцин, методов лечения и диагностики».

Глава Google объяснил, почему сферу ИИ необходимо регулировать

Исполнительный директор Alphabet и Google Сундар Пичай (Sundar Pichai) опубликовал большую статью на авторитетном ресурсе Financial Times, в которой неожиданно рассказал о том, что необходимы законы, чтобы регулировать сферу развития технологий искусственного интеллекта.

AFP / Getty Images

AFP / Getty Images

Руководитель начал благодушно: «Когда я рос в Индии, я был очарован технологиями. Каждое новое изобретение значительным образом изменяло жизнь моей семьи. Телефон спас нас от долгих поездок в больницу за результатами анализов. Холодильник означал, что мы могли тратить меньше времени на приготовление еды, а телевидение позволяло видеть мировые новости и матчи по крикету, которые мы только представляли себе, слушая коротковолновое радио.

Теперь я имею честь помогать определять развитие новых технологий, которые, как мы надеемся, изменят жизнь людей повсеместно. Одним из наиболее перспективных направлений является искусственный интеллект: только в этом месяце было три примера того, как Alphabet и Google раскрывают потенциал ИИ. Журнал Nature опубликовал наше исследование, показывающее, что модель искусственного интеллекта может помочь врачам с бо́льшей точностью выявлять рак молочной железы на маммограммах; мы используем ИИ для немедленных очень локальных прогнозов осадков быстрее и точнее, чем существующие модели в рамках более широкого набора инструментов для борьбы с изменением климата; а Lufthansa Group работает с нашим облачным подразделением в рамках тестирования применения ИИ для снижения задержек авиарейсов».

Но затем он напомнил, что есть масса примеров, когда технологии приносят с собой и существенный вред. Например, двигатели внутреннего сгорания позволили людям не только путешествовать на дальние расстояния, но также привели к росту несчастных случаев. Интернет позволил общаться с кем угодно и получать информацию из любого места, но также и массово распространять дезинформацию. Всё это, по мнению господина Пичая, уроки, которые нужно принимать во внимание: существуют объективные опасения по поводу потенциальных негативных последствий распространении ИИ, начиная от изощрённых подделок до использования распознавания лиц злоумышленниками. И хотя уже проделана определённая работа для решения этих проблем, их неизбежно возникнет ещё больше, и ни одна компания или даже отрасль не смогут справиться с ними в одиночку.

ЕС и США уже начинают разрабатывать законодательную базу, и международное согласование этой сферы будет иметь важное значение для обеспечения работы общемировых стандартов на основе общих ценностей. По мнению Сундара Пичая, компании вроде Google не могут просто создать многообещающую перспективную технологию и позволить рынку решить, как она будет использоваться: они также обязаны следить за тем, чтобы технологии использовались во благо и были доступны каждому.

Vjeran Pavic / The Verge

Vjeran Pavic / The Verge

«Теперь я не сомневаюсь, что искусственный интеллект необходимо регулировать. Вопрос слишком важен, чтобы закрыть на него глаза. Дело только в том, как подойти к проблеме, — подчеркнул он. — Вот почему в 2018 году Google опубликовала наши собственные принципы ИИ, призванные помочь этичному развитию и использованию технологии. Эти рекомендации помогают избежать предвзятости, тщательно проверять безопасность, осуществлять разработку с приоритетом конфиденциальности и делать технологию подотчётной людям. Они также указывают области, в которых мы не будем разрабатывать или развёртывать ИИ: например, для поддержки массового наблюдения или нарушения прав человека».

Но глава Alphabet также считает, что принципы не должны просто оставаться на бумаге: потому Google создала рабочие инструменты и сделала их открытыми: компания проверяет выводы ИИ на благоприятность для общества и проводит независимые оценки новых продуктов с точки зрения прав человека. Google полагает, что любая компания, разрабатывающая новые инструменты ИИ, должна тоже руководствоваться определёнными нормами и проводить продукты через строгие процедуры проверки.

«Государственное регулирование тоже будет играть важную роль. Нам не нужно начинать с нуля. Существующие правила, такие как Европейское общее положение о защите данных, могут служить прочной основой. Хорошая нормативно-правовая база будет учитывать безопасность, объяснимость, справедливость и ответственность, дабы гарантировать, что мы разрабатываем правильные инструменты правильными способами. Разумное регулирование должно основываться на пропорциональном подходе, уравновешивая потенциальный вред, особенно в областях высокого риска, с социальными возможностями», — считает руководитель.

Регулирование начнётся с общих принципов и постепенно будет развиваться в различных секторах. При возникновении новых областей применения, таких как автомобили с автономным управлением, правительствам придётся создавать новые правила, учитывающие все издержки и выгоды. Google начала с признания необходимости принципиального и регламентированного подхода к применению ИИ, но на этом он не собирается останавливаться: компания хочет быть полезным партнёром для регуляторов в преодолении неизбежной напряжённости и принятии компромиссов.

«Мы предлагаем наши знания, опыт и инструменты для совместного решения этих проблем. Технологии ИИ обладают потенциалом для улучшения жизней миллиардов людей, и самая большая опасность состоит в том, что этого не произойдёт. Обеспечивая ответственное и полезное для всех развитие ИИ, мы можем вдохновить будущие поколения поверить в силу технологий так же, как и я когда-то», — завершил свою программную публикацию глава одной из самых влиятельных компаний в Сети.

Все поднятые Сундаром Пичаем проблемы и вопросы, поставленные задачи в сфере развития искусственного интеллекта, на первый взгляд выглядят оправданными и необходимыми. Однако стоит учитывать, что слишком сильное регулирование будет неизбежно душить деятельность небольших начинающих компаний, которых можно будет утопить в исках за нарушение этики, высоких стандартов безопасности и так далее. При этом гиганты вроде Alphabet могут позволить себе и огромный штат специалистов, и влиятельную команду юристов, и выделение огромных средств на лоббирование своих интересов в законодательной области. А вот мелким компаниям в перспективной и потенциально очень прибыльной отрасли будет крайне трудно пробиться наверх. Возможно в этом и состоит настоящая цель благих инициатив Alphabet по скорейшему жёсткому регулированию быстрорастущего рынка технологий искусственного интеллекта?

Vjeran Pavic / The Verge

Imagination представила самый быстрый GPU за 15 лет: «IMG A» — 10-е поколение видеоядер PowerVR

Самый быстрый GPU за 15 лет

Около трёх лет назад Imagination Technologies оказалась на грани краха. Крупнейший клиент Imagination на графические ядра PowerVR, компания Apple, заявила, что вскоре откажется от сотрудничества с разработчиком и переведёт свои процессоры на самостоятельно разработанные GPU. Это сообщение выбило почву из под ног Imagination. Она стремительно понеслась в сторону банкротства и в конце 2017 года была продана частному инвестиционному фонду Canyon Bridge Capital Partners с китайским капиталом.

AnandTech

AnandTech

За прошедшие с тех пор два года компания Imagination Technologies мало что о себе сообщала, но зарождающийся рынок машинного обучения не оставил её равнодушной и привёл к разработке серии ИИ-ускорителей PowerVR 2NX. Как стало известно сегодня, графические ядра PowerVR тоже не были забыты, хотя у компании уже не было клиентов уровня Apple. Более того, инженеры Imagination превзошли сами себя, если верить пресс-релизу. Новая лицензируемая серия графических ядер IMG A, как заявляют в Imagination, представляет самые производительные за 15 лет мобильные видеоядра, назначение которых всеобъемлющее: от умных вещей до кластеров, обслуживающих облачные сервисы.

AnandTech

AnandTech

Серия видеоядер IMG A масштабирует производительность в диапазоне от 1 пикселя на такт для решений начального уровня до ядер производительностью 2 терафлопс для производительных устройств и далее — до многоядерных платформ с прицелом на обслуживание облачных услуг. Новые видеоядра превосходят предшественников по трём основным направлениям (при условии равных тактовых частот и в случае одинакового техпроцесса): рост производительности новинок достигает 2,5 раз, процессы машинного обучения ускоряются в 8 раз, а потребление оказывается на 60 % меньше.

AnandTech

AnandTech

Также новые ядра PowerVR оказываются одними из самых маленьких в мире для продуктов аналогичной направленности. Кроме этого уменьшены требования к пропускной способности ― нагрузка на интерфейсы, что улучшает энергоэффективные характеристики ядер без ухудшения качества. Так, заявлено о 50-процентной компрессии данных, которая в большинстве случаев не ведёт к потере информации или, в исключительных случаях, когда потеря данных происходит, без ухудшения качества визуализации. Глава агентства Jon Peddie Research Джон Педди изрёк, что ядра Imagination A-Series ― это шанс для разработчиков SoC удержать рыночную долю под агрессивным напором некоего лидера рынка со своей графикой, возможно, намекая на Apple или Qualcomm.

Основной состав ядер IMG A-Series

Ядра IMG A уже доступны для лицензирования и появятся в SoC на множестве рынков в новом 2020 году. Список возможных конфигураций для производительных решений следующий:

  • IMG AXT-64-2048 ― высшая производительность, 2 терафлопс, 64 гигапикселей, ИИ-производительность 8 TOPS;
  • IMG AXT-48-1536 ― премиальные мобильные решений, 1,5 терафлопс, 48 Гпикселей, 6 TOPS;
  • IMG AXT-32-1024 ― для высокопроизводительных мобильных устройств и автомобильной электроники, 1 терафлопс, 32 Гпикселей, 4 TOPS;
  • IMG AXT-16-512 ― для мобильных устройств средней и высокой производительности и автомобильной электроники, 0,5 терафлопс, 16 Гпикселей, 2 TOPS;
  • IMG AXM-8-256 ― для мобильной электроники среднего ранга, 0,25 терафлопс, 8 Гпикселей, 1 TOPS.

Для сегмента бюджетной направленности представлены следующие ядра:

  • IMG AXE-2-16 ― для премиальных вещей с подключением к Интернету, начальных ТВ-приставок DTV/STB, дисплеев и других подобных применений, 2 PPC (2 пикселя на такт), 16 гигафлопс, 2 Гпикселя;
  • IMG AXE-1-16 ― для начальной мобильной электроники и IoT (с максимальным ускорением API Vulkan в классе), 1 PPC, 16 гигафлопс, 1 Гпиксель.


GPU для мобильных геймеров

По мнению Imagination, современные мобильные платформы плохо подходят для игр. Высокое потребление и последующий нагрев ведут к тому, что ускорение графики в играх начинает тормозить и вовсе прекращается до остывания устройства. В этом плане новым ядрам PowerVR IMG A нет равных. Новые графические ядра компании позволяют играть с длительной «термальной постоянной» ― с высокой кадровой частотой без тротлинга. Этому также способствует тайловая технология отложенного рендеринга, когда процессор обрабатывает только то изображение, которое видно игроку на экране.

AnandTech

AnandTech

Разумному расходу батарей во время мобильной игры также помогают технологии оптимизации потребления в зависимости от требуемых ресурсов. Напряжение и тактовая частота GPU меняются по мере необходимости, снижая показатели в случае низких нагрузок и при уходе в ждущие режимы. Для этого разработчики реализовали технологию Pro-Active DVFS (Dynamic Voltage and Frequency Scaling) и алгоритм Deadline Scheduling. Задержки в подаче требуемого питания не ведут к латентности и замедлению реакции платформ и приложений. Отметим также, новые GPU поддерживают API OpenGL ES, Vulkan и OpenCL.

Графическая многозадачность

Ядра IMG A-Series получили поддержку фирменной технологии HyperLane. Это отдельные аппаратные каналы управления GPU, полностью изолированные в памяти. Таких может быть до 8 штук. По каждому каналу одновременно передаются различные задачи, что ведёт к автоматически управляемой многозадачности GPU. Тем самым графический процессор может распределять свою производительность по этим нескольким задачам, выполняя их все и, в то же время, не испытывать простоя.

AnandTech

AnandTech

Динамическое распределение, например, может отдать приоритет графике для игрового приложения, а в промежутках выполнять задачу ИИ. Эта же технология может использоваться для изоляции защищённого контента для управления правами доступа.

AnandTech

AnandTech

В набор возможностей HyperLane также входит функция AI Synergy. Это решение для ускорения ИИ-приложений. В общем случае ― это распределение графических ресурсов на ускорение ИИ, машинного обучения и нейронных сетей. Функция AI Synergy реализована на аппаратном уровне и поддержана унифицированным программным стеком. Интересное решение. Неужели будет лучше, чем новая графика Apple?

Нейросети вывели качество синтеза русскоязычной речи на новый уровень

Группа компаний ЦРТ, входящая в экосистему Сбербанка, сообщила о разработке передовой платформы синтеза речи, которая, как утверждается, обеспечивает плавность и выразительность прочтения любого текста.

Представленное решение — это третье поколение системы синтеза речи. Высококачественный аудиосигнал генерируют сложные нейросетевые модели. Разработчики заявляют, что результатом работы этих алгоритмов является самый реалистичный синтез русскоязычной речи.

В состав платформы входит модуль предсказания ударений в словах, которых ещё нет в базовом словаре. Кроме того, предусмотрено автоматическое исправление типичных орфографических ошибок. Благодаря глубокому лингвистическому анализу текста произношение будет соответствовать нормам языка даже в сложных случаях.

Ещё одно достоинство платформы заключается в том, что ей не требуются дорогостоящие серверы, оснащённые GPU-ускорителями. Использовать технологию можно двумя способами — через облачный сервис или встроив в собственное решение.

Среди возможных областей применения разработки называются чат-боты и голосовые помощники, сервисы информирования и оповещения, голосовые сервисы с моментальным синтезом любого текста в процессе звонка и пр.

«В автоматизированных сценариях общения с клиентами технология позволяет взаимодействовать в индивидуальном порядке с каждым абонентом, так как нет фиксированных сообщений, и любой текст может быть синтезирован в процессе звонка», — говорят разработчики.

Опробовать технологию можно здесь

window-new
Soft
Hard
Тренды 🔥