Сегодня 25 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → машинное обучение
Быстрый переход

Робот с ИИ очень быстро научился проводить шарик через лабиринт — и даже нашёл способ жульничать

Компьютеры уже победили людей в покере, го и шахматах. Теперь они принялись осваивать физические навыки, стремясь опередить человека в играх, где требуются хорошая реакция, интуиция, ловкость и координация. Исследователи из ETH Zurich создали робота CyberRunner, который, по их словам, превзошёл людей в популярной игре «Лабиринт». Он провёл небольшой металлический шарик через лабиринт, наклоняя его и избегая ловушек, причём освоил игрушку всего за шесть часов.

 Источник изображений: ETH Zurich

Источник изображений: ETH Zurich

CyberRunner стал одним из первых случаев, когда ИИ победил человека в непосредственном физическом соревновании, рассказали учёные Рафаэлло Д’Андреа (Raffaello D’Andrea) и Томас Би (Thomas Bi). Во время эксперимента робот использовал две ручки для управления игровой поверхностью, что требовало мелкой моторики и пространственного мышления. Сама игра предъявляет высокие требования к стратегическому планированию в реальном времени, быстроте принятия решений и точности действий.

Результаты эксперимента опубликованы во вторник в научной статье. Робот был построен на основе последних достижений в области, называемой машинным обучением с подкреплением, в процессе которого ИИ учится вести себя в динамической среде методом проб и ошибок. CyberRunner во время обучения обнаружил удивительные способы «обмануть» игру, пропуская части лабиринта, так что исследователям пришлось вмешаться и потребовать соблюдать правила.

Промышленные роботы десятилетиями выполняли повторяющиеся и точные производственные задачи, но корректировки на ходу, подобные тем, что продемонстрировал CyberRunner, — это новый уровень, уверены исследователи. Система может анализировать, учиться и саморазвиваться, выполняя физические задачи, которые раньше считались достижимыми только с помощью человеческого интеллекта.

«Мы размещаем нашу работу на платформе с открытым исходным кодом, чтобы показать, что это возможно, делимся подробностями о том, как это делается, и как удешевить разработку, — рассказал Д'Андреа. — Скоро появятся тысячи таких систем искусственного интеллекта, которые будут проводить совместные эксперименты, общаться и обмениваться передовым опытом».

Проект с открытым исходным кодом теперь доступен на сайте исследователей. За 200 долларов разработчики готовы помочь пользователям координировать масштабные эксперименты с помощью платформы CyberRunner. «Это не сделанная на заказ платформа, которая стоит больших денег, — подчёркнул Д’Андреа. — Самое интересное то, что мы делаем это на платформе, которая открыта для всех и практически ничего не стоит для дальнейшего продвижения работы».

Любопытно отметить, что Рафаэлло Д’Андреа далеко не новичок в роботостроении и машинном обучении — ранее он основал стартап Kiva Systems, который был приобретён компанией Amazon Robotics. Одна из его прежних разработок — «Танцующий склад» — представлена на видео ниже.

Китайская Moore Threads представила ИИ-ускоритель MTT S4000 — он до 15 раз медленнее NVIDIA H100

Китайская компания Moore Threads представила специализированный ускоритель вычислений MTT S4000 на фирменном GPU, который обеспечивает производительность на уровне 200 TOPS (триллионов операций в секунду) в операциях, связанных с искусственным интеллектом и большими языковыми моделями.

 Источник изображений: Moore Threads

Источник изображений: Moore Threads

В основе MTT S4000 используется графический процессор на основе архитектуры MUSA третьего поколения. Подробностей о самом GPU компания не сообщила. Ускоритель выполнен в формате карты расширения PCIe и оснащён 48 Гбайт памяти GDDR6 со скоростью 16 Гбит/с на контакт и общей пропускной способностью на уровне 768 Гбайт/с. Для MTT S4000 заявляется поддержка интерфейса MTLink 1.0, позволяющего объединять несколько подобных ускорителей в одной системе. Новинка обладает интерфейсом PCIe 5.0. Moore Threads — единственная компания на рынке, оснащающая свои видеокарты интерфейсом PCIe 5.0.

Компания заявляет, что MTT S4000 обеспечивает производительность 25 Тфлопс в операциях FP32, 50 Тфлопс в операциях TF32, 100 Тфлопс в операциях FP16/BF16 и 200 TOPS в операциях INT8. Это в пять раз больше, чем обеспечивают новейшие процессоры AMD Ryzen 8040 и Intel Core Ultra, оснащённые специализированными нейродвижками (NPU), предназначенными для различных ИИ-задач. Однако до флагманских ИИ-ускорителей NVIDIA и AMD ему далеко. PCIe-версия NVIDIA H100 обеспечивает до 51 Тфлопс в операциях FP32, до 756 Тфлопс в вычислениях TF32, 1513 Тфлопс при работе с FP16/BF16 и до 3026 TOPS в INT8.

Примечательной особенностью специализированного ИИ-ускорителя MTT S4000 является его оснащение четырьмя внешними видеоразъёмами. Обычно решения такого уровня подобных интерфейсов не имеют. К MTT S4000 можно подключать дисплеи с поддержкой разрешения до 8K. Ускоритель поддерживает до 96 видеопотоков в разрешении 1080p, а также работает с новейшими инструментами разработки USIFY, которые могут в полной мере использовать программное обеспечение NVIDIA на базе CUDA.

Moore Threads на презентации отметила, что MTT S4000 будут предлагаться в том числе в составе серверных вычислительных систем KUAE, аналогичных DGX-системам NVIDIA. В составе одного сервера KUAE MCCX D800 содержится восемь ускорителей MTT S4000. Платформа предлагает дальнейшую масштабируемость, позволяя объединять несколько таких серверов в единые кластеры. Ускорители Moore Threads MTT S4000 и системы KUAE на их основе поддерживают все современные большие языковые модели (LLM), включая Llama, GLM, Aquila, Baichuan, GPT, Bloom, Yuyan, и способны справляться с LLM, имеющими до 130 млрд различных параметров.

О стоимости MTT S4000 производитель ничего не сообщил. Известно, что первая партия из тысячи таких ускорителей будет использоваться для создания первого в Китае крупномасштабного вычислительного кластера для задач, связанных с ИИ.

AMD опровергла опровержение NVIDIA — ИИ-ускоритель MI300X на 30 % быстрее NVIDIA H100, даже с оптимизациями

Компания AMD ответила на недавнее заявление NVIDIA о том, что ускорители вычислений NVIDIA H100, при использовании оптимизированных библиотек TensorRT-LLM для ИИ-расчётов, быстрее справляются с поставленными задачами, чем новые ускорители AMD Instinct MI300X. По мнению AMD, её ускорители всё равно выигрывают.

 Источник изображения: Wccftech

Источник изображения: Wccftech

Двумя днями ранее компания NVIDIA опубликовала свои результаты тестов специализированных ускорителей вычислений Hopper H100 и заявила, что они значительно быстрее новейших ИИ-ускорителей AMD MI300X, которые были представлены на мероприятии Advancing AI на прошлой неделе. По словам NVIDIA, AMD при сравнении своих MI300X с H100 не использовала для последних специальные оптимизированные программные библиотеки TensorRT-LLM, которые повышают эффективность ИИ-чипов NIVDIA.

NVIDIA опубликовала данные своих тестов с использованием библиотек TensorRT-LLM, которые показали практически 50-процентное преимущество над ускорителями AMD MI300X. AMD решила ответить на это заявление, показав на новых графиках, как MI300X по-прежнему оказывается быстрее ускорителей H100, даже если последние используют оптимизированный под них стек программного обеспечения. По словам AMD, свои данные NVIDIA приводит:

  • на основе тестов H100 с библиотеками TensorRT-LLM вместо библиотек vLLM, которые использовались для тестов ускорителей AMD;
  • сравнивает производительность ускорителей AMD Instinct MI300X в вычислениях на числах FP16, а для тестов своих H100 использует данные типа FP8;
  • в графиках инвертировала данные AMD об относительной задержке в показатель абсолютной пропускной способности.

Согласно новым тестам AMD, её ускорители MI300X, работающие с библиотеками vLLM, на 30 % производительнее ускорителей NVIDIA H100, даже если последние работают с библиотеками TensorRT-LLM. Ниже показан новый график результатов тестов ускорителей H100 и MI300X, предоставленный AMD.

 Источник изображения: Wccftech / AMD

Источник изображения: Wccftech / AMD

Ниже приведено заявление AMD.

  • «Тесты MI300X и H100 с библиотеками vLLM
  • В рамках нашего анонса MI300X в начале декабря, мы сообщили, что наше решение в 1,4 раза производительнее H100 в условиях эквивалентных типов данных и программного обеспечения для расчётов. С нашими последними оптимизациями производительность MI300X оказалась в 2,1 раза выше, чем у конкурента;
  • Мы выбрали vLLM, основываясь на их широком распространении среди пользователей и разработчиков, а также с тем учётом, что эта программная среда поддерживается графическими процессорами AMD и NVIDIA.
  • MI300X с vLLM против H100 с оптимизированными библиотеками TensorRT-LLM
  • Сравнение H100 с оптимизированным ПО TensorRT-LLM с MI300X с vLLM показывает, что MI300X с vLLM обеспечивает в 1,3 более высокую производительность в операциях FP16.
  • Замеры задержки для MI300X с данными типа FP16 против H100 с TensorRT-LLM и типом данных FP8
  • Ускорители MI300X продолжают демонстрировать преимущество в производительности при измерении показателя абсолютной задержки, даже в том случае, когда H100 с TensorRT-LLM работает с типами данных FP8 и сравнение приводится с MI300X, которые работают с более точными типами данных FP16. Мы (AMD) используем FP16 из-за их популярности, кроме того, vLLM не поддерживают операции FP8.
  • Новые результаты снова показывают, что MI300X в работе данными FP16 сравнимы по производительности с H100, для которых используются рекомендованные настройки NVIDIA, учитывающие типы данных FP8 и программную среду TensorRT-LLM».

Публичный спор между AMD и NVIDIA в очередной раз демонстрирует, что в сегменте ИИ-вычислений наблюдается очень высокая конкуренция между производителями аппаратного обеспечения, которые готовы бороться за каждого клиента.

NVIDIA развенчала миф от AMD: ИИ-ускорители H100 в реальных задачах в разы быстрее Instinct MI300X

Компания NVIDIA опубликовала свежие данные о производительности своих ИИ-ускорителей H100, сравнив их с недавно представленными ускорителями Instinct MI300X от компании AMD. Этим сравнением NVIDIA решила показать, что на самом деле H100 обеспечивают более высокую производительность по сравнению с конкурентом, если использовать правильную программную среду для ИИ-вычислений. Компания AMD этого не учла в своём сравнении ускорителей, посчитали в NVIDIA.

 Источник изображения: Wccftech

Источник изображения: Wccftech

Во время презентации Advancing AI компания AMD официально представила специализированные ускорители вычислений для ИИ Instinct MI300X и сравнила их в различных бенчмарках и тестах с ускорителями H100 от NVIDIA. В частности, AMD заявила, что один ускоритель MI300X обеспечивает на 20 % более высокую производительность по сравнению с одним ускорителем H100, а сервер из восьми MI300X до 60 % быстрее сервера из восьми H100. NVIDIA опубликовала заметку на своём сайте, в которой утверждает, что эти заявления далеки от правды.

Ускорители вычислений NVIDIA H100 были выпущены в 2022 году и с тех пор получили различные улучшения на уровне программного обеспечения. Например, наиболее свежие улучшения, связанные с программной средой для ИИ-вычислений TensorRT-LLM позволили ещё больше повысить производительность H100 в рабочих нагрузках, специфичных для искусственного интеллекта, а также провести оптимизацию на уровне ядра. Всё это, по словам NVIDIA, позволяет чипам H100 эффективнее работать с такими большими языковыми моделями, как Llama 2 с 70 млрд параметров с использованием операций FP8.

Сама AMD в своей презентации утверждала, что Instinct MI300X до 20 % быстрее H100 в Llama 2 70B, а также система из восьми ускорителей AMD обеспечивает превосходство по задержке на 40 % по сравнению с системой на восьми NVIDIA H100 в той же нейросети. Превосходство в операциях FP8 и FP16 составляет 30 % в пользу MI300X.

AMD проводила тесты своих ускорителей MI300X с использованием оптимизированных библиотек программной среды вычислений ROCm 6.0. Однако для NVIDIA H100 использовались данные без учёта применения оптимизированной программной среды TensorRT-LLM, предназначенной для этих задач. В свежей статье NVIDIA привела актуальные данные производительности одного DGX-сервера из восьми H100 в модели Llama 2 70B с учётом обработки одного программного пакета (Batch-1).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

NVIDIA поясняет, что выводы AMD (серым и красным на графике выше) о превосходстве над H100 основаны на данных, представленных в сноске #MI300-38 к презентации AMD. Для их получения использовалась система NVIDIA DGX H100, фреймворк vLLM v.02.2.2 и модель Llama 2 70B с длиной входной последовательности 2048 и длиной выходной последовательности 128. NVIDIA отмечает, что в AMD сравнили систему из восьми MI300X с системой DGX H100 из восьми H100.

В свою очередь данные NVIDIA показаны на графике зелёным. Для их получения применена система DGX H100 из восьми NVIDIA H100 с 80 Гбайт памяти HBM3 в каждом, а также находящийся в открытом доступе фреймворк NVIDIA TensorRT-LLM v0.5.0 для расчёта Batch-1 и версии v0.6.1 для расчёта задержки. Рабочая нагрузка такая же, как указано в сноске AMD #MI300-38.

Приведённые NVIDIA результаты показывают, что сервер DGX H100 вдвое быстрее при использовании оптимизированных фреймворков, чем заявляет AMD. Кроме того, сервер с восемью H100 до 47 % быстрее системы с восемью AMD MI300X.

«Система DGX H100 способна обработать один инференс-запрос размером в один пакет (Batch-1) или иными словами, один запрос вывода за раз, за 1,7 секунды. Запрос уровня Batch-1 обеспечивает максимально быстрый показатель времени отклика для обработки модели. Для оптимизации времени отклика и пропускной способности ЦОД облачные сервисы устанавливают фиксированное время ответа для конкретной задачи. Это позволяет операторам ЦОД объединять несколько запросов на вывод в более крупные “пакеты” и увеличивать общее количество выводов сервера в секунду. Стандартные отраслевые тесты вроде MLPerf также измеряют производительность с помощью этого фиксированного показателя времени отклика», — продолжает NVIDIA.

В NVIDIA поясняют, что небольшие компромиссы в вопросе времени отклика системы могут привести к увеличению количества запросов на вывод, которые сервер может обработать в реальном времени. Используя фиксированный бюджет времени отклика в 2,5 секунды, сервер DGX H100 с восемью графическими процессорами может обработать более пяти инференс-запросов Llama 2 70B за раз.

Amazon представила свой ИИ-генератор изображений Titan Image Generator

На конференции AWS re:Invent компания Amazon представила собственный ИИ-генератор изображений Titan Image Generator на платформе Bedrock. Он предназначен для создания изображений на основе текстовых запросов, а также предлагает поддержку различных дополнительных функций редактирования уже готовых изображений.

 Источник изображения: Amazon

Источник изображения: Amazon

По словам Amazon, инструмент способен генерировать «огромные объёмы реалистичных изображения студийного качества при низкой цене». Компания заявляет, что Titan Image Generator способен создавать изображения на основе сложных текстовых подсказок, одновременно обеспечивая при этом точность композиции генерируемых объектов на изображении с минимальными искажениями. По мнению разработчиков Amazon, это поможет «сократить объёмы создания вредного контента и смягчить распространение дезинформации».

Функции Titan Image Generator также позволяют редактировать отдельные элементы на изображении, удаляя или добавляя дополнительные детали. Например, инструмент позволяет заменить задний фон на изображении, а также заменить или удалить предмет, который может находиться в руках человека, изображенного в кадре. Использующиеся в составе Titan Image Generator ИИ-алгоритмы также могут расширять композицию изображения, добавляя дополнительные искусственные детали, аналогично функции Generative Expand в Photoshop.

В компании отмечают, что их ИИ-генератор изображений Titan накладывает на каждое созданное им изображение невидимый невооружённому глазу специальный водяной знак. По мнению компании, эта функция поможет «уменьшить распространение дезинформации, предоставив незаметный механизм для идентификации изображений, созданных ИИ, а также будет способствовать безопасному, надежному и прозрачному развитию технологий искусственного интеллекта». Amazon заявляет, что эти водяные знаки невозможно удалить или изменить.

Согласно опубликованному видео с демонстрацией работы Titan Image Generator, инструмент также может создавать описания изображений или релевантный текст для последующего использования в публикации в социальных сетях.

Amazon представила ИИ-чат-бот Amazon Q — он поможет миллионам людей в повседневных рабочих задачах

У OpenAI есть ChatGPT. У Google есть ИИ-чат-бот Bard. У Microsoft есть различные версии ИИ-помощников Copilot, предназначенные для разных задач. Компания Amazon во вторник наконец-то анонсировала своего ИИ-помощника — Amazon Q. Он разработан подразделением облачных вычислений Amazon и предназначен не для обычных потребителей, а для корпоративных пользователей.

 Источник изображения: Associated Press

Источник изображения: Associated Press

Среди функций Amazon Q отмечаются возможность кратко формулировать содержание важных документов, заполнение заявок для внутренней поддержки компаний, ответы на вопросы о политике компании, помощь в редактировании и т.д. Он будет конкурировать с другими корпоративными чат-ботами включая Copilot, Google Duet AI и ChatGPT Enterprise.

В интервью изданию The New York Times исполнительный директор Amazon Web Services Адам Селипски (Adam Selipsky, на фото выше) выразил надежду, что Amazon Q имеет все шансы стать важным помощником для миллионов людей в их повседневных рабочих задачах.

За минувший год с момента выпуска ChatGPT компанией OpenAI многие другие ведущие технологические гиганты, включая Google и Microsoft, успели поддаться всеобщему буму ИИ и выпустить свои варианты чат-ботов, на основе технологий больших языковых моделей, вложив в эти разработки миллиарды долларов. Компания Amazon в свою очередь лишь недавно начала говорить о своём интересе к подобным технологиям, а также планах развития в этом направлении. Например, в сентябре Amazon сообщила, что инвестирует до $4 млрд в компанию Anthropic, конкурента OpenAI, и будет заниматься вместе с ней разработкой специализированных ИИ-процессоров. Также Amazon ранее представила сервис, который способен предоставлять доступ к разным ИИ-системам в рамках единой платформы.

Являясь одним из ведущих операторов облачных вычислений, компания Amazon имеет большую пользовательскую базу среди корпоративных клиентов, которые хранят огромные объёмы информации на её облачных серверах. По словам Селипски, её клиенты заинтересованы в использовании чат-ботов на рабочих местах, но они хотят быть уверены в том, что ИИ-помощники будут обладать достаточным уровнем защиты от утечек корпоративных данных. «Многие компании в разговоре со мной отметили, что они запретили своим сотрудникам использовать ИИ-чат-боты из соображений безопасности и конфиденциальности», — заявил Селипски.

 Источник изображения: AWS

Источник изображения: AWS

Ответом Amazon стала разработка Amazon Q — корпоративного чат-бота с повышенной защитой конфиденциальных данных по сравнению с потребительскими чат-ботами. Например, для Amazon Q можно выставить те же разрешения безопасности, которые бизнес-клиенты облачного сервиса Amazon уже настроили для своих пользователей. Если в компании сотрудник отдела маркетинга не имеет доступа к конфиденциальным финансовым прогнозам, Amazon Q может имитировать эти прогнозы, без предоставления официальных финансовых данных. Кроме того, компании, использующие Amazon Q, также могут устанавливать разрешения на использование своих корпоративных данных чат-ботом, не находящихся на серверах Amazon, например, через подключение Slack и Gmail.

В отличие от ChatGPT и Bard, Amazon Q не основан на какой-то конкретной языковой модели искусственного интеллекта. Вместо этого он использует платформу Amazon Bedrock, которая объединяет несколько систем искусственного интеллекта, включая собственный Titan от Amazon, а также модели ИИ, разработанные Anthropic и Meta.

Цены на Amazon Q начинаются с 20 долларов США за одного пользователя сервиса в месяц. Для сравнения, Microsoft и Google взимают 30 долларов в месяц за каждого пользователя своих корпоративных чат-ботов, которые могут работать с электронной почтой и предлагают другие функции, повышающие общую производительность сотрудников на рабочих местах.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Вместе с анонсом Amazon Q компания сообщила о планах расширения своей облачной инфраструктуры, связанной с технологиями ИИ. В частности, Amazon заявила о продлении сотрудничества с компанией NVIDIA и анонсировала разработку ИИ-серверов на основе новых специализированных графических процессоров, в которых используется Arm-архитектура.

МТС начала тестировать «Рой 9» — машинное обучение силами устройств пользователей

Одна из входящих в МТС структур запустила проект «Рой 9», который предполагает развитие и обучение моделей искусственного интеллекта на сторонних устройствах. Данную инициативу можно сравнить с добычей криптовалют в пулах, когда устройства разных клиентов объединяют вычислительные мощности для общей цели. Только здесь вместо криптовалюты на выходе будет натренированная нейросеть. В компании сообщили, что широкий запуск проекта пока не планируется, и сейчас это всего лишь проверка гипотез, сообщает «Коммерсант».

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Работой над проектом занимается принадлежащее оператору ООО «Серенити Сайбер Секьюрити», которое 1 ноября зарегистрировало доменное имя roy9.ru. «Рой 9» предлагает пользователям предоставлять свои компьютеры и мобильные устройства для обучения моделей машинного обучения — в настоящий момент на платформе обучаются четыре нейросети. «Новые модели AI помогут людям в новых открытиях, вы можете стать частью этого движения. Кроме того, помогая в обучении моделей, вы делаете мир интереснее», — говорится в описании сохранённой изданием страницы.

Представитель МТС заявил, что сайт был запущен исключительно для проверки гипотез в области ИИ и машинного обучения — он предназначался только для внутренних нужд, и никаких связанных с ним общедоступных проектов не планировалось. Тестированием занимается центр инноваций МТС Future Crew, и к настоящему моменту сайт закрыт.

Крупные российские игроки уже запускали службы для развития систем машинного обучения: к примеру, в инфраструктуре VK Cloud Solutions действует сервис для тестирования гипотез, работы с данными и других целей; у «Яндекса» есть сервис для разработки и тестирования алгоритмов машинного обучения DataSphere. А МТС весной прошлого года запустил систему CICADA 8, предназначенную для тестирования инфраструктуры компании на устойчивость.

В России наблюдается дефицит мощностей для обучения ИИ, и модель краудфандинга стала бы частичным решением вопроса, считает опрошенный «Коммерсантом» эксперт. В случае с МТС участвующие в проекте абоненты оператора могли бы получать, например, скидку на услуги связи или дополнительные пакеты трафика или минут.

Учёные создали искусственный мозг из клубка серебряных нанонитей

Учёные из США и Австралии создали нейроморфный процессор из множества серебряных нанонитей. Тысячи нанопроводков уложили друг на друга в случайном порядке, и весь этот хаос поместили на группу обычных входных и выходных контактов. Всё вместе превратилось в нейроморфную сеть, которую удалось научить распознавать рукописные цифры с невероятной точностью.

 Источник изображения: Zhu et al. / Nature Communications

Источник изображения: Zhu et al. / Nature Communications

В процессе подачи входных сигналов на пересечениях тысяч нитей возникли сотни тысяч контактов. В этих контактах стали протекать реакции электрохимической гальванизации и возникло что-то вроде памяти. Для обучения «мозга» учёные воспользовались базой MNIST, которая содержит множество вариантов рукописного написания цифр. Каждое прохождение входных данных сопровождалось множеством переходных процессов в клубке нанонитей. Скорее всего, исследователи даже не выясняли что, где и каким образом работает на результат.

После обучения система стала распознавать рукописные цифры с точностью 93,4 %, о чём рассказано в свежей статье в журнале Nature Communications. Такой искусственный мозг не обладает памятью для более сложной обработки результата. Он работает в режиме онлайн, передавая на выход распознанную информацию, что для ряда приложений будет достаточно. Преимущества решения очевидны — оно копеечное в отличие от ускорителей ИИ баснословной стоимости. То же самое касается потребления энергии для решения прикладной задачи. «Мозг» из нанонитей будет потреблять крайне мало.

Эта разработка Калтеха и Сиднейского университета пока ещё сырая, но потенциал её может быть огромным с учётом простоты изготовления и заявленных возможностей. Как минимум, можно распознавать старые капчи.

OpenAI проведёт в ноябре первую конференцию для разработчиков — на ней покажут новые продукты

Компания OpenAI объявила о планах провести первую конференцию для разработчиков OpenAI DevDay. Однодневное мероприятие, запланированное на 6 ноября, соберёт в Сан-Франциско (Калифорния, США) разработчиков со всего мира. Они смогут принять участие в технических сессиях и демонстрациях новых продуктов.

 Источник изображения: Neowin

Источник изображения: Neowin

Посредством конференции OpenAI стремится укрепить свои отношения с сообществом разработчиков. Это играет ключевую роль в быстром внедрении технологий искусственного интеллекта.

«Однодневное мероприятие соберёт сотни разработчиков со всего мира вместе с командой OpenAI, чтобы изучить новые инструменты и обменяться новыми идеями. Участники конференции также смогут присоединиться к секционным заседаниям, которые будут проводиться техническими специалистами OpenAI. Мы с нетерпением ждём возможности показать наши последние решения, которые позволят разработчикам создавать новые продукты», — отметила компания.

Сегодня более двух миллионов разработчиков используют модели OpenAI, такие как GPT-4, GPT-3.5, Dall-E и Whisper, в своих приложениях и продуктах. На конференции OpenAI DevDay компания, вероятно, представит обновления диалогового агента ChatGPT, использующего языковые модели GPT-4 и GPT-3.5.

Хотя те же Google и Microsoft стремятся не отставать от конкурента и предлагают свои модели ИИ, OpenAI называет себя авангардом инноваций в области искусственного интеллекта. Недавно компания запустила корпоративную версию ChatGPT Enterprise с дополнительными функциями и средствами защиты конфиденциальности, которые недоступны в обычных версиях ChatGPT.

Подробную информацию о регистрации для участников конференции OpenAI предоставит позже. Компания также планирует транслировать основную часть DevDay в прямом эфире.

В платформе «VK Звонки» добавили автоматические субтитры и текстовую расшифровку созвонов

Социальная сеть «ВКонтакте» представила новые функции платформы «VK Звонки», которые будут полезны для тех, кто использует сервис для делового общения или в условиях, когда важно соблюдать тишину. Речь идёт о текстовой расшифровке встреч, которая автоматически переводит звуковую дорожку встречи в текст с сохранением в чате звонка, а также об автосубтитрах, которые дублируют речь участников чата.

 Источник изображения: «ВКонтакте»

Источник изображения: «ВКонтакте»

Функцию текстовой расшифровку может включить любой из участников группового звонка, при этом остальные собеседники получат об этом уведомление. После завершения общения файл с текстом поступит в чат звонка и будет сохранён в специальном разделе в профиле пользователя, включившего текстовую расшифровку. В файле автоматически расставляются тайм-коды и имена говорящих.

Что касается автоматических субтитров, то они будут показываться в реальном времени только у тех пользователей, которые включили эту опцию. Текстовая расшифровка может выполняться одновременно с субтитрами и записью звонка.

Для перевода речи в текст «ВКонтакте» использует собственные нейросетевые разработки, которые соцсеть применяет для расшифровки голосовых сообщений и создания автосубтитров в видео. Для обеспечения высокого качества расшифровки аудиопоток обрабатывается в несколько этапов. Сначала запись очищается от фоновых звуков с использованием интеллектуального шумоподавления, после чего нейросеть распознаёт слова, формируя текст, который потом делит на предложения в соответствии с конкретным спикером. Нейросети постоянно совершенствуются, проходя обучение, в том числе, на актуальной разговорной речи и сленге.

Новыми функциями можно также воспользоваться в сессионных залах и в звонках от имени сообщества. В настоящее время функции доступны только для русского языка, но в дальнейшем будут добавлены и другие языки. Также в ближайшее время планируется запуск новых функций в звонках один на один и возможность настройки администратором того, кто из участников встречи сможет запускать расшифровку.

Как отметила «ВКонтакте», новые функции будут особенно полезны тем, кто использует «VK Звонки» для делового общения, позволяя быстро расшифровать интервью, отправить ключевые тезисы после встречи или рассказать об итогах звонка коллегам, которые не были на встрече. Субтитры будут полезны в ситуации, когда важно соблюдать тишину и у пользователя не оказалось наушников. «Кроме того, это шаг к формированию доступной цифровой среды для слабослышащих пользователей: они смогут участвовать во встречах без ограничений», — подчеркнула пресс-служба соцсети.

Tesla запустила суперкомпьютер на 10 тыс. ускорителей NVIDIA H100 — на нём будут учить автопилот

Компания Tesla сообщила о запуске на этой неделе нового суперкомпьютера для решения ресурсоемких задач, связанных с ИИ. В его основе используются 10 тыс. специализированных графических ускорителей NVIDIA H100.

 Источник изображений: HPC Wire

Источник изображений: HPC Wire

Отмечается, что система обеспечивает пиковую производительность в 340 Пфлопс в операциях FP64 для технических вычислений и 39,58 Эфлопс в операциях INT8 для задач ИИ. Таким образом, по производительности FP64 кластер превосходит суперкомпьютер Leonardo, который располагается на четвёртой позиции в нынешнем мировом рейтинге суперкомпьютеров Тор500 с показателем 304 Пфлопс.

Новый суперкомпьютер Tesla с ускорителями NVIDIA H100 является одной из самых мощных платформ в мире. На формирование кластера потрачено около $300 млн. Он подходит не только для обработки алгоритмов ИИ, но и для НРС-задач. Благодаря данной системе компания рассчитывает значительно расширить ресурсы для создания полноценного автопилота.

На фоне сформировавшегося дефицита ускорителей NVIDIA H100 компания хочет диверсифицировать вычислительные мощности. Для этого Tesla ведёт разработку своего собственного проприетарного суперкомпьютера Dojo. В проект планируется инвестировать $1 млрд. Уже к октябрю следующего года Tesla рассчитывает преодолеть барьер в 100 Эфлопс производительности, что более чем в 60 раз мощнее самого производительного суперкомпьютера в мире на сегодняшний день.

Помимо простого аппаратного обеспечения, новая вычислительная инфраструктура предоставит Tesla преимущество в обработке огромных наборов данных, что имеет решающее значение для реальных сценариев обучения ИИ.

Google Cloud представила пятое поколение тензорных процессоров для обучения ИИ

На очередной ежегодной конференции Cloud Next компания Google Cloud объявила о выпуске пятого поколения своих тензорных процессоров (TPU) для обучения нейросетей — TPU v5e. Google анонсировала предыдущую, четвертую версию этих процессоров в 2021 году, но разработчикам они стали доступны только в 2022 году.

 Источник изображения: Frederic Lardinois / TechCrunch

Источник изображения: Frederic Lardinois / TechCrunch

Компания отмечает, что при создании новой версии чипа особое внимание уделялось его эффективности. По сравнению с предыдущим поколением, новый процессор обещает двукратное улучшение производительности в пересчёте на доллар для обучения больших языковых моделей (LLM) и генеративных нейросетей, а также 2,5-кратное улучшение производительности по тому же критерию для инференс-систем.

«Это самый экономичный и доступный облачный TPU на сегодняшний день», — заявил на пресс-конференции перед сегодняшним анонсом Марк Ломейер (Mark Lohmeyer), вице-президент и генеральный директор по вычислительной и ML-инфраструктуре Google Cloud.

 Источник изображения: Google

Источник изображения: Google

В то же время он подчеркнул, что компания не экономила на технических характеристиках TPU v5e в угоду рентабельности. Кластеры могут включать до 256 чипов TPU v5e, объединённых высокоскоростным интерконнектом с совокупной пропускной способностью более 400 Тбит/с. Производительность такой платформы составляет 100 Попс (Петаопс) в INT8-вычислениях.

«Мы предоставляем нашим клиентам возможность легко масштабировать свои модели искусственного интеллекта за пределы физических границ одного модуля TPU или одного кластера TPU. Другими словами, одна большая рабочая нагрузка искусственного интеллекта теперь может распределяться на несколько физических кластеров TPU, масштабируясь буквально до десятков тысяч чипов. При этом работа будет выполняться экономически эффективно. В результате, используя облачные графические процессоры и облачные TPU, мы действительно предоставляем нашим клиентам большой выбор, гибкость и дополнительные возможности для удовлетворения потребностей широкого набора рабочих задач, связанных с ИИ, которые, как мы видим, продолжают множиться», — добавил он.

В дополнение к анонсу нового поколения TPU компания Google также объявила, что в следующем месяце сделает общедоступными для разработчиков виртуальные кластеры A3, оснащённые специализированными графическими процессорами Nvidia H100.

Годовая выручка разработчика ChatGPT приблизилась к $1 млрд

Годовая выручка компании OpenAI, занимающейся разработкой и лицензированием технологий на основе машинного обучения, приближается к $1 млрд, пишет Bloomberg. Технологии компании используются в основе ChatGPT — генеративного бота с искусственным интеллектом, получившего значительную популярность среди множества компаний и привлекшего значительную волну инвестиций в область ИИ.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Стартап, поддерживаемый компанией Microsoft, зарабатывает около $80 миллионов ежемесячно, сообщил изданию источник, проинформированный по этому вопросу, но попросивший об анонимности. Впервые о доходах OpenAI сообщило издание The Information, в частности, отметив, что в 2022 году компания потеряла около 540 миллионов долларов на разработке языковой модели GPT-4 и чат-бота ChatGPT.

OpenAI считается одной из нескольких компаний, находящихся в авангарде разработок генеративного искусственного интеллекта, способного создавать контент, от видео до стихов, с помощью нескольких простых пользовательских команд. С момента дебюта своего бота в ноябре OpenAI лицензирует его молодым компаниям и крупным корпорациям, а также помогает внедрять технологию в их экосистемы бизнеса, продуктов и сервисов.

В этом месяце компания запустила корпоративную версию ChatGPT с дополнительными функциями и средствами защиты конфиденциальности. Это самая значительная попытка стартапа привлечь широкий круг бизнес-клиентов и увеличить доходы от своего самого известного продукта.

Внедрение ChatGPT Enterprise — шаг вперёд в планах OpenAI по зарабатыванию денег на своём сверхпопулярном, но весьма дорогом в вопросе внедрения и эксплуатации продукте. Для работы модели искусственного интеллекта требуются значительные специализированные вычислительные мощности. Компания уже реализовала несколько моделей получения дохода с ChatGPT, например, предложив клиентам премиальную подписку, а также платный доступ к интерфейсу программирования ПО, который разработчики могут использовать для добавления чат-бота в другие приложения.

Учёные с помощью ИИ в четыре раза ускорили преобразование мыслей в речь через нейроинтерфейс

В журнале Nature вышли две статьи, в которых учёные рассказали о новых методиках трансляции мыслей пациентов с поражениями мозга в речь и эмоции. Преобразование мозговой активности в текст и голосовое общение происходит с помощью алгоритма машинного обучения. Учёным удалось увеличить скорость преобразования почти в четыре раза с 18 слов в минуту до 78. Это ниже среднего для обычного разговора темпа в 160 слов в минуту, но кратно быстрее, чем было до этого.

 Источник изображений: Noah Berger/UCSF

Источник изображений: Noah Berger/UCSF

Нейродегенеративные заболевания, инсульты или травмы способны лишить человека речи разными способами, но один из них достаточно легко поддаётся исправлению. Современные технологии позволяют создать мостик между здоровыми участками мозга, отвечающими за речь или мысленное произношение, и мышцами, управляющими мимикой и позволяющими говорить. Естественный канал коммуникации между мышцами и мозгом может быть разорван в случае болезни или травмы, и тогда на помощь приходит интерфейс человек-компьютер и обучаемый алгоритм.

В мозг пациента встраивается датчик или несколько датчиков с электродами, входящими в зоны активности мозга человека, ответственные за произношение и речь (хотя учёные пока не до конца понимают, какие это зоны). В одном случае, например, учёные установили на речевую область сенсомоторной коры и на область верхней височной извилины женщины после инсульта 253 электрода. После болезни она не могла говорить и даже печатать.

В течение нескольких недель ИИ обучался на примере произношения пациенткой 1024 слов из специально подобранного словаря. Для упрощения работы алгоритма он разбивал все слова на фонемы, которых было всего 39. Затем словарный запас женщины был расширен до 125 тыс. слов. Машинный алгоритм смог распознавать мысленное произношение женщины с ошибками на уровне 25 %, но со скоростью до 78 слов в минуту.

Алгоритм также научили распознавать эмоции пациентки — горе, радость, удивление. Наконец, используя старую видеозапись женщины, учёные создали её компьютерный образ — аватар — и заставили его транслировать текстовые сообщения в голосовые. По сути, они вернули пациентке возможность разговаривать.

Сегодня подобные процедуры восстановления сопряжены с длительным обучением ИИ и необходимостью быть постоянно подключённым к компьютеру. Учёные из Калифорнийского университета в Сан-Франциско (UCSF) и Калифорнийского университета в Беркли, которые реализовали представленную методику, теперь работают над беспроводными вариантами транслятора. Когда-нибудь это повысит социальную вовлечённость людей с подобными медицинскими проблемами.

Zoom обновил условия обслуживания и начал обучать свой ИИ на данных пользователей

Zoom обновил условия обслуживания, дав себе право обучать собственный ИИ на основе данных пользователей. Это изменение вызывает споры о том, насколько допустимо использовать личные данные клиентов для обучения ИИ, даже если они агрегированы или анонимизированы.

 Источник изображения: Alexandra_Koch / Pixabay

Источник изображения: Alexandra_Koch / Pixabay

Согласно недавно обновлённым условиям обслуживания, Zoom намерен обучать собственные ИИ-модели, используя данные пользователей. Нововведение, вступившее в силу 27 июля, подтверждает право компании использовать информацию о продукте, телеметрические и диагностические данные, а также другой контент или данные, собранные компанией. Такой подход к пользовательским данным со стороны технологических компаний не является новым, однако новые условия являются важным шагом в реализации стратегии Zoom в области ИИ.

Условия Zoom гласят: «Вы даёте согласие на доступ, использование, сбор, создание, изменение, распространение, обработку, совместное использование, обслуживание и хранение генерируемых Службой данных компанией Zoom в любых целях, в объёме и в порядке, разрешённых действующим законодательством, в том числе в целях разработки продуктов и услуг, маркетинга, аналитики, обеспечения качества, машинного обучения или искусственного интеллекта (в том числе в целях обучения и настройки алгоритмов и моделей), обучения, тестирования, улучшения Служб, Программного обеспечения или других продуктов, услуг и программного обеспечения компании Zoom или любой их комбинации, а также в соответствии с другими положениями настоящего Соглашения».

Контент пользователей, такой как сообщения, файлы и документы, в эту категорию, по-видимому, не входит. В блоге компании представитель Zoom уточнил: «Для ИИ мы не используем аудио, видео или чат без согласия клиента». Ключевая фраза здесь — «без согласия клиента».

В июне Zoom на бесплатной основе представил две новые функции генеративного ИИ — инструмент для составления резюме встречи и инструмент для создания сообщений в чате. Однако при активации этих функций Zoom просит пользователей подписать форму согласия на обучение своих ИИ-моделей с использованием их контента. Представитель компании заявил, что пользователи Zoom сами решают, следует ли им активировать функции генеративного ИИ и делиться индивидуальным контентом с Zoom для улучшения продукта. «Ваш контент используется исключительно для улучшения производительности и точности этих ИИ-услуг», — пояснил предствитель Zoom в блоге.

Обновление условий произошло на фоне растущей обеспокоенности, в какой степени ИИ должен обучаться на данных отдельных лиц, независимо от того, насколько они агрегированы или анонимизированы. Инструменты, такие как ChatGPT — OpenAI, Bard — Google и Bing — Microsoft, обучаются на больших объёмах текста или изображений из интернета. В секторе генеративного ИИ недавно были поданы иски от писателей и художников, которые утверждают, что их произведения были незаконно использованы техногигантами для обучения своих ИИ-моделей.

Обновление условий обслуживания Zoom подчёркивает растущую роль ИИ в современных технологиях и вызывает вопросы о балансе между инновациями и конфиденциальностью данных. Пока компании стремятся улучшить свои услуги с помощью ИИ, важно помнить о необходимости защиты личной информации пользователей.


window-new
Soft
Hard
Тренды 🔥
В WhatsApp для iPhone появился вход без пароля 35 мин.
Спустя 10 лет Tomb Raider: Definitive Edition наконец вышла на ПК, но только в Microsoft Store 38 мин.
Meta отчиталась о росте прибыли в первом квартале, но расстроила прогнозом на второй 59 мин.
Новый уровень погружения: MudRunner VR отправит игроков покорять бездорожье в VR 3 ч.
TikTok перестала платить пользователям за просмотр видео в TikTok Lite из-за разбирательства в ЕС 7 ч.
«Будьте уверены — мы никуда не денемся», — TikTok прокомментировал закон о своём запрете в США 12 ч.
Apple представила малые языковые модели OpenELM, которые работают локально на смартфонах и ноутбуках 12 ч.
NVIDIA приобрела за $700 млн платформу оркестрации ИИ-нагрузок Run:ai 12 ч.
Британские антимонопольщики заинтересовались инвестициями Microsoft и Amazon в ИИ-стартапы 13 ч.
NetEase раскрыла, когда начнётся закрытая «альфа» командного шутера Marvel Rivals в духе Overwatch 13 ч.
Ветеран NASA разработал бестопливный ракетный двигатель, который работает на «новой силе» 37 мин.
TSMC пообещала освоить 2-нм техпроцесс в 2025 году, а 1,6-нм техпроцесс — на год позднее 2 ч.
На фоне ИИ-бума выручка SK hynix взлетела в два с половиной раза 5 ч.
Космический мусор вызвал перебои с электричеством на китайской орбитальной станции 12 ч.
Advent Diamond разработала техпроцессы для выпуска алмазных чипов, которым не страшен перегрев 12 ч.
Представлен смартфон Oppo K12 — он практически полностью повторяет OnePlus Nord CE4 13 ч.
Китайские телеком-гиганты потратят миллиарды долларов на оптовые закупки ИИ-серверов 15 ч.
Акции Tesla резко выросли после заявления Маска о планах выпуска доступных электромобилей 15 ч.
Snapdragon X Plus и Elite снова победили конкурентов Apple, AMD и Intel в предварительных тестах 15 ч.
Тим Кук намекнул на скорый выход нового Apple Pencil 3 16 ч.