Сегодня 19 марта 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → машинное обучение
Быстрый переход

ChatGPT обрёл тело — OpenAI и Figure сделали умного робота-гуманоида, который полноценно общается с людьми

Американский стартап Figure показал первые плоды сотрудничества с компанией OpenAI по расширению возможностей гуманоидных роботов. Figure опубликовала новое видео со своим роботом Figure 01, ведущим диалог с человеком в режиме реального времени. Машина на видео отвечает на вопросы и выполняет его команды.

 Источник изображения: Figure

Источник изображения: Figure

Стремительный темп развития проекта Figure 01 и компании Figure в целом не может не впечатлять. Бизнесмен и основатель стартапа Бретт Эдкок (Brett Adcock) «вышел из тени» год назад, после того как компания привлекла внимание крупных игроков на рынке робототехники и технологий искусственного интеллекта, включая Boston Dynamics, Tesla Google DeepMind, Archer Aviation и других, и поставила цель «создать первого в мире коммерчески доступного гуманоидного робота общего назначения».

К октябрю того же года Figure 01 «встал на ноги» и продемонстрировал свои возможности в выполнении базовых автономных задач. К концу всё того же 2023 года робот обрёл возможность обучаться выполнению различных задач. К середине января Figure подписала первый коммерческий контракт на использование Figure 01 на автомобильном заводе компании BMW в североамериканском штата Северная Каролина.

В прошлом месяце Figure опубликовала видео, на котором Figure 01 выполняет работу на складе. Практически сразу после этого компания анонсировала разработку второго поколения машины и объявила о сотрудничестве с OpenAI «по разработке нового поколения ИИ-моделей для гуманоидных роботов». Сегодня Figure поделилась видео, в котором демонстрируются первые результаты этого сотрудничества.

Через свою страницу в X (бывший Twitter) Адкок сообщил, что встроенные в Figure 01 камеры отправляют данные в большую визуально-языковую модель ИИ, обученную OpenAI, в то время как собственные нейросети Figure «также через камеры робота захватывает изображение окружения с частотой 10 Гц». Алгоритмы OpenAI также отвечают за возможность робота понимать человеческую речь, а нейросеть Figure преобразует поток полученной информации в «быстрые, низкоуровневые и ловкие действия робота».

Глава Figure утверждает, что во время демонстрации робот не управлялся дистанционно и видео показано с реальной скоростью. «Наша цель — научить мировую модель ИИ управлять роботами-гуманоидами на уровне миллиардов единиц», — добавил руководитель стартапа. При таком темпе развития проекта ждать осталось не так уж и долго.

Cerebras представила гигантский процессор WSE-3 c 900 тысячами ядер

Американский стартап Cerebras Systems представил гигантский процессор WSE-3 для машинного обучения и других ресурсоёмких задач, для которого заявляется двукратный прирост производительности на ватт потребляемой энергии по сравнению с предшественником.

 Cerebras WSE-3. Источник изображений: Cerebras

Cerebras WSE-3. Источник изображений: Cerebras

Площадь нового процессора составляет 46 225 мм2. Он выпускается с использованием 5-нм техпроцесса компании TSMC, содержит 4 трлн транзисторов, 900 000 ядер и объединён с 44 Гбайт набортной памяти SRAM. Его производительность в операциях FP16 заявлена на уровне 125 Пфлопс.

Один WSE-3 составляет основу для новой вычислительной платформы Cerebras CS-3, которая, по утверждению компании, обеспечивает вдвое более высокую производительность, чем предыдущая платформа CS-2 при том же энергопотреблении в 23 кВт. По сравнению с ускорителем Nvidia H100 платформа Cerebras CS-3 на базе WSE-3 физически в 57 раз больше и примерно в 62 раза производительнее в операциях FP16. Но учитывая размеры и энергопотребление Cerebras CS-3, справедливее будет сравнить её с платформой Nvidia DGX с 16 ускорителями H100. Правда, даже в этом случае CS-3 примерно в 4 раза быстрее конкурента, если речь идёт именно об операциях FP16.

 Cerebras CS-3. Источник изобажений: Cerebras

Cerebras CS-3

Одним из ключевых преимуществ систем Cerebras является их пропускная способность. Благодаря наличию 44 Гбайт набортной памяти SRAM в каждом WSE-3, пропускная способность новейшей системы Cerebras CS-3 составляет 21 Пбайт/с. Для сравнения, Nvidia H100 с памятью HBM3 обладает пропускной способностью в 3,9 Тбайт/с. Однако это не означает, что системы Cerebras быстрее во всех сценариях использования, чем конкурирующие решения. Их производительность зависит от коэффициента «разрежённости» операций. Та же Nvidia добилась от своих решений удвоения количества операций с плавающей запятой, используя «разреженность». В свою очередь Cerebras утверждает, что добилась улучшения примерно до 8 раз. Это значит, что новая система Cerebras CS-3 будет немного медленнее при более плотных операциях FP16, чем пара серверов Nvidia DGX H100 при одинаковом энергопотреблении и площади установки, и обеспечит производительность около 15 Пфлопс против 15,8 Пфлопс у Nvidia (16 ускорителей H100 выдают 986 Тфлопс производительности).

 Одна из установок Condor Galaxy AI

Одна из установок Condor Galaxy AI

Cerebras уже работает над внедрением CS-3 в состав своего суперкластера Condor Galaxy AI, предназначенного для решения ресурсоёмких задач с применением ИИ. Этот проект был инициирован в прошлом году при поддержке компании G42. В его рамках планируется создать девять суперкомпьютеров в разных частях мира. Две первые системы, CG-1 и CG-2, были собраны в прошлом году. В каждой из них сдержится по 64 платформы Cerebras CS-2 с совокупной ИИ-производительностью 4 экзафлопса.

В эту среду Cerebras сообщила, что построит систему CG-3 в Далласе, штат Техас. В ней будут использоваться несколько CS-3 с общей ИИ-производительностью 8 экзафлопсов. Если предположить, что на остальных шести площадках также будут использоваться по 64 системы CS-3, то общая производительность суперкластера Condor Galaxy AI составит 64 экзафлопса. В Cerebras отмечают, что платформа CS-3 может масштабироваться до 2048 ускорителей с общей производительностью до 256 экзафлопсов. По оценкам экспертов, такой суперкомпьютер сможет обучить модель Llama 70B компании Meta всего за сутки.

Помимо анонса новых ИИ-ускорителей Cerebras также сообщила о сотрудничестве с компанией Qualcomm в вопросе создания оптимизированных моделей для ИИ-ускорителей Qualcomm с Arm-архитектурой. На потенциальное сотрудничество обе компании намекали с ноября прошлого года. Тогда же Qualcomm представила свой собственный ИИ-ускорители Cloud AI100 Ultra формата PCIe. Он содержит 64 ИИ-ядра, 128 Гбайт памяти LPDDR4X с пропускной способностью 548 Гбайт/с, обеспечивает производительность в операциях INT8 на уровне 870 TOPS и обладает TDP 150 Вт.

 Источник изображения: Qualcomm

Источник изображения: Qualcomm

В Cerebras отмечают, что вместе с Qualcomm они будут работать над оптимизацией моделей для Cloud AI100 Ultra, в которых будут использоваться преимущества таких методов, как разреженность, спекулятивное декодирование, MX6 и поиск сетевой архитектуры.

«Как мы уже показали, разрежённость при правильной реализации способна значительно повысить производительность ускорителей. Спекулятивное декодирование предназначено для повышения эффективности модели при развёртывании за счёт использования небольшой и облегченной модели для генерации первоначального ответа, а затем использования более крупной модели для проверки точности этого ответа», — отметил гендиректор Cerebras Эндрю Фельдман (Andrew Feldman).

Обе компании также рассматривают возможность использования метода MX6, представляющего собой форму сжатия размера модели путём снижения её точности. В свою очередь, поиск сетевой архитектуры представляет собой процесс автоматизации проектирования нейронных сетей для конкретных задач с целью повышения их производительности. По словам Cerebras, сочетание этих методов способствует десятикратному повышению производительности на доллар.

В Китае искусственный интеллект навёл порядок на железной дороге — она заработала лучше, чем новая

Чат-боты, сгенерированные картинки, видео и другие подобные развлечения с искусственным интеллектом — это интересно и местами полезно. Но более важным станет практическое внедрение ИИ в производство, транспорт и материальную экономику в целом. В конечном итоге выиграет тот, кто буквально будет «пахать и строить» на ИИ, заменив человека в производственной сфере. Китай сделал важный шаг к этому: благодаря ИИ там смогли навести порядок на железной дороге.

 Источник изображения: Xinhua

Источник изображения: Xinhua

Простой обыватель даже не может себе представить, чего стоит содержать дорогу, инфраструктуру и парк техники в порядке, а также обеспечивать движение составов. Это потенциально убыточные мероприятия с огромной ответственностью. Китай, как и другие страны, вскоре ощутит проблемы со стареющим населением. При этом железнодорожная сеть в стране растёт и предполагает соединение высокоскоростными ж/д магистралями все города с населением свыше 500 тыс. человек. Скорость подвижного состава также растёт, что делает человеческий фактор наиболее слабым звеном.

Протокол управления данными для внедрения ИИ-алгоритмов на железной дороге в Китае был внедрён оператором национальной сети железных дорог — китайской государственной компанией China State Railway Group — в 2022 году. Доступ к данным должен был быть ограничен и защищён от стороннего вмешательства и утечек. Алгоритмы управления были проверены людьми, и только после этого они были внедрены. Масштабные испытания начались в 2023 году. Результат ошеломил — железная дорога стала работать даже лучше, чем новая (сразу после ввода участков и составов в строй).

Датчики установлены на объектах инфраструктуры, на колёсные пары, на вагоны, чтобы учитывать вибрации, ускорение и амплитуды и это не говоря об обычной сигнальной автоматике. Объём собираемых для анализа данных достиг 200 Тбайт, а ведь это не картинки или видео, а обычные состояния регистров. Человек и сколь угодно большой коллектив не смог бы оперативно обрабатывать такой объём информации. Всё это данные о 45 тыс. км путей — это длиннее, чем экватор Земли. Обслужить всё это не хватит никакой рабочей силы.

Размещённая в Пекине система искусственного интеллекта в режиме реального времени обрабатывает огромные объёмы данных со всей страны и может предупреждать ремонтные бригады о нештатных ситуациях в течение 40 минут с точностью до 95 %. Рекомендации обычно направлены на предотвращение неисправностей — на профилактику потенциальных проблем. ИИ во всём этом потоке данных научили находить связи между событиями, которые недоступны для осознания в реальном масштабе времени.

За прошедший год ни одна из действующих высокоскоростных железнодорожных линий Китая не получила ни единого предупреждения о необходимости снижения скорости из-за серьёзных проблем с неровностями пути, в то время как количество мелких неисправностей на путях сократилось на 80 % по сравнению с предыдущим годом. Алгоритмы действуют настолько чётко, что даже повышают плавность хода в условиях сильных ветров и на мостах, снижая амплитуду колебаний составов и уменьшая нагрузку на пути и инфраструктуру. Звучит, как фантастика.

Подобные решения не только уменьшают потребность в обслуживающем персонале, но также снижают финансовую нагрузку на содержание железных дорог и, что самое важное, повышают безопасность движения. В Китае признают своё отставание от США в плане развития искусственного интеллекта, но если США не сможет конвертировать возможности ИИ в повышение производительности труда в материальной сфере, то это их преимущество будет лишь иллюзией.

ChatGPT научился читать свои ответы вслух

Компания OpenAI добавила в свой ИИ-бот ChatGPT функцию «Чтение вслух», которая озвучивает ответы на запросы пользователей с помощью одним из пяти голосов. Функция может пригодиться, например, в дороге, когда отвлечься на экран устройства для чтения ответа на запрос может оказаться невозможно. Новая функция «Чтение вслух» уже доступна как в веб-версии ChatGPT, так и в приложениях ChatGPT для iOS и Android.

 Источник изображения: Unsplash, Andrew Neel

Источник изображения: Unsplash, Andrew Neel

Функция «Чтение вслух» поддерживает 37 языков и автоматически определяет язык ответа. Она доступна как для чат-ботов на базе GPT-4, так и для GPT-3.5. Следует добавить, что аналогичные возможности для своих ИИ-моделей ранее добавила компания Anthropic, один из основных конкурентов OpenAI.

В сентябре минувшего года ChatGPT запустил функцию голосового запроса, благодаря которой пользователи могут голосом проговаривать запрос для чат-бота, не печатая его в форме. Новая же функция позволяет настроить чат-бота таким образом, чтобы он всегда устно отвечал на запросы пользователя.

Для работы функции «Чтение вслух» в мобильных приложениях необходимо нажать и удерживать поле введённого запроса. В результате откроется специальный плеер «Чтение вслух», где можно выбрать настройки воспроизведения, приостановки или перемотки аудио-ответа. В веб-версии чат-бота для активации функции «Чтение вслух» под текстом ответа отображается значок динамика.

MSI представила читерский монитор MEG 321URX — он сам находит врагов в League of Legends

Компания MSI представила на выставке CES 2024 необычный игровой 32-дюймовый QD-OLED-монитор MEG 321URX. Его главной особенностью является встроенный ИИ, который не только улучшает качество работы дисплея, но также обладает функцией обнаружения врагов в League of Legends и показывает место на карте, откуда они могут появиться. Позже монитору добавят возможность помогать игрокам и в других играх.

 Источник изображения: Brad Chacos / IDG

Источник изображения: Brad Chacos / IDG

Компания называет эту технологию SkySight. По словам производителя, SkySight анализирует мини-карту на экране и предсказывает, откуда может появиться противник, отображая эту информацию в виде красного пятна на дисплее. Опытные игроки способны делать что-то подобное самостоятельно, но для новичков эта функция может оказаться крайне полезной.

 Источник изображения здесь и ниже: Tom's Hardware

Источник изображения здесь и ниже: Tom's Hardware

Неизвестно, нарушает ли такой подход правила League of Legends, однако распознать работу SkySight вряд ли смогут даже самые продвинутые алгоритмы против читеров. Дело в том, что анализ ИИ и генерация второго слоя изображения на экране выполняются специальным чипом, встроенным в сам монитор. Функция работает независимо от операционной системы и программного обеспечения компьютера.

Ещё одной особенностью монитора стала светодиодная полоска внизу дисплея, которая дублирует полоску очков здоровья персонажа в игре. MSI говорит, что к началу продаж MEG 321URX весной этого года выпустит специальное ПО, которое позволит обучать встроенный ИИ-алгоритм монитора для обнаружения врагов и шкал здоровья в любых других играх. Для первоначального обучения ИИ-алгоритма это программное обеспечение будет использовать ресурсы ПК. Однако потом всю обработку, анализ и отображение на экране будет выполнять сам монитор. В MSI пока не говорят, какой именно ИИ-процессор используется в MEG 321URX и как он хранит набор данных для обучения.

Кроме этого, в монитор встроены технологии умного прицела и оптического зума — первая автоматически меняет цвет прицела так, чтобы он не сливался с окружением, а зум при нажатии горячих клавиш превращает любое оружие в снайперскую винтовку, приближая и увеличивая врагов на экране.

Даже если пользователю не нужны все эти читерские ИИ-функции, то MEG 321URX сам по себе обладает отличными характеристиками. Его экран поддерживает разрешение 3840 × 2160 пикселей, частоту обновления 240 Гц, имеет 99-процентный охват цветового пространства DCI-P3, обладает контрастностью 1 500 000:1 и имеет сертификацию DisplayHDR True Black 400. Кроме того, он поддерживает технологию OLED Care 2.0, которая снижает вероятность выгорания экрана.

В оснащение монитора входят разъёмы HDMI 2.1, DisplayPort 2.1, USB 2.0 и USB-C. Последний может работать в альтернативном режиме DisplayPort, а также передавать до 90 Вт мощности на внешнее устройство.

Стоимость монитора MEG 321URX производитель пока не сообщает.

AMD представила чипы XA Versal AI Edge и Ryzen Embedded V2000A для расширения ИИ-функций автомобилей

Компания AMD представила продукты, предназначенные для расширения ИИ-возможностей автомобилей. Первым является серия однокристальных платформ XA Versal AI Edge, который оснащены ИИ-движками и массивом векторных процессоров. Их основное предназначение — повышение безопасности и эффективности работы датчиков LiDAR, радаров, камер и прочих сенсоров на базе ИИ. Также была представлена серия процессоров Ryzen Embedded V2000A для расширения возможностей мультимедийных систем авто.

 Источник изображений: AMD

Источник изображений: AMD

Примечательная особенность серии SoC AMD XA Versal AI Edge и процессоров Ryzen Embedded V2000A заключается в том, что это первые 7-нм чипы, сертифицированные для использования в автомобильной отрасли.

В целом же XA Versal AI Edge и Ryzen Embedded V2000A призваны улучшить водительский и пассажирский опыт использования различных систем автомобиля, позволяя реализовать в них поддержку различных ИИ-функций.

XA Versal AI Edge — это адаптивная платформа, отвечающая за поддержку искусственного интеллекта и предназначенная для управления различными датчиками авто. XA Versal AI Edge отвечает за повышение точности и отзывчивости автомобильных датчиков LiDAR, радаров и камер, что является критически важным для принятия быстрых и точных решений ИИ-системами.

Одним из преимуществ платформы XA Versal AI Edge является её масштабируемость. Например, в составе флагманского SoC XAVE2602 используются 152 ИИ-движка с 820 тыс. логическими ячейками, а также 984 цифровых сигнальных процессоров (DSP). AMD заявляет для этого чипа производительность до 89 TOPS (триллионов операций в секунду) в вычислениях INT8. Компания также сможет предложить платформы XA Versal AI Edge с показателями производительности от 5 до 171 TOPS, предназначенные для разных сегментов и задач.

Основой XA Versal AI Edge служит APU в парой ядер Arm Cortex-A72, а также двуядерный модуль Arm Cortex-R5F RPT. Показатель энергопотребления чипов XA Versal AI Edge варьируется от 6–9 Вт (платформа XAVE2002) до внушительных 75 Вт (платформа XAVE2802).

Серия процессоров Ryzen Embedded V2000A предназначена для расширения ИИ-возможностей мультимедийных систем авто как для водителя, так и для пассажиров. Эти процессоры могут использоваться для управления цифровым салоном автомобилей — от информационно-развлекательной консоли до пассажирских дисплеев.

В составе этих процессоров, производящихся с применением 7-нм техпроцесса, используются ядра на архитектуре Zen 2. Новые чипы пришли на смену четырёхъядерному и восьмипоточному APU Ryzen Embedded V1000 на архитектуре Zen первого поколения. Ryzen Embedded V2000A предлагают до шести ядер Zen 2 с поддержкой до 12 виртуальных потоков и оснащены встроенной графикой Radeon Vega 7 с семью исполнительными блоками. Согласно AMD, новые процессоры до 88 % производительнее предшественников.

Чипы Ryzen Embedded V2000A поддерживают подключение до четырёх 4K-дисплеев, работу двух гигабитных сетевых интерфейсов и сертифицированы по стандартам AEC-Q100 со строгими требованиями к качеству и надёжности. Компания обещает 10-летнюю поддержку этих процессоров.

Ряд партнёров AMD, включая Tesla, Ecarx, Luxoft, BlackBerry/QNX, Xylon, Cognata и других, уже заинтересовались новыми платформами XA Versal AI Edge и Ryzen Embedded V2000A. По словам AMD, первый SoC XAVE1752 в рамках серии XA Versal AI Edge станет доступен в начале 2024 года. Остальные чипы серии будут выпущены до конца этого года. Компания также отмечает, что подготовила для потенциальных клиентов тестовый комплект AXVEK 280 для оценки возможностей новых SoC.

Intel наняла выходца из HPE, чтобы он помог ей конкурировать с NVIDIA в сфере ИИ-ускорителей

Компания Intel назначила исполнительного директора Hewlett Packard Enterprise Джастина Хотарда (Justin Hotard) главой своей группы, занимающейся разработкой технологий для центров обработки данных и искусственного интеллекта. Тем самым она привлекла для управления одним из своих ключевых подразделений стороннего специалиста.

 Джастин Хотард. Источник изображения: Intel

Джастин Хотард. Источник изображения: Intel

В Hewlett Packard Enterprise Хотард отвечал за высокопроизводительные вычисления, искусственный интеллект и управление лабораториями HPE. В Intel он будет курировать разработку и поддержку некоторых наиболее важных продуктов компании, включая серверные процессоры Xeon, которые ранее доминировали в сегменте ЦОД, но уступили значительную долю рынка конкурирующим предложениям. До HPE Хотард также возглавлял компании NCR и Motorola Inc. В Intel он возглавит направление ИИ, специализированных графических процессоров и ускорителей и постарается вывести компанию на достойный уровень конкуренции с NVIDIA, которая в настоящий момент безоговорочно доминирует в этом направлении.

Восстановление своего лидирующего положения на рынке продуктов для центров обработки данных имеет решающее значение для планов генерального директора Пэта Гелсингера (Pat Gelsinger) по восстановлению превосходства Intel в индустрии производства микросхем. Хотя чипы для ЦОД составляют относительно небольшую часть отрасли, сами по себе специализированные процессоры и ускорители на их основе могут продаваться за десятки тысяч долларов каждый, что делает их чрезвычайно прибыльными.

Хотард, который приступит к своей работе в Intel с 1 февраля, сменит ветерана компании Сандру Риверу (Sandra Rivera). Ривера с понедельника перешла на должность главы подразделения программируемых решений Intel (Programmable Solutions Group, PSG), которое компания выделила в отдельный бизнес и планирует вывести на биржу в течение двух-трёх лет.

Intel отдельно объявила, что ещё один топ-менеджер её подразделения ЦОД и ИИ Арун Субраманьян (Arun Subramaniyan) возглавил новую софтверную компанию Articul8, специализирующуюся на внедрении машинного обучения и больших языковых моделей (LLM). Она была создана Intel совместно с инвестиционными компаниями DigitalBridge Group и Mindset Ventures.

LG представила домашнего двуногого ИИ-робота на колёсиках — он поддержит диалог, будет охранять дом и не только

Компания LG представила компактного робота-помощника для дома Smart Home AI Agent. Новинка полагается на технологии искусственного интеллекта и машинного обучения для передвижения, управления предметами «умного дома», а также изучения дома и общения с хозяевами и другими людьми.

 Источник изображений: LG

Источник изображений: LG

В основе робота LG Smart Home AI Agent используется платформа Qualcomm Robotics RB5. Компактный двухколёсный робот-помощник оснащён камерой, динамиком, а также набором различных сенсоров, позволяющих ему следить за обстановкой в доме и собирать информацию об окружающем пространстве, включая температуру, влажность и качество воздуха.

Машина работает в автономном режиме. Он может общаться с домочадцами и их гостями, и через различные движения демонстрировать различные эмоции. Для этого он оснащён мультимодальной технологией искусственного интеллекта, объединяющей функции распознавания голоса и изображений, а также возможность обработки естественного языка. Всё это позволяет роботу LG Smart Home AI Agent улавливать контекст разговора, а также намерения владельца, и активно участвовать в общении с пользователями.

Возможности и особенности робота LG Smart Home AI Agent:

  • подключается и управляет элементами «умного дома» и IoT-устройствами;
  • может использоваться для наблюдения за домашними животными и в качестве охранной системы. Через него можно удалённо взаимодействовать с домашними животными. Робот отправит сигнал об опасности владельцу, если в доме будет обнаружена необычная активность;
  • может автономно патрулировать дом и отправлять уведомления на смартфон владельца;
  • помогает экономить электричество, подключаясь к умной розетке и отключая неиспользуемые устройства по всему дому;
  • может встречать владельцев по их приходу домой, оценивать их эмоции через анализ речи и выражения лиц, а также подбирать музыку или другой цифровой контент под то или иное настроение владельца;
  • следит за пробками на дорогах, погодой, расписанием владельца и может, например, напомнить принять медицинские препараты.

О стоимости домашнего робота-помощника Smart Home AI Agent компания LG пока ничего не сообщила. Производитель собирается продемонстрировать новинку на международной выставке электроники CES 2024 с 9 по 12 января.

Microsoft открыла бесплатный доступ к мощнейшей нейросети GPT-4 Turbo через Bing Chat, но только избранным

Нейросеть GPT-4 Turbo доступна на платной основе по подписке ChatGPT Plus. Однако компания Microsoft предоставила возможность попробовать её функции совершенно бесплатно. Правда, для этого необходимо случайным образом оказаться в числе отобранных тестировщиков. В настоящий момент Microsoft тестирует интеграцию ChatGPT-4 Turbo, а также поддержку плагинов в своём собственном чат-боте Bing Chat (Microsoft Copilot).

 Источник изображений: Windows Latest

Источник изображений: Windows Latest

Microsoft также планирует обновить функцию Code Interpreter, чтобы привести её в соответствие с возможностями платформы OpenAI. Это означает, что Code Interpreter в Microsoft Copilot вскоре сможет отвечать на более сложные вопросы, связанные с программированием или обработкой данных.

GPT-4 Turbo — это новая модель ChatGPT от OpenAI, основанная на существующей модели GPT-4. Языковая модель обучена на общедоступной информации до апреля 2023 года, поэтому может более точно отвечать на вопросы пользователя о недавних событиях. GPT-4 доступен только для подписчиков тарифа Plus и не является бесплатным.

Со ссылкой на источники в Microsoft портал Windows Latest сообщает, что компания внедряет новейшую модель ChatGPT в свой Bing Chat. Правда, GPT-4 Turbo в этом случае используется не постоянно, а в зависимости от того или иного запроса, а также настроек плагинов. При использовании стандартных настроек Bing Chat может переключаться между своей актуальной ИИ-моделью и GPT-4 Turbo. Возможность протестировать GPT-4 Turbo в составе Bing Chat пока полностью зависит от удачи, поскольку функция доступна только тем, кто был отобран для её тестирования. Однако в Microsoft подтвердили, что планируют расширить развертывание в ближайшие недели.

Также стоит отметить, что при отборе тестировщиков Microsoft не отдает предпочтение конкретным учетным записям или регионам. Отбор происходит полностью случайным образом и работает по принципу A/B-тестирования. Узнать, получил ли пользователь доступ к GPT-4 Turbo в составе Bing Chat, можно несколькими способами. Самый простой — на ПК или ноутбуке зайти по ссылке Bing.com/chat в браузере, создать новую тему и посмотреть исходный код веб-страницы. Затем, используя функцию «Найти на странице» в браузере Edge или Chrome, необходимо через поиск найти dlgpt4t. Если в результате запроса в исходном коде веб-страницы будут обнаружены упоминания dlgpt4t, то это означает, что пользователь имеет доступ к GPT-4 Turbo.

На мобильных устройствах подтвердить своё право на бесплатное использование GPT-4 Turbo в рамках тестирования можно, загрузив в чат-бот Bing Chat какое-нибудь изображение (желательно абстрактное) и попросить ИИ-чат-бота описать эмоции, которые вызывает это изображение. В отличие от предыдущих моделей GPT новейшая модель GPT-4 Turbo в составе Bing Chat может распознавать эмоции и свободно о них говорить.

В Bing Chat также появились настройки плагинов. При желании через эту настройку можно отключить поиск через поисковую платформу Bing в рамках запроса для Bing Chat. При отключении плагина «Поиска в Bing» чат-бот Bing Chat не будет сканировать ссылки в Bing для поиска ответов на запрос. Вместо этого он будет полностью полагаться на свои собственные данные, полученные в ходе обучения.

 При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

Способность Bing Chat отвечать на запросы, связанные с событиями в период с января по апрель 2023 года, также подтверждает, что для ответа на запросы используется модель GPT-4 Turbo.

Поставки ИИ-заменителя смартфона AI Pin начнутся в марте 2024 года

Компания Humane объявила в пятницу, что поставки её футуристического коммуникатора AI Pin начнутся в марте 2024 года. Покупатели, оформившие предзаказ на устройство, получат его первыми — заказы будут поставляться в порядке очереди по дате оформления.

 Источник изображений: Humane

Источник изображений: Humane

«Мы рады объявить, что поставки AI Pin начнутся в марте 2024 года. Всем в Humane не терпится узнать, что вы думаете о нашей разработке — первом в мире носимом компьютере на базе ИИ», — написала команда Humane на своей странице в социальной сети X.

Анонс устройства AI Pin состоялся в прошлом месяце. Одной из его ключевых особенностей является поддержка различных ИИ-сервисов, которые могут предоставлять ответы пользователям. AI Pin работает на базе процессора Snapdragon (какого именно — неизвестно). Владелец взаимодействует с устройством посредством комбинации голосового управления, камеры, жестов и небольшого встроенного проектора. Сам гаджет весит около 34 граммов с обычной батареей. Для него также предлагается усиленная батарея, которая добавит ещё 20 граммов к весу устройству. Встроенная в AI Pin камера имеет 13-мегапиксельный сенсор и будет способна записывать видео после обновления прошивки устройства.

Анонс новинки не обошёлся без казусов. В рамках демонстрации на некоторые вопросы пользователя гаджет посредством ИИ-сервиса ответил неправильно. Произошедшее в очередной раз подтвердило, что ИИ-помощники не всегда надёжны: при ответах они не ссылаются на источники и иногда дезинформируют пользователей.

AI Pin весьма недешёвый гаджет. Его стоимость составляет $699. Ещё $24 придётся платить за ежемесячную подписку, в которую входит сотовая связь и доступ к ИИ-платформе.

Intel выпустит ИИ-ускоритель Gaudi2C для Китая с урезанной производительностью

Команда разработчиков программного обеспечения Intel добавила в драйверы для операционной системы Linux с открытым исходным кодом поддержку ещё не анонсированного официально ускорителя для задач искусственного интеллекта Habana Gaudi2C, пишет Phoronix.

 Источник изображения: Intel

Источник изображения: Intel

Документально подтверждённой информации о загадочном ИИ-ускорителе Gaudi2C, который, судя по всему, имеет отношение к выпускающемуся Intel ускорителю вычислений Gaudi2, практически нет.

 Источник изображения: Phoronix

Источник изображения: Phoronix

К сожалению, сам драйвер для Linux не объясняет, что собой представляет Gaudi2C. Из имеющихся данных, обнаруженных в обновлении для Linux 6.8, известно, что новая версия ускорителя отличается маркировкой PCI ID «3».

Ходят слухи, что Gaudi2C может являться специальной версией ИИ-ускорителя Gaudi2C, адаптированной для удовлетворения конкретных требований китайского рынка, аналогично версии Gaudi2B (HL-225B), выпущенной в июле этого года и обладающей меньшим количеством вычислительных блоков и ограничениями по интерконнекту. Возможно, это некая урезанная версия Gaudi2, не подпадающая под рестрикции новых экспортных ограничений США.

Робот с ИИ очень быстро научился проводить шарик через лабиринт — и даже нашёл способ жульничать

Компьютеры уже победили людей в покере, го и шахматах. Теперь они принялись осваивать физические навыки, стремясь опередить человека в играх, где требуются хорошая реакция, интуиция, ловкость и координация. Исследователи из ETH Zurich создали робота CyberRunner, который, по их словам, превзошёл людей в популярной игре «Лабиринт». Он провёл небольшой металлический шарик через лабиринт, наклоняя его и избегая ловушек, причём освоил игрушку всего за шесть часов.

 Источник изображений: ETH Zurich

Источник изображений: ETH Zurich

CyberRunner стал одним из первых случаев, когда ИИ победил человека в непосредственном физическом соревновании, рассказали учёные Рафаэлло Д’Андреа (Raffaello D’Andrea) и Томас Би (Thomas Bi). Во время эксперимента робот использовал две ручки для управления игровой поверхностью, что требовало мелкой моторики и пространственного мышления. Сама игра предъявляет высокие требования к стратегическому планированию в реальном времени, быстроте принятия решений и точности действий.

Результаты эксперимента опубликованы во вторник в научной статье. Робот был построен на основе последних достижений в области, называемой машинным обучением с подкреплением, в процессе которого ИИ учится вести себя в динамической среде методом проб и ошибок. CyberRunner во время обучения обнаружил удивительные способы «обмануть» игру, пропуская части лабиринта, так что исследователям пришлось вмешаться и потребовать соблюдать правила.

Промышленные роботы десятилетиями выполняли повторяющиеся и точные производственные задачи, но корректировки на ходу, подобные тем, что продемонстрировал CyberRunner, — это новый уровень, уверены исследователи. Система может анализировать, учиться и саморазвиваться, выполняя физические задачи, которые раньше считались достижимыми только с помощью человеческого интеллекта.

«Мы размещаем нашу работу на платформе с открытым исходным кодом, чтобы показать, что это возможно, делимся подробностями о том, как это делается, и как удешевить разработку, — рассказал Д'Андреа. — Скоро появятся тысячи таких систем искусственного интеллекта, которые будут проводить совместные эксперименты, общаться и обмениваться передовым опытом».

Проект с открытым исходным кодом теперь доступен на сайте исследователей. За 200 долларов разработчики готовы помочь пользователям координировать масштабные эксперименты с помощью платформы CyberRunner. «Это не сделанная на заказ платформа, которая стоит больших денег, — подчёркнул Д’Андреа. — Самое интересное то, что мы делаем это на платформе, которая открыта для всех и практически ничего не стоит для дальнейшего продвижения работы».

Любопытно отметить, что Рафаэлло Д’Андреа далеко не новичок в роботостроении и машинном обучении — ранее он основал стартап Kiva Systems, который был приобретён компанией Amazon Robotics. Одна из его прежних разработок — «Танцующий склад» — представлена на видео ниже.

Китайская Moore Threads представила ИИ-ускоритель MTT S4000 — он до 15 раз медленнее NVIDIA H100

Китайская компания Moore Threads представила специализированный ускоритель вычислений MTT S4000 на фирменном GPU, который обеспечивает производительность на уровне 200 TOPS (триллионов операций в секунду) в операциях, связанных с искусственным интеллектом и большими языковыми моделями.

 Источник изображений: Moore Threads

Источник изображений: Moore Threads

В основе MTT S4000 используется графический процессор на основе архитектуры MUSA третьего поколения. Подробностей о самом GPU компания не сообщила. Ускоритель выполнен в формате карты расширения PCIe и оснащён 48 Гбайт памяти GDDR6 со скоростью 16 Гбит/с на контакт и общей пропускной способностью на уровне 768 Гбайт/с. Для MTT S4000 заявляется поддержка интерфейса MTLink 1.0, позволяющего объединять несколько подобных ускорителей в одной системе. Новинка обладает интерфейсом PCIe 5.0. Moore Threads — единственная компания на рынке, оснащающая свои видеокарты интерфейсом PCIe 5.0.

Компания заявляет, что MTT S4000 обеспечивает производительность 25 Тфлопс в операциях FP32, 50 Тфлопс в операциях TF32, 100 Тфлопс в операциях FP16/BF16 и 200 TOPS в операциях INT8. Это в пять раз больше, чем обеспечивают новейшие процессоры AMD Ryzen 8040 и Intel Core Ultra, оснащённые специализированными нейродвижками (NPU), предназначенными для различных ИИ-задач. Однако до флагманских ИИ-ускорителей NVIDIA и AMD ему далеко. PCIe-версия NVIDIA H100 обеспечивает до 51 Тфлопс в операциях FP32, до 756 Тфлопс в вычислениях TF32, 1513 Тфлопс при работе с FP16/BF16 и до 3026 TOPS в INT8.

Примечательной особенностью специализированного ИИ-ускорителя MTT S4000 является его оснащение четырьмя внешними видеоразъёмами. Обычно решения такого уровня подобных интерфейсов не имеют. К MTT S4000 можно подключать дисплеи с поддержкой разрешения до 8K. Ускоритель поддерживает до 96 видеопотоков в разрешении 1080p, а также работает с новейшими инструментами разработки USIFY, которые могут в полной мере использовать программное обеспечение NVIDIA на базе CUDA.

Moore Threads на презентации отметила, что MTT S4000 будут предлагаться в том числе в составе серверных вычислительных систем KUAE, аналогичных DGX-системам NVIDIA. В составе одного сервера KUAE MCCX D800 содержится восемь ускорителей MTT S4000. Платформа предлагает дальнейшую масштабируемость, позволяя объединять несколько таких серверов в единые кластеры. Ускорители Moore Threads MTT S4000 и системы KUAE на их основе поддерживают все современные большие языковые модели (LLM), включая Llama, GLM, Aquila, Baichuan, GPT, Bloom, Yuyan, и способны справляться с LLM, имеющими до 130 млрд различных параметров.

О стоимости MTT S4000 производитель ничего не сообщил. Известно, что первая партия из тысячи таких ускорителей будет использоваться для создания первого в Китае крупномасштабного вычислительного кластера для задач, связанных с ИИ.

AMD опровергла опровержение NVIDIA — ИИ-ускоритель MI300X на 30 % быстрее NVIDIA H100, даже с оптимизациями

Компания AMD ответила на недавнее заявление NVIDIA о том, что ускорители вычислений NVIDIA H100, при использовании оптимизированных библиотек TensorRT-LLM для ИИ-расчётов, быстрее справляются с поставленными задачами, чем новые ускорители AMD Instinct MI300X. По мнению AMD, её ускорители всё равно выигрывают.

 Источник изображения: Wccftech

Источник изображения: Wccftech

Двумя днями ранее компания NVIDIA опубликовала свои результаты тестов специализированных ускорителей вычислений Hopper H100 и заявила, что они значительно быстрее новейших ИИ-ускорителей AMD MI300X, которые были представлены на мероприятии Advancing AI на прошлой неделе. По словам NVIDIA, AMD при сравнении своих MI300X с H100 не использовала для последних специальные оптимизированные программные библиотеки TensorRT-LLM, которые повышают эффективность ИИ-чипов NIVDIA.

NVIDIA опубликовала данные своих тестов с использованием библиотек TensorRT-LLM, которые показали практически 50-процентное преимущество над ускорителями AMD MI300X. AMD решила ответить на это заявление, показав на новых графиках, как MI300X по-прежнему оказывается быстрее ускорителей H100, даже если последние используют оптимизированный под них стек программного обеспечения. По словам AMD, свои данные NVIDIA приводит:

  • на основе тестов H100 с библиотеками TensorRT-LLM вместо библиотек vLLM, которые использовались для тестов ускорителей AMD;
  • сравнивает производительность ускорителей AMD Instinct MI300X в вычислениях на числах FP16, а для тестов своих H100 использует данные типа FP8;
  • в графиках инвертировала данные AMD об относительной задержке в показатель абсолютной пропускной способности.

Согласно новым тестам AMD, её ускорители MI300X, работающие с библиотеками vLLM, на 30 % производительнее ускорителей NVIDIA H100, даже если последние работают с библиотеками TensorRT-LLM. Ниже показан новый график результатов тестов ускорителей H100 и MI300X, предоставленный AMD.

 Источник изображения: Wccftech / AMD

Источник изображения: Wccftech / AMD

Ниже приведено заявление AMD.

  • «Тесты MI300X и H100 с библиотеками vLLM
  • В рамках нашего анонса MI300X в начале декабря, мы сообщили, что наше решение в 1,4 раза производительнее H100 в условиях эквивалентных типов данных и программного обеспечения для расчётов. С нашими последними оптимизациями производительность MI300X оказалась в 2,1 раза выше, чем у конкурента;
  • Мы выбрали vLLM, основываясь на их широком распространении среди пользователей и разработчиков, а также с тем учётом, что эта программная среда поддерживается графическими процессорами AMD и NVIDIA.
  • MI300X с vLLM против H100 с оптимизированными библиотеками TensorRT-LLM
  • Сравнение H100 с оптимизированным ПО TensorRT-LLM с MI300X с vLLM показывает, что MI300X с vLLM обеспечивает в 1,3 более высокую производительность в операциях FP16.
  • Замеры задержки для MI300X с данными типа FP16 против H100 с TensorRT-LLM и типом данных FP8
  • Ускорители MI300X продолжают демонстрировать преимущество в производительности при измерении показателя абсолютной задержки, даже в том случае, когда H100 с TensorRT-LLM работает с типами данных FP8 и сравнение приводится с MI300X, которые работают с более точными типами данных FP16. Мы (AMD) используем FP16 из-за их популярности, кроме того, vLLM не поддерживают операции FP8.
  • Новые результаты снова показывают, что MI300X в работе данными FP16 сравнимы по производительности с H100, для которых используются рекомендованные настройки NVIDIA, учитывающие типы данных FP8 и программную среду TensorRT-LLM».

Публичный спор между AMD и NVIDIA в очередной раз демонстрирует, что в сегменте ИИ-вычислений наблюдается очень высокая конкуренция между производителями аппаратного обеспечения, которые готовы бороться за каждого клиента.

NVIDIA развенчала миф от AMD: ИИ-ускорители H100 в реальных задачах в разы быстрее Instinct MI300X

Компания NVIDIA опубликовала свежие данные о производительности своих ИИ-ускорителей H100, сравнив их с недавно представленными ускорителями Instinct MI300X от компании AMD. Этим сравнением NVIDIA решила показать, что на самом деле H100 обеспечивают более высокую производительность по сравнению с конкурентом, если использовать правильную программную среду для ИИ-вычислений. Компания AMD этого не учла в своём сравнении ускорителей, посчитали в NVIDIA.

 Источник изображения: Wccftech

Источник изображения: Wccftech

Во время презентации Advancing AI компания AMD официально представила специализированные ускорители вычислений для ИИ Instinct MI300X и сравнила их в различных бенчмарках и тестах с ускорителями H100 от NVIDIA. В частности, AMD заявила, что один ускоритель MI300X обеспечивает на 20 % более высокую производительность по сравнению с одним ускорителем H100, а сервер из восьми MI300X до 60 % быстрее сервера из восьми H100. NVIDIA опубликовала заметку на своём сайте, в которой утверждает, что эти заявления далеки от правды.

Ускорители вычислений NVIDIA H100 были выпущены в 2022 году и с тех пор получили различные улучшения на уровне программного обеспечения. Например, наиболее свежие улучшения, связанные с программной средой для ИИ-вычислений TensorRT-LLM позволили ещё больше повысить производительность H100 в рабочих нагрузках, специфичных для искусственного интеллекта, а также провести оптимизацию на уровне ядра. Всё это, по словам NVIDIA, позволяет чипам H100 эффективнее работать с такими большими языковыми моделями, как Llama 2 с 70 млрд параметров с использованием операций FP8.

Сама AMD в своей презентации утверждала, что Instinct MI300X до 20 % быстрее H100 в Llama 2 70B, а также система из восьми ускорителей AMD обеспечивает превосходство по задержке на 40 % по сравнению с системой на восьми NVIDIA H100 в той же нейросети. Превосходство в операциях FP8 и FP16 составляет 30 % в пользу MI300X.

AMD проводила тесты своих ускорителей MI300X с использованием оптимизированных библиотек программной среды вычислений ROCm 6.0. Однако для NVIDIA H100 использовались данные без учёта применения оптимизированной программной среды TensorRT-LLM, предназначенной для этих задач. В свежей статье NVIDIA привела актуальные данные производительности одного DGX-сервера из восьми H100 в модели Llama 2 70B с учётом обработки одного программного пакета (Batch-1).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

NVIDIA поясняет, что выводы AMD (серым и красным на графике выше) о превосходстве над H100 основаны на данных, представленных в сноске #MI300-38 к презентации AMD. Для их получения использовалась система NVIDIA DGX H100, фреймворк vLLM v.02.2.2 и модель Llama 2 70B с длиной входной последовательности 2048 и длиной выходной последовательности 128. NVIDIA отмечает, что в AMD сравнили систему из восьми MI300X с системой DGX H100 из восьми H100.

В свою очередь данные NVIDIA показаны на графике зелёным. Для их получения применена система DGX H100 из восьми NVIDIA H100 с 80 Гбайт памяти HBM3 в каждом, а также находящийся в открытом доступе фреймворк NVIDIA TensorRT-LLM v0.5.0 для расчёта Batch-1 и версии v0.6.1 для расчёта задержки. Рабочая нагрузка такая же, как указано в сноске AMD #MI300-38.

Приведённые NVIDIA результаты показывают, что сервер DGX H100 вдвое быстрее при использовании оптимизированных фреймворков, чем заявляет AMD. Кроме того, сервер с восемью H100 до 47 % быстрее системы с восемью AMD MI300X.

«Система DGX H100 способна обработать один инференс-запрос размером в один пакет (Batch-1) или иными словами, один запрос вывода за раз, за 1,7 секунды. Запрос уровня Batch-1 обеспечивает максимально быстрый показатель времени отклика для обработки модели. Для оптимизации времени отклика и пропускной способности ЦОД облачные сервисы устанавливают фиксированное время ответа для конкретной задачи. Это позволяет операторам ЦОД объединять несколько запросов на вывод в более крупные “пакеты” и увеличивать общее количество выводов сервера в секунду. Стандартные отраслевые тесты вроде MLPerf также измеряют производительность с помощью этого фиксированного показателя времени отклика», — продолжает NVIDIA.

В NVIDIA поясняют, что небольшие компромиссы в вопросе времени отклика системы могут привести к увеличению количества запросов на вывод, которые сервер может обработать в реальном времени. Используя фиксированный бюджет времени отклика в 2,5 секунды, сервер DGX H100 с восемью графическими процессорами может обработать более пяти инференс-запросов Llama 2 70B за раз.


window-new
Soft
Hard
Тренды 🔥
Всё своё ношу с собой: Nvidia представила контейнеры NIM для быстрого развёртывания оптимизированных ИИ-моделей 6 ч.
Nvidia AI Enterprise 5.0 предложит ИИ-микросервисы, которые ускорят развёртывание ИИ 7 ч.
NVIDIA запустила облачную платформу Quantum Cloud для квантово-классического моделирования 7 ч.
NVIDIA и Siemens внедрят генеративный ИИ в промышленное проектирование и производство 7 ч.
SAP и NVIDIA ускорят внедрение генеративного ИИ в корпоративные приложения 8 ч.
Microsoft проведёт в мае презентацию, которая положит начало году ИИ-компьютеров 9 ч.
Амбициозная ролевая игра Wyrdsong от бывших разработчиков Fallout: New Vegas и Skyrim в опасности — в студии прошли массовые увольнения 9 ч.
THQ Nordic раскрыла системные требования Alone in the Dark на все случаи жизни — для игры на «ультра» понадобится RTX 4070 Ti 10 ч.
Сливать игры до релиза станет опаснее — создатели Denuvo рассказали о технологии TraceMark for Games 10 ч.
Календарь релизов 18–24 марта: Dragon's Dogma 2, Rise of the Ronin, Horizon Forbidden West на ПК 12 ч.