Сегодня 25 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → обучение
Быстрый переход

Microsoft открыла бесплатный доступ к мощнейшей нейросети GPT-4 Turbo через Bing Chat, но только избранным

Нейросеть GPT-4 Turbo доступна на платной основе по подписке ChatGPT Plus. Однако компания Microsoft предоставила возможность попробовать её функции совершенно бесплатно. Правда, для этого необходимо случайным образом оказаться в числе отобранных тестировщиков. В настоящий момент Microsoft тестирует интеграцию ChatGPT-4 Turbo, а также поддержку плагинов в своём собственном чат-боте Bing Chat (Microsoft Copilot).

 Источник изображений: Windows Latest

Источник изображений: Windows Latest

Microsoft также планирует обновить функцию Code Interpreter, чтобы привести её в соответствие с возможностями платформы OpenAI. Это означает, что Code Interpreter в Microsoft Copilot вскоре сможет отвечать на более сложные вопросы, связанные с программированием или обработкой данных.

GPT-4 Turbo — это новая модель ChatGPT от OpenAI, основанная на существующей модели GPT-4. Языковая модель обучена на общедоступной информации до апреля 2023 года, поэтому может более точно отвечать на вопросы пользователя о недавних событиях. GPT-4 доступен только для подписчиков тарифа Plus и не является бесплатным.

Со ссылкой на источники в Microsoft портал Windows Latest сообщает, что компания внедряет новейшую модель ChatGPT в свой Bing Chat. Правда, GPT-4 Turbo в этом случае используется не постоянно, а в зависимости от того или иного запроса, а также настроек плагинов. При использовании стандартных настроек Bing Chat может переключаться между своей актуальной ИИ-моделью и GPT-4 Turbo. Возможность протестировать GPT-4 Turbo в составе Bing Chat пока полностью зависит от удачи, поскольку функция доступна только тем, кто был отобран для её тестирования. Однако в Microsoft подтвердили, что планируют расширить развертывание в ближайшие недели.

Также стоит отметить, что при отборе тестировщиков Microsoft не отдает предпочтение конкретным учетным записям или регионам. Отбор происходит полностью случайным образом и работает по принципу A/B-тестирования. Узнать, получил ли пользователь доступ к GPT-4 Turbo в составе Bing Chat, можно несколькими способами. Самый простой — на ПК или ноутбуке зайти по ссылке Bing.com/chat в браузере, создать новую тему и посмотреть исходный код веб-страницы. Затем, используя функцию «Найти на странице» в браузере Edge или Chrome, необходимо через поиск найти dlgpt4t. Если в результате запроса в исходном коде веб-страницы будут обнаружены упоминания dlgpt4t, то это означает, что пользователь имеет доступ к GPT-4 Turbo.

На мобильных устройствах подтвердить своё право на бесплатное использование GPT-4 Turbo в рамках тестирования можно, загрузив в чат-бот Bing Chat какое-нибудь изображение (желательно абстрактное) и попросить ИИ-чат-бота описать эмоции, которые вызывает это изображение. В отличие от предыдущих моделей GPT новейшая модель GPT-4 Turbo в составе Bing Chat может распознавать эмоции и свободно о них говорить.

В Bing Chat также появились настройки плагинов. При желании через эту настройку можно отключить поиск через поисковую платформу Bing в рамках запроса для Bing Chat. При отключении плагина «Поиска в Bing» чат-бот Bing Chat не будет сканировать ссылки в Bing для поиска ответов на запрос. Вместо этого он будет полностью полагаться на свои собственные данные, полученные в ходе обучения.

 При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

Способность Bing Chat отвечать на запросы, связанные с событиями в период с января по апрель 2023 года, также подтверждает, что для ответа на запросы используется модель GPT-4 Turbo.

Поставки ИИ-заменителя смартфона AI Pin начнутся в марте 2024 года

Компания Humane объявила в пятницу, что поставки её футуристического коммуникатора AI Pin начнутся в марте 2024 года. Покупатели, оформившие предзаказ на устройство, получат его первыми — заказы будут поставляться в порядке очереди по дате оформления.

 Источник изображений: Humane

Источник изображений: Humane

«Мы рады объявить, что поставки AI Pin начнутся в марте 2024 года. Всем в Humane не терпится узнать, что вы думаете о нашей разработке — первом в мире носимом компьютере на базе ИИ», — написала команда Humane на своей странице в социальной сети X.

Анонс устройства AI Pin состоялся в прошлом месяце. Одной из его ключевых особенностей является поддержка различных ИИ-сервисов, которые могут предоставлять ответы пользователям. AI Pin работает на базе процессора Snapdragon (какого именно — неизвестно). Владелец взаимодействует с устройством посредством комбинации голосового управления, камеры, жестов и небольшого встроенного проектора. Сам гаджет весит около 34 граммов с обычной батареей. Для него также предлагается усиленная батарея, которая добавит ещё 20 граммов к весу устройству. Встроенная в AI Pin камера имеет 13-мегапиксельный сенсор и будет способна записывать видео после обновления прошивки устройства.

Анонс новинки не обошёлся без казусов. В рамках демонстрации на некоторые вопросы пользователя гаджет посредством ИИ-сервиса ответил неправильно. Произошедшее в очередной раз подтвердило, что ИИ-помощники не всегда надёжны: при ответах они не ссылаются на источники и иногда дезинформируют пользователей.

AI Pin весьма недешёвый гаджет. Его стоимость составляет $699. Ещё $24 придётся платить за ежемесячную подписку, в которую входит сотовая связь и доступ к ИИ-платформе.

Intel выпустит ИИ-ускоритель Gaudi2C для Китая с урезанной производительностью

Команда разработчиков программного обеспечения Intel добавила в драйверы для операционной системы Linux с открытым исходным кодом поддержку ещё не анонсированного официально ускорителя для задач искусственного интеллекта Habana Gaudi2C, пишет Phoronix.

 Источник изображения: Intel

Источник изображения: Intel

Документально подтверждённой информации о загадочном ИИ-ускорителе Gaudi2C, который, судя по всему, имеет отношение к выпускающемуся Intel ускорителю вычислений Gaudi2, практически нет.

 Источник изображения: Phoronix

Источник изображения: Phoronix

К сожалению, сам драйвер для Linux не объясняет, что собой представляет Gaudi2C. Из имеющихся данных, обнаруженных в обновлении для Linux 6.8, известно, что новая версия ускорителя отличается маркировкой PCI ID «3».

Ходят слухи, что Gaudi2C может являться специальной версией ИИ-ускорителя Gaudi2C, адаптированной для удовлетворения конкретных требований китайского рынка, аналогично версии Gaudi2B (HL-225B), выпущенной в июле этого года и обладающей меньшим количеством вычислительных блоков и ограничениями по интерконнекту. Возможно, это некая урезанная версия Gaudi2, не подпадающая под рестрикции новых экспортных ограничений США.

Робот с ИИ очень быстро научился проводить шарик через лабиринт — и даже нашёл способ жульничать

Компьютеры уже победили людей в покере, го и шахматах. Теперь они принялись осваивать физические навыки, стремясь опередить человека в играх, где требуются хорошая реакция, интуиция, ловкость и координация. Исследователи из ETH Zurich создали робота CyberRunner, который, по их словам, превзошёл людей в популярной игре «Лабиринт». Он провёл небольшой металлический шарик через лабиринт, наклоняя его и избегая ловушек, причём освоил игрушку всего за шесть часов.

 Источник изображений: ETH Zurich

Источник изображений: ETH Zurich

CyberRunner стал одним из первых случаев, когда ИИ победил человека в непосредственном физическом соревновании, рассказали учёные Рафаэлло Д’Андреа (Raffaello D’Andrea) и Томас Би (Thomas Bi). Во время эксперимента робот использовал две ручки для управления игровой поверхностью, что требовало мелкой моторики и пространственного мышления. Сама игра предъявляет высокие требования к стратегическому планированию в реальном времени, быстроте принятия решений и точности действий.

Результаты эксперимента опубликованы во вторник в научной статье. Робот был построен на основе последних достижений в области, называемой машинным обучением с подкреплением, в процессе которого ИИ учится вести себя в динамической среде методом проб и ошибок. CyberRunner во время обучения обнаружил удивительные способы «обмануть» игру, пропуская части лабиринта, так что исследователям пришлось вмешаться и потребовать соблюдать правила.

Промышленные роботы десятилетиями выполняли повторяющиеся и точные производственные задачи, но корректировки на ходу, подобные тем, что продемонстрировал CyberRunner, — это новый уровень, уверены исследователи. Система может анализировать, учиться и саморазвиваться, выполняя физические задачи, которые раньше считались достижимыми только с помощью человеческого интеллекта.

«Мы размещаем нашу работу на платформе с открытым исходным кодом, чтобы показать, что это возможно, делимся подробностями о том, как это делается, и как удешевить разработку, — рассказал Д'Андреа. — Скоро появятся тысячи таких систем искусственного интеллекта, которые будут проводить совместные эксперименты, общаться и обмениваться передовым опытом».

Проект с открытым исходным кодом теперь доступен на сайте исследователей. За 200 долларов разработчики готовы помочь пользователям координировать масштабные эксперименты с помощью платформы CyberRunner. «Это не сделанная на заказ платформа, которая стоит больших денег, — подчёркнул Д’Андреа. — Самое интересное то, что мы делаем это на платформе, которая открыта для всех и практически ничего не стоит для дальнейшего продвижения работы».

Любопытно отметить, что Рафаэлло Д’Андреа далеко не новичок в роботостроении и машинном обучении — ранее он основал стартап Kiva Systems, который был приобретён компанией Amazon Robotics. Одна из его прежних разработок — «Танцующий склад» — представлена на видео ниже.

Китайская Moore Threads представила ИИ-ускоритель MTT S4000 — он до 15 раз медленнее NVIDIA H100

Китайская компания Moore Threads представила специализированный ускоритель вычислений MTT S4000 на фирменном GPU, который обеспечивает производительность на уровне 200 TOPS (триллионов операций в секунду) в операциях, связанных с искусственным интеллектом и большими языковыми моделями.

 Источник изображений: Moore Threads

Источник изображений: Moore Threads

В основе MTT S4000 используется графический процессор на основе архитектуры MUSA третьего поколения. Подробностей о самом GPU компания не сообщила. Ускоритель выполнен в формате карты расширения PCIe и оснащён 48 Гбайт памяти GDDR6 со скоростью 16 Гбит/с на контакт и общей пропускной способностью на уровне 768 Гбайт/с. Для MTT S4000 заявляется поддержка интерфейса MTLink 1.0, позволяющего объединять несколько подобных ускорителей в одной системе. Новинка обладает интерфейсом PCIe 5.0. Moore Threads — единственная компания на рынке, оснащающая свои видеокарты интерфейсом PCIe 5.0.

Компания заявляет, что MTT S4000 обеспечивает производительность 25 Тфлопс в операциях FP32, 50 Тфлопс в операциях TF32, 100 Тфлопс в операциях FP16/BF16 и 200 TOPS в операциях INT8. Это в пять раз больше, чем обеспечивают новейшие процессоры AMD Ryzen 8040 и Intel Core Ultra, оснащённые специализированными нейродвижками (NPU), предназначенными для различных ИИ-задач. Однако до флагманских ИИ-ускорителей NVIDIA и AMD ему далеко. PCIe-версия NVIDIA H100 обеспечивает до 51 Тфлопс в операциях FP32, до 756 Тфлопс в вычислениях TF32, 1513 Тфлопс при работе с FP16/BF16 и до 3026 TOPS в INT8.

Примечательной особенностью специализированного ИИ-ускорителя MTT S4000 является его оснащение четырьмя внешними видеоразъёмами. Обычно решения такого уровня подобных интерфейсов не имеют. К MTT S4000 можно подключать дисплеи с поддержкой разрешения до 8K. Ускоритель поддерживает до 96 видеопотоков в разрешении 1080p, а также работает с новейшими инструментами разработки USIFY, которые могут в полной мере использовать программное обеспечение NVIDIA на базе CUDA.

Moore Threads на презентации отметила, что MTT S4000 будут предлагаться в том числе в составе серверных вычислительных систем KUAE, аналогичных DGX-системам NVIDIA. В составе одного сервера KUAE MCCX D800 содержится восемь ускорителей MTT S4000. Платформа предлагает дальнейшую масштабируемость, позволяя объединять несколько таких серверов в единые кластеры. Ускорители Moore Threads MTT S4000 и системы KUAE на их основе поддерживают все современные большие языковые модели (LLM), включая Llama, GLM, Aquila, Baichuan, GPT, Bloom, Yuyan, и способны справляться с LLM, имеющими до 130 млрд различных параметров.

О стоимости MTT S4000 производитель ничего не сообщил. Известно, что первая партия из тысячи таких ускорителей будет использоваться для создания первого в Китае крупномасштабного вычислительного кластера для задач, связанных с ИИ.

AMD опровергла опровержение NVIDIA — ИИ-ускоритель MI300X на 30 % быстрее NVIDIA H100, даже с оптимизациями

Компания AMD ответила на недавнее заявление NVIDIA о том, что ускорители вычислений NVIDIA H100, при использовании оптимизированных библиотек TensorRT-LLM для ИИ-расчётов, быстрее справляются с поставленными задачами, чем новые ускорители AMD Instinct MI300X. По мнению AMD, её ускорители всё равно выигрывают.

 Источник изображения: Wccftech

Источник изображения: Wccftech

Двумя днями ранее компания NVIDIA опубликовала свои результаты тестов специализированных ускорителей вычислений Hopper H100 и заявила, что они значительно быстрее новейших ИИ-ускорителей AMD MI300X, которые были представлены на мероприятии Advancing AI на прошлой неделе. По словам NVIDIA, AMD при сравнении своих MI300X с H100 не использовала для последних специальные оптимизированные программные библиотеки TensorRT-LLM, которые повышают эффективность ИИ-чипов NIVDIA.

NVIDIA опубликовала данные своих тестов с использованием библиотек TensorRT-LLM, которые показали практически 50-процентное преимущество над ускорителями AMD MI300X. AMD решила ответить на это заявление, показав на новых графиках, как MI300X по-прежнему оказывается быстрее ускорителей H100, даже если последние используют оптимизированный под них стек программного обеспечения. По словам AMD, свои данные NVIDIA приводит:

  • на основе тестов H100 с библиотеками TensorRT-LLM вместо библиотек vLLM, которые использовались для тестов ускорителей AMD;
  • сравнивает производительность ускорителей AMD Instinct MI300X в вычислениях на числах FP16, а для тестов своих H100 использует данные типа FP8;
  • в графиках инвертировала данные AMD об относительной задержке в показатель абсолютной пропускной способности.

Согласно новым тестам AMD, её ускорители MI300X, работающие с библиотеками vLLM, на 30 % производительнее ускорителей NVIDIA H100, даже если последние работают с библиотеками TensorRT-LLM. Ниже показан новый график результатов тестов ускорителей H100 и MI300X, предоставленный AMD.

 Источник изображения: Wccftech / AMD

Источник изображения: Wccftech / AMD

Ниже приведено заявление AMD.

  • «Тесты MI300X и H100 с библиотеками vLLM
  • В рамках нашего анонса MI300X в начале декабря, мы сообщили, что наше решение в 1,4 раза производительнее H100 в условиях эквивалентных типов данных и программного обеспечения для расчётов. С нашими последними оптимизациями производительность MI300X оказалась в 2,1 раза выше, чем у конкурента;
  • Мы выбрали vLLM, основываясь на их широком распространении среди пользователей и разработчиков, а также с тем учётом, что эта программная среда поддерживается графическими процессорами AMD и NVIDIA.
  • MI300X с vLLM против H100 с оптимизированными библиотеками TensorRT-LLM
  • Сравнение H100 с оптимизированным ПО TensorRT-LLM с MI300X с vLLM показывает, что MI300X с vLLM обеспечивает в 1,3 более высокую производительность в операциях FP16.
  • Замеры задержки для MI300X с данными типа FP16 против H100 с TensorRT-LLM и типом данных FP8
  • Ускорители MI300X продолжают демонстрировать преимущество в производительности при измерении показателя абсолютной задержки, даже в том случае, когда H100 с TensorRT-LLM работает с типами данных FP8 и сравнение приводится с MI300X, которые работают с более точными типами данных FP16. Мы (AMD) используем FP16 из-за их популярности, кроме того, vLLM не поддерживают операции FP8.
  • Новые результаты снова показывают, что MI300X в работе данными FP16 сравнимы по производительности с H100, для которых используются рекомендованные настройки NVIDIA, учитывающие типы данных FP8 и программную среду TensorRT-LLM».

Публичный спор между AMD и NVIDIA в очередной раз демонстрирует, что в сегменте ИИ-вычислений наблюдается очень высокая конкуренция между производителями аппаратного обеспечения, которые готовы бороться за каждого клиента.

NVIDIA развенчала миф от AMD: ИИ-ускорители H100 в реальных задачах в разы быстрее Instinct MI300X

Компания NVIDIA опубликовала свежие данные о производительности своих ИИ-ускорителей H100, сравнив их с недавно представленными ускорителями Instinct MI300X от компании AMD. Этим сравнением NVIDIA решила показать, что на самом деле H100 обеспечивают более высокую производительность по сравнению с конкурентом, если использовать правильную программную среду для ИИ-вычислений. Компания AMD этого не учла в своём сравнении ускорителей, посчитали в NVIDIA.

 Источник изображения: Wccftech

Источник изображения: Wccftech

Во время презентации Advancing AI компания AMD официально представила специализированные ускорители вычислений для ИИ Instinct MI300X и сравнила их в различных бенчмарках и тестах с ускорителями H100 от NVIDIA. В частности, AMD заявила, что один ускоритель MI300X обеспечивает на 20 % более высокую производительность по сравнению с одним ускорителем H100, а сервер из восьми MI300X до 60 % быстрее сервера из восьми H100. NVIDIA опубликовала заметку на своём сайте, в которой утверждает, что эти заявления далеки от правды.

Ускорители вычислений NVIDIA H100 были выпущены в 2022 году и с тех пор получили различные улучшения на уровне программного обеспечения. Например, наиболее свежие улучшения, связанные с программной средой для ИИ-вычислений TensorRT-LLM позволили ещё больше повысить производительность H100 в рабочих нагрузках, специфичных для искусственного интеллекта, а также провести оптимизацию на уровне ядра. Всё это, по словам NVIDIA, позволяет чипам H100 эффективнее работать с такими большими языковыми моделями, как Llama 2 с 70 млрд параметров с использованием операций FP8.

Сама AMD в своей презентации утверждала, что Instinct MI300X до 20 % быстрее H100 в Llama 2 70B, а также система из восьми ускорителей AMD обеспечивает превосходство по задержке на 40 % по сравнению с системой на восьми NVIDIA H100 в той же нейросети. Превосходство в операциях FP8 и FP16 составляет 30 % в пользу MI300X.

AMD проводила тесты своих ускорителей MI300X с использованием оптимизированных библиотек программной среды вычислений ROCm 6.0. Однако для NVIDIA H100 использовались данные без учёта применения оптимизированной программной среды TensorRT-LLM, предназначенной для этих задач. В свежей статье NVIDIA привела актуальные данные производительности одного DGX-сервера из восьми H100 в модели Llama 2 70B с учётом обработки одного программного пакета (Batch-1).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

NVIDIA поясняет, что выводы AMD (серым и красным на графике выше) о превосходстве над H100 основаны на данных, представленных в сноске #MI300-38 к презентации AMD. Для их получения использовалась система NVIDIA DGX H100, фреймворк vLLM v.02.2.2 и модель Llama 2 70B с длиной входной последовательности 2048 и длиной выходной последовательности 128. NVIDIA отмечает, что в AMD сравнили систему из восьми MI300X с системой DGX H100 из восьми H100.

В свою очередь данные NVIDIA показаны на графике зелёным. Для их получения применена система DGX H100 из восьми NVIDIA H100 с 80 Гбайт памяти HBM3 в каждом, а также находящийся в открытом доступе фреймворк NVIDIA TensorRT-LLM v0.5.0 для расчёта Batch-1 и версии v0.6.1 для расчёта задержки. Рабочая нагрузка такая же, как указано в сноске AMD #MI300-38.

Приведённые NVIDIA результаты показывают, что сервер DGX H100 вдвое быстрее при использовании оптимизированных фреймворков, чем заявляет AMD. Кроме того, сервер с восемью H100 до 47 % быстрее системы с восемью AMD MI300X.

«Система DGX H100 способна обработать один инференс-запрос размером в один пакет (Batch-1) или иными словами, один запрос вывода за раз, за 1,7 секунды. Запрос уровня Batch-1 обеспечивает максимально быстрый показатель времени отклика для обработки модели. Для оптимизации времени отклика и пропускной способности ЦОД облачные сервисы устанавливают фиксированное время ответа для конкретной задачи. Это позволяет операторам ЦОД объединять несколько запросов на вывод в более крупные “пакеты” и увеличивать общее количество выводов сервера в секунду. Стандартные отраслевые тесты вроде MLPerf также измеряют производительность с помощью этого фиксированного показателя времени отклика», — продолжает NVIDIA.

В NVIDIA поясняют, что небольшие компромиссы в вопросе времени отклика системы могут привести к увеличению количества запросов на вывод, которые сервер может обработать в реальном времени. Используя фиксированный бюджет времени отклика в 2,5 секунды, сервер DGX H100 с восемью графическими процессорами может обработать более пяти инференс-запросов Llama 2 70B за раз.

Amazon представила свой ИИ-генератор изображений Titan Image Generator

На конференции AWS re:Invent компания Amazon представила собственный ИИ-генератор изображений Titan Image Generator на платформе Bedrock. Он предназначен для создания изображений на основе текстовых запросов, а также предлагает поддержку различных дополнительных функций редактирования уже готовых изображений.

 Источник изображения: Amazon

Источник изображения: Amazon

По словам Amazon, инструмент способен генерировать «огромные объёмы реалистичных изображения студийного качества при низкой цене». Компания заявляет, что Titan Image Generator способен создавать изображения на основе сложных текстовых подсказок, одновременно обеспечивая при этом точность композиции генерируемых объектов на изображении с минимальными искажениями. По мнению разработчиков Amazon, это поможет «сократить объёмы создания вредного контента и смягчить распространение дезинформации».

Функции Titan Image Generator также позволяют редактировать отдельные элементы на изображении, удаляя или добавляя дополнительные детали. Например, инструмент позволяет заменить задний фон на изображении, а также заменить или удалить предмет, который может находиться в руках человека, изображенного в кадре. Использующиеся в составе Titan Image Generator ИИ-алгоритмы также могут расширять композицию изображения, добавляя дополнительные искусственные детали, аналогично функции Generative Expand в Photoshop.

В компании отмечают, что их ИИ-генератор изображений Titan накладывает на каждое созданное им изображение невидимый невооружённому глазу специальный водяной знак. По мнению компании, эта функция поможет «уменьшить распространение дезинформации, предоставив незаметный механизм для идентификации изображений, созданных ИИ, а также будет способствовать безопасному, надежному и прозрачному развитию технологий искусственного интеллекта». Amazon заявляет, что эти водяные знаки невозможно удалить или изменить.

Согласно опубликованному видео с демонстрацией работы Titan Image Generator, инструмент также может создавать описания изображений или релевантный текст для последующего использования в публикации в социальных сетях.

Amazon представила ИИ-чат-бот Amazon Q — он поможет миллионам людей в повседневных рабочих задачах

У OpenAI есть ChatGPT. У Google есть ИИ-чат-бот Bard. У Microsoft есть различные версии ИИ-помощников Copilot, предназначенные для разных задач. Компания Amazon во вторник наконец-то анонсировала своего ИИ-помощника — Amazon Q. Он разработан подразделением облачных вычислений Amazon и предназначен не для обычных потребителей, а для корпоративных пользователей.

 Источник изображения: Associated Press

Источник изображения: Associated Press

Среди функций Amazon Q отмечаются возможность кратко формулировать содержание важных документов, заполнение заявок для внутренней поддержки компаний, ответы на вопросы о политике компании, помощь в редактировании и т.д. Он будет конкурировать с другими корпоративными чат-ботами включая Copilot, Google Duet AI и ChatGPT Enterprise.

В интервью изданию The New York Times исполнительный директор Amazon Web Services Адам Селипски (Adam Selipsky, на фото выше) выразил надежду, что Amazon Q имеет все шансы стать важным помощником для миллионов людей в их повседневных рабочих задачах.

За минувший год с момента выпуска ChatGPT компанией OpenAI многие другие ведущие технологические гиганты, включая Google и Microsoft, успели поддаться всеобщему буму ИИ и выпустить свои варианты чат-ботов, на основе технологий больших языковых моделей, вложив в эти разработки миллиарды долларов. Компания Amazon в свою очередь лишь недавно начала говорить о своём интересе к подобным технологиям, а также планах развития в этом направлении. Например, в сентябре Amazon сообщила, что инвестирует до $4 млрд в компанию Anthropic, конкурента OpenAI, и будет заниматься вместе с ней разработкой специализированных ИИ-процессоров. Также Amazon ранее представила сервис, который способен предоставлять доступ к разным ИИ-системам в рамках единой платформы.

Являясь одним из ведущих операторов облачных вычислений, компания Amazon имеет большую пользовательскую базу среди корпоративных клиентов, которые хранят огромные объёмы информации на её облачных серверах. По словам Селипски, её клиенты заинтересованы в использовании чат-ботов на рабочих местах, но они хотят быть уверены в том, что ИИ-помощники будут обладать достаточным уровнем защиты от утечек корпоративных данных. «Многие компании в разговоре со мной отметили, что они запретили своим сотрудникам использовать ИИ-чат-боты из соображений безопасности и конфиденциальности», — заявил Селипски.

 Источник изображения: AWS

Источник изображения: AWS

Ответом Amazon стала разработка Amazon Q — корпоративного чат-бота с повышенной защитой конфиденциальных данных по сравнению с потребительскими чат-ботами. Например, для Amazon Q можно выставить те же разрешения безопасности, которые бизнес-клиенты облачного сервиса Amazon уже настроили для своих пользователей. Если в компании сотрудник отдела маркетинга не имеет доступа к конфиденциальным финансовым прогнозам, Amazon Q может имитировать эти прогнозы, без предоставления официальных финансовых данных. Кроме того, компании, использующие Amazon Q, также могут устанавливать разрешения на использование своих корпоративных данных чат-ботом, не находящихся на серверах Amazon, например, через подключение Slack и Gmail.

В отличие от ChatGPT и Bard, Amazon Q не основан на какой-то конкретной языковой модели искусственного интеллекта. Вместо этого он использует платформу Amazon Bedrock, которая объединяет несколько систем искусственного интеллекта, включая собственный Titan от Amazon, а также модели ИИ, разработанные Anthropic и Meta.

Цены на Amazon Q начинаются с 20 долларов США за одного пользователя сервиса в месяц. Для сравнения, Microsoft и Google взимают 30 долларов в месяц за каждого пользователя своих корпоративных чат-ботов, которые могут работать с электронной почтой и предлагают другие функции, повышающие общую производительность сотрудников на рабочих местах.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Вместе с анонсом Amazon Q компания сообщила о планах расширения своей облачной инфраструктуры, связанной с технологиями ИИ. В частности, Amazon заявила о продлении сотрудничества с компанией NVIDIA и анонсировала разработку ИИ-серверов на основе новых специализированных графических процессоров, в которых используется Arm-архитектура.

МТС начала тестировать «Рой 9» — машинное обучение силами устройств пользователей

Одна из входящих в МТС структур запустила проект «Рой 9», который предполагает развитие и обучение моделей искусственного интеллекта на сторонних устройствах. Данную инициативу можно сравнить с добычей криптовалют в пулах, когда устройства разных клиентов объединяют вычислительные мощности для общей цели. Только здесь вместо криптовалюты на выходе будет натренированная нейросеть. В компании сообщили, что широкий запуск проекта пока не планируется, и сейчас это всего лишь проверка гипотез, сообщает «Коммерсант».

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Работой над проектом занимается принадлежащее оператору ООО «Серенити Сайбер Секьюрити», которое 1 ноября зарегистрировало доменное имя roy9.ru. «Рой 9» предлагает пользователям предоставлять свои компьютеры и мобильные устройства для обучения моделей машинного обучения — в настоящий момент на платформе обучаются четыре нейросети. «Новые модели AI помогут людям в новых открытиях, вы можете стать частью этого движения. Кроме того, помогая в обучении моделей, вы делаете мир интереснее», — говорится в описании сохранённой изданием страницы.

Представитель МТС заявил, что сайт был запущен исключительно для проверки гипотез в области ИИ и машинного обучения — он предназначался только для внутренних нужд, и никаких связанных с ним общедоступных проектов не планировалось. Тестированием занимается центр инноваций МТС Future Crew, и к настоящему моменту сайт закрыт.

Крупные российские игроки уже запускали службы для развития систем машинного обучения: к примеру, в инфраструктуре VK Cloud Solutions действует сервис для тестирования гипотез, работы с данными и других целей; у «Яндекса» есть сервис для разработки и тестирования алгоритмов машинного обучения DataSphere. А МТС весной прошлого года запустил систему CICADA 8, предназначенную для тестирования инфраструктуры компании на устойчивость.

В России наблюдается дефицит мощностей для обучения ИИ, и модель краудфандинга стала бы частичным решением вопроса, считает опрошенный «Коммерсантом» эксперт. В случае с МТС участвующие в проекте абоненты оператора могли бы получать, например, скидку на услуги связи или дополнительные пакеты трафика или минут.

Учёные создали искусственный мозг из клубка серебряных нанонитей

Учёные из США и Австралии создали нейроморфный процессор из множества серебряных нанонитей. Тысячи нанопроводков уложили друг на друга в случайном порядке, и весь этот хаос поместили на группу обычных входных и выходных контактов. Всё вместе превратилось в нейроморфную сеть, которую удалось научить распознавать рукописные цифры с невероятной точностью.

 Источник изображения: Zhu et al. / Nature Communications

Источник изображения: Zhu et al. / Nature Communications

В процессе подачи входных сигналов на пересечениях тысяч нитей возникли сотни тысяч контактов. В этих контактах стали протекать реакции электрохимической гальванизации и возникло что-то вроде памяти. Для обучения «мозга» учёные воспользовались базой MNIST, которая содержит множество вариантов рукописного написания цифр. Каждое прохождение входных данных сопровождалось множеством переходных процессов в клубке нанонитей. Скорее всего, исследователи даже не выясняли что, где и каким образом работает на результат.

После обучения система стала распознавать рукописные цифры с точностью 93,4 %, о чём рассказано в свежей статье в журнале Nature Communications. Такой искусственный мозг не обладает памятью для более сложной обработки результата. Он работает в режиме онлайн, передавая на выход распознанную информацию, что для ряда приложений будет достаточно. Преимущества решения очевидны — оно копеечное в отличие от ускорителей ИИ баснословной стоимости. То же самое касается потребления энергии для решения прикладной задачи. «Мозг» из нанонитей будет потреблять крайне мало.

Эта разработка Калтеха и Сиднейского университета пока ещё сырая, но потенциал её может быть огромным с учётом простоты изготовления и заявленных возможностей. Как минимум, можно распознавать старые капчи.

Meta✴ обучила ИИ-помощника на общедоступных публикациях в Facebook✴ и Instagram✴

Для обучения своего виртуального помощника Meta AI компания Meta воспользовалась общедоступными публикациями в Facebook и Instagram, но исключила из массива посты с ограниченным доступом, которые пользователи открывали только друзьям и членам семьи из уважения к конфиденциальности этих пользователей, рассказал представитель компании в интервью Reuters.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Meta также не стала использовать в качестве обучающих данных личную переписку и предприняла меры по исключению личной информации из массива, заявил президент Meta по международным вопросам Ник Клегг (Nick Clegg) в кулуарах мероприятия Connect. «Мы постарались исключить наборы данных, в которых преобладает личная информация», — заверил топ-менеджер и добавил, что «подавляющее большинство» данных, использованных Meta для обучения ИИ, было общедоступным. Из соображений конфиденциальности компания преднамеренно исключила платформу LinkedIn.

Попавшие в обучающий массив Meta AI общедоступные публикации в Facebook и Instagram включали как текст, так и фотографии, рассказал Клегг: первый использовался для обучения большой языковой модели Llama 2, а вторые — модели Emu, которая легла в основу генератора изображений. В Meta действуют ограничения, регламентирующие, что может генерировать ИИ-помощник: например, запрещено создавать фотореалистичные изображения общественных деятелей.

Компания также готова к многочисленным судебным разбирательствам, поскольку до сих пор нет единого мнения о том, подпадает ли обучение ИИ под действие доктрины о добросовестном использовании — она допускает ограниченное использование защищённых авторским правом произведений для публикации комментариев, исследовательских работ и пародий. В Meta предполагают, что подпадает, но не исключают судебных разбирательств по данному вопросу.

Чтобы избежать конфликтов такого характера, компания OpenAI минувшим летом подписала с Shutterstock шестилетнее соглашение на использование библиотек изображений, видео и музыки для обучения ИИ. Meta подошла к данному вопросу с другой стороны, запретив пользователям своих платформ создавать контент, нарушающий конфиденциальность и авторские права.

Строительство фабрики чипов Intel в Германии споткнулось о кадровый голод и дорогую электроэнергию

На строительство первой фазы своего производственного комплекса в немецком Магдебурге компания Intel отвела себе от четырёх до пяти лет, но существенные масштабы инвестиций (до 30 млрд евро) и длительные сроки ожидания должны быть компенсированы внедрением на этой площадке передовой литографии. Между тем, уже сейчас реализация проекта тормозится множеством проблем, специфичных для Европы и Германии.

 Источник изображения: Intel

Источник изображения: Intel

В частности, как отмечает The Wall Street Journal, поиск достаточного количества квалифицированных сотрудников для новых предприятий в Германии может представлять определённую проблему для Intel. Местные вузы в окрестностях Магдебурга, численность населения которого не превышает 240 000 человек, достаточно вяло участвуют в подготовке кадров для полупроводниковой промышленности. Компания Intel будет вынуждена отправлять проходящих трёхлетнюю программу обучения будущих сотрудников на предприятия в Ирландию, где они будут стажироваться на протяжении последнего года своей подготовки.

Первое предприятие строящегося комплекса первоначально планировалось ввести в эксплуатацию в 2027 году, но всего Intel потребуется около 3000 квалифицированных сотрудников, которые работали бы на нём на постоянной основе. Пока местные вузы начали готовить только 20 специалистов, собираясь позже увеличить численность группы десятикратно. Окрестные университеты задумались о необходимости привлечения квалифицированного преподавательского состава. Для стажировки обучаемых на месте потребовалось бы около 30 млн евро на строительство учебной лаборатории, но если Intel предоставит дополнительное финансирование на цели подготовки кадров, то размеры лаборатории могут быть увеличены с запасом.

После объединения двух частей Германии в 1990 году значительная часть промышленного потенциала Магдебурга была утрачена, и сейчас город по уровню своего развития уступает тем же Берлину и Мюнхену. Англоговорящих жителей здесь немного, а из действующих студентов только два человека получают образование, имеющее отношение к полупроводниковой сфере. В местной политической среде довольно сильны националистические настроения, и это может стать проблемой для Intel, поскольку компании придётся от 30 до 40 % штата будущего предприятия привлекать из-за пределов Германии.

Высокая стоимость энергоресурсов тоже усложняет экономику будущего предприятия. Производственные площадки подобного масштаба в других регионах планеты потребляют до 300 млн кВт·ч каждый квартал. Во второй половине прошлого года стоимость 1 кВт·ч в Германии достигала 19 центов, превышая уровень Франции и Польши на 40 %. Местные власти пытаются нивелировать озабоченность Intel этой проблемой, предлагая построить обособленную электростанцию, вырабатывающую энергию за счёт ветра, но пока в конкретные планы эта идея не превратилась. На уровне правительства также рассматривается возможность субсидирования стоимости электроэнергии для крупных промышленных предприятий, но некоторые экономисты выступают против таких мер. Тем более, что на строительство предприятий Intel уже будет выделено около 10 млрд евро.

Муниципальные власти Магдебурга убеждены, что инвестиции в инфраструктуру будут полезны всем местным жителям, а не только компании Intel. Попытка возродить промышленное производство в Германии в целом будет сопровождаться высокими расходами, но в долгосрочной перспективе должна себя оправдать, как считают местные чиновники.

OpenAI проведёт в ноябре первую конференцию для разработчиков — на ней покажут новые продукты

Компания OpenAI объявила о планах провести первую конференцию для разработчиков OpenAI DevDay. Однодневное мероприятие, запланированное на 6 ноября, соберёт в Сан-Франциско (Калифорния, США) разработчиков со всего мира. Они смогут принять участие в технических сессиях и демонстрациях новых продуктов.

 Источник изображения: Neowin

Источник изображения: Neowin

Посредством конференции OpenAI стремится укрепить свои отношения с сообществом разработчиков. Это играет ключевую роль в быстром внедрении технологий искусственного интеллекта.

«Однодневное мероприятие соберёт сотни разработчиков со всего мира вместе с командой OpenAI, чтобы изучить новые инструменты и обменяться новыми идеями. Участники конференции также смогут присоединиться к секционным заседаниям, которые будут проводиться техническими специалистами OpenAI. Мы с нетерпением ждём возможности показать наши последние решения, которые позволят разработчикам создавать новые продукты», — отметила компания.

Сегодня более двух миллионов разработчиков используют модели OpenAI, такие как GPT-4, GPT-3.5, Dall-E и Whisper, в своих приложениях и продуктах. На конференции OpenAI DevDay компания, вероятно, представит обновления диалогового агента ChatGPT, использующего языковые модели GPT-4 и GPT-3.5.

Хотя те же Google и Microsoft стремятся не отставать от конкурента и предлагают свои модели ИИ, OpenAI называет себя авангардом инноваций в области искусственного интеллекта. Недавно компания запустила корпоративную версию ChatGPT Enterprise с дополнительными функциями и средствами защиты конфиденциальности, которые недоступны в обычных версиях ChatGPT.

Подробную информацию о регистрации для участников конференции OpenAI предоставит позже. Компания также планирует транслировать основную часть DevDay в прямом эфире.

В платформе «VK Звонки» добавили автоматические субтитры и текстовую расшифровку созвонов

Социальная сеть «ВКонтакте» представила новые функции платформы «VK Звонки», которые будут полезны для тех, кто использует сервис для делового общения или в условиях, когда важно соблюдать тишину. Речь идёт о текстовой расшифровке встреч, которая автоматически переводит звуковую дорожку встречи в текст с сохранением в чате звонка, а также об автосубтитрах, которые дублируют речь участников чата.

 Источник изображения: «ВКонтакте»

Источник изображения: «ВКонтакте»

Функцию текстовой расшифровку может включить любой из участников группового звонка, при этом остальные собеседники получат об этом уведомление. После завершения общения файл с текстом поступит в чат звонка и будет сохранён в специальном разделе в профиле пользователя, включившего текстовую расшифровку. В файле автоматически расставляются тайм-коды и имена говорящих.

Что касается автоматических субтитров, то они будут показываться в реальном времени только у тех пользователей, которые включили эту опцию. Текстовая расшифровка может выполняться одновременно с субтитрами и записью звонка.

Для перевода речи в текст «ВКонтакте» использует собственные нейросетевые разработки, которые соцсеть применяет для расшифровки голосовых сообщений и создания автосубтитров в видео. Для обеспечения высокого качества расшифровки аудиопоток обрабатывается в несколько этапов. Сначала запись очищается от фоновых звуков с использованием интеллектуального шумоподавления, после чего нейросеть распознаёт слова, формируя текст, который потом делит на предложения в соответствии с конкретным спикером. Нейросети постоянно совершенствуются, проходя обучение, в том числе, на актуальной разговорной речи и сленге.

Новыми функциями можно также воспользоваться в сессионных залах и в звонках от имени сообщества. В настоящее время функции доступны только для русского языка, но в дальнейшем будут добавлены и другие языки. Также в ближайшее время планируется запуск новых функций в звонках один на один и возможность настройки администратором того, кто из участников встречи сможет запускать расшифровку.

Как отметила «ВКонтакте», новые функции будут особенно полезны тем, кто использует «VK Звонки» для делового общения, позволяя быстро расшифровать интервью, отправить ключевые тезисы после встречи или рассказать об итогах звонка коллегам, которые не были на встрече. Субтитры будут полезны в ситуации, когда важно соблюдать тишину и у пользователя не оказалось наушников. «Кроме того, это шаг к формированию доступной цифровой среды для слабослышащих пользователей: они смогут участвовать во встречах без ограничений», — подчеркнула пресс-служба соцсети.


window-new
Soft
Hard
Тренды 🔥
Еврокомиссия вынудила TikTok приостановить программу вознаграждения за просмотр видео в Lite-версии приложения 5 ч.
«Будьте уверены — мы никуда не денемся», — TikTok прокомментировал закон о своём запрете в США 9 ч.
Apple представила малые языковые модели OpenELM, которые работают локально на смартфонах и ноутбуках 9 ч.
NVIDIA приобрела за $700 млн платформу оркестрации ИИ-нагрузок Run:ai 9 ч.
В ранний доступ Steam ворвался стильный кооперативный роглайк Rotwood от создателей Don’t Starve 10 ч.
Британские антимонопольщики заинтересовались инвестициями Microsoft и Amazon в ИИ-стартапы 10 ч.
NetEase раскрыла, когда начнётся закрытая «альфа» командного шутера Marvel Rivals в духе Overwatch 10 ч.
Не помешал бы Dark Souls: ведущий разработчик No Rest for the Wicked встал на защиту раннего доступа 11 ч.
Байден подписал закон о запрете TikTok в США, если ByteDance его не продаст 12 ч.
Вышла новая версия системы резервного копирования «Кибер Бэкап Облачный» с расширенной поддержкой Linux-платформ 13 ч.