Сегодня 28 февраля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный
Быстрый переход

В ответ на обвинения в воровстве контента OpenAI обвинила New York Times во взломе ChatGPT

OpenAI заявила в суде, что New York Times (NYT) «заплатила кому-то за взлом продуктов OpenAI», таких как ChatGPT, чтобы получить доказательства для подачи иска против OpenAI о нарушении авторских прав. OpenAI считает, что более ста примеров, в которых модель GPT-4 генерирует контент Times в качестве выходных данных не отражают обычного использования ChatGPT, а представляют собой «надуманные атаки наёмника», который добивался от чат-бота генерации фальшивого контента NYT.

 Источник изображения: pexels.com

Источник изображения: pexels.com

OpenAI обвинила NYT в «десятках тысяч попыток» получить эти «крайне аномальные результаты», «выявив и воспользовавшись ошибкой», которую сама OpenAI «стремится устранить». NYT якобы организовала эти атаки, чтобы собрать доказательства в поддержку утверждения, что продукты OpenAI ставят под угрозу журналистику, копируя авторские материалы и репортажи и тем самым отбирая аудиторию у NYT.

«Вопреки утверждениям [содержащимся в жалобе NYT], ChatGPT никоим образом не заменяет подписку на The New York Times, — заявила OpenAI в ходатайстве, направленном на отклонение большинства претензий NYT. — В реальном мире люди не используют ChatGPT или любой другой продукт OpenAI для этой цели. И не могут. В обычном мире невозможно использовать ChatGPT для предоставления статей Times по своему желанию».

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

OpenAI отметила, что примеры в иске NYT цитируют не текущие материалы, которые подписчики Times могут прочитать на сайте Times, а гораздо более старые статьи, опубликованные до 2022 года. Это дополнительно ослабляет заявление NYT о том, что ChatGPT можно рассматривать как замену изданию.

«То, что OpenAI ошибочно называет "хакерством", — это просто использование продуктов OpenAI для поиска доказательств воровства и воспроизведения материалов NYT, защищённых авторским правом. И это именно то, что мы нашли. На самом деле масштаб копирования OpenAI гораздо больше, чем сто примеров, изложенных в жалобе», — парировали адвокаты NYT.

Юристы NYT сделали акцент на том, что OpenAI «не оспаривает и не может оспорить того, что они скопировали миллионы работ для создания и поддержки своих коммерческих продуктов без нашего разрешения». Позиция издания заключается в том, что создание новых продуктов не является оправданием для нарушения закона об авторском праве, и это именно то, что OpenAI сделала в беспрецедентных масштабах.

OpenAI заявила, что NYT в течение многих лет с энтузиазмом разрабатывала собственных чат-ботов, не опасаясь нарушения ими авторских прав. OpenAI сообщала об использовании статей NYT для обучения своих моделей ИИ ещё в 2020 году, но NYT обеспокоилась только после резко возросшей популярности ChatGPT в 2023 году. После этого NYT обвинила OpenAI в нарушении авторских прав и потребовала «коммерческих условий», а после нескольких месяцев обсуждений подала многомиллиардный иск.

OpenAI убеждает суд, что ему следует отклонить иски, направленные на защиту прямого авторского права в цифровую эпоху и игнорировать обвинения в незаконном присвоении, которые компания называет «юридически недействительными». У некоторых жалоб истёк срок давности, другие, по утверждению OpenAI, неправильно трактуют добросовестное использование или искажают требования федеральных законов.

Если это ходатайство OpenAI будет удовлетворено, в иске NYT останутся только претензии о косвенном нарушении авторских прав и размывании товарного знака. Но если NYT победит в суде (а вероятность этого не так уж мала), OpenAI, возможно, придётся буквально «стереть» ChatGPT и заново начать обучение моделей.

OpenAI утверждает, что NYT использовала вводящие в заблуждение подсказки, чтобы вынудить ChatGPT раскрыть обучающие данные. The Times якобы просила у чат-бота предоставить вступительный абзац конкретной статьи, а затем запрашивала «следующее предложение». Но даже эта тактика не поможет воссоздать статью целиком, а скорее выведет набор «разрозненных и неупорядоченных цитат». OpenAI считает, что NYT намеренно вводит суд в заблуждение, используя купюры и многоточие, чтобы скрыть порядок, в котором ChatGPT выдавал фрагменты репортажей, что создаёт ложное впечатление, что ChatGPT выводит последовательные и непрерывные копии статей.

OpenAI также отвергла примеры галлюцинаций ИИ предоставленных NYT, где модели ИИ изобретали на первый взгляд реалистичные статьи, которые содержали неверные факты и никогда не публиковались изданием. Поскольку ни одна из ссылок в этих фиктивных статьях не работала, OpenAI считает, что «любой пользователь, получивший такие выходные данные, сразу же распознает в них галлюцинацию».

OpenAI планирует исправить ошибки ИИ, но это будет возможно сделать только в случае победы в суде. OpenAI необходимо убедить суды во многих юрисдикциях в своей теории добросовестного использования текстов, защищённых авторским правом, что имеет решающее значение для развития её моделей ИИ. «Постоянная задача разработки ИИ — свести к минимуму и в конечном итоге устранить галлюцинации, в том числе за счёт использования более полных наборов обучающих данных для улучшения точности моделей», — заявили в OpenAI.

Адвокаты NYT полагают, что для OpenAI «незаконное копирование и дезинформация являются основными особенностями их продуктов, а не результатом маргинального поведения». По их словам, OpenAI «отслеживает запросы и результаты пользователей, что особенно удивительно, учитывая, что они утверждали, что не делают этого. Мы с нетерпением ждём возможности изучить эту проблему».

Разработчики больших языковых моделей всё чаще прибегают к лицензированию вместо обучения на общедоступных данных, чтобы избежать возможных обвинений в нарушении авторских прав. «Разработка технологий в соответствии с установленными законами об авторском праве является общеотраслевым приоритетом, — считает ведущий советник NYT Ян Кросби (Ian Crosby). — Решение OpenAI и других разработчиков генеративного ИИ заключать сделки с издателями новостей только подтверждает, что они знают, что их несанкционированное использование работ, защищённых авторским правом, далеко не справедливо».

Специалисты из автомобильной команды Apple займутся будущими ОС, ИИ-приложениями и развитием Vision Pro

Как только речь заходит об интенсивной конкуренции, рынок электромобилей перестаёт быть для производителей привлекательным с точки зрения нормы прибыли. Создание электромобиля с нуля требует колоссальных затрат, и опрошенные Bloomberg эксперты сходятся во мнении, что принятое Apple решение отказаться от такой инициативы освободит больше ресурсов для развития систем искусственного интеллекта и разработки устройств дополненной реальности.

 Источник изображения: Apple

Источник изображения: Apple

По меньшей мере, в сегменте таких устройств первый шаг уже сделан — в этом году на рынок вышла гарнитура дополненной реальности Vision Pro. В сфере технологий искусственного интеллекта, как принято считать, Apple начинает отставать от конкурентов, а потому для навёрстывания упущенного ей определённо потребуются ресурсы, которые как раз можно высвободить за счёт отказа от разработки электромобиля или технологий автопилота для него.

Как отмечает Bloomberg, судьбоносное для Apple решение свернуть разработку электромобиля было предано огласке перед коллективом численностью около 2000 человек в ходе 15-минутного собрания. Интересы руководства на мероприятии представляли операционный директор Apple Джефф Уилльямс (Jeff Williams) и руководитель проекта Titan Кевин Линч (Kevin Lynch). С одной стороны, Apple лишает себя возможного источника выручки в будущем, но с другой — обеспечивает себя дополнительными ресурсами для поиска других таких источников, которыми могут стать технологии искусственного интеллекта и дополненной реальности.

На конференции WWDC для разработчиков в июне Apple планирует представить новые функции фирменного программного обеспечения, которые будут опираться на технологии искусственного интеллекта. Операционная система iOS 18, которая дебютирует ориентировочно в сентябре, должна предложить соответствующие функциональные возможности. Примерно треть специалистов Apple, которые в последние годы пытались разработать электромобиль этой марки, смогут посвятить себя другой деятельности в штате компании.

В относительно удачной ситуации оказались специалисты, которые в рамках проекта Titan были связаны с разработкой программного обеспечения, поскольку они смогут найти применение своим компетенциям в других подразделениях Apple. Например, они будут трудиться над операционными системами и различными приложениями. Специалисты по искусственному интеллекту, которым предстояло создавать автопилот для машины, переключатся на системы машинного обучения другого профиля. Часть сотрудников Apple после закрытия проекта Titan смогут даже принять участие в создании технологий для гарнитуры дополненной реальности Vision Pro.

Если же речь идёт о специалистах узкой направленности, которые были связаны с сугубо автомобильной тематикой, то некоторой части из них наверняка придётся искать новую работу за пределами компании. Некоторые из сотрудников Apple даже получили соответствующие уведомления.

Искусственный интеллект в ближайшие годы не сможет стать для Apple источником серьёзной выручки. Компания ещё долго будет полагаться преимущественно на реализацию аппаратного обеспечения при попытках заработать деньги. Тот же iPhone приносит компании более 58 % всей выручки на данный момент. Устройства дополненной реальности пока не могут претендовать даже на малую долю от этой выручки, поэтому Apple придётся запастись терпением в ожидании финансовой отдачи от этих инициатив в своём развитии.

К концу 2025 года Intel готова оснастить своими процессорами с ИИ до 100 млн ПК

Корпорация Intel не перестаёт тешить себя надеждами, что интерес пользователей ПК к теме искусственного интеллекта позволит ей в ближайшие два года увеличить поставки своих процессоров, оснащённых блоками аппаратного ускорения работы систем ИИ. В этом году Intel рассчитывает поставить процессоров для 40 млн таких ПК, а в следующем — ещё 60 млн штук.

 Источник изображения: Intel

Источник изображения: Intel

Таким образом, если прогнозы Intel сбудутся, то по итогам следующего года более 20 % поставленных на рынок центральных процессоров для ПК будут обладать возможностью локального ускорения работы систем искусственного интеллекта, и это без учёта поставок продукции конкурентов, коими можно считать не только AMD, но и Apple, а также Qualcomm. Подобными прогнозами на этой неделе поделился вице-президент Intel Дэвид Фэн (David Feng), отвечающий в компании за направление клиентских вычислений, по данным Nikkei Asian Review.

Представитель Intel подчеркнул, что в эпоху компьютеров с функциями ИИ важно не только поставлять сами процессоры с достойным уровнем быстродействия, но и обеспечивать пропорциональное развитие программной экосистемы за счёт непрерывного взаимодействия с разработчиками. «Сейчас продажа пользователям впечатлений является частью нашего бизнеса», — пояснил Дэвид Фэн. По его словам, сейчас Intel плотно взаимодействует с Microsoft, чтобы добиться эффективной поддержки процессоров Intel Core Ultra со встроенным нейронным сопроцессором (NPU) на уровне операционных систем Windows и разработанного Microsoft ИИ-ассистента Copilot. Его вызов пользователь ноутбука сможет осуществлять с помощью отдельной кнопки на клавиатуре. Вице-президент Intel надеется, что внедрение такого ассистента будет стимулировать обновление парка ПК корпоративными пользователями за счёт их стремления к повышению эффективности работы.

Intel привлекает и других партнёров к оптимизации ПО в соответствии с веяниям времени. Провайдеры услуг в сфере видеоконференций активно внедряют функции искусственного интеллекта для отслеживания взгляда пользователя или удаления заднего фона с его заменой на другую картинку. В сотрудничестве с Microsoft также реализуется функции перевода языка жестов с текст на английском, перевод с других языков в масштабе реального времени, а также автоматическое создание слайдов презентации на базе текстового описания. Intel также старается задействовать ресурсы NPU для работы с антивирусным ПО. Аналитики Counterpoint Research считают, что в текущем году рынок ПК может вернуться на уровни, характерные для периода до пандемии, во многом благодаря циклу обновления Windows, распространению процессоров с архитектурой Arm и развитию функций ускорения искусственного интеллекта.

Qualcomm показала, что её компьютерный чип Snapdragon X Elite до 10 раз быстрее Intel Core Ultra в ИИ-задачах

Компания Qualcomm опубликовала короткое видео, в котором продемонстрировала, как ноутбук на базе процессора Snapdragon X Elite до 10 раз превзошёл по производительности лэптоп на базе процессора Intel Core Ultra 7 в задачах, связанных с работой ИИ-алгоритмов по генерации изображений.

 Источник изображений: Qualcomm

Источник изображений: Qualcomm

Согласно описанию под видео, Snapdragon X Elite оснащён вспомогательным ИИ-сопроцессором (NPU) с производительностью 45 TOPS (триллионов операций в секунду). Именно производительность NPU и была продемонстрирована в видео поставщика. Быстродействие Snapdragon X Elite и Intel Core Ultra 7, который, как и все процессоры из серии Meteor Lake, также оснащён собственным NPU, проверяли в программах генерации изображений Stable Diffusion и GIMP. Позже в Qualcomm пояснили, что для тестов Snapdragon X Elite использовались Stable Diffusion и Fast Stable Diffusion версии 1.5. Система на базе Intel Core Ultra 7 также использовала Stable Diffusion 1.5 с плагинами OpenVINO Backend и user_guide_for_windos_users.

Видео начинается с тестов систем в Stable Diffusion. Ноутбук на базе Snapdragon X Elite завершил задачу по генерации картинки с фруктами за 7,25 секунды. В свою очередь лэптоп на базе Intel Core Ultra 7 справился с задачей за 22,26 секунды. Обеим системам задавалось одинаковое описание нужного изображения.

В генераторе GIMP перед обеими системами также была поставлена задача сгенерировать картинки, на этот раз с изображением льва, греющегося на солнышке. Для системы с Snapdragon X Elite использовался нативный плагин Qualcomm AI Stack. Ноутбук с чипом Snapdragon справился с генерацией 10 разных изображений львов за 12,12 секунды. В свою очередь машина на базе Intel при использовании плагина OpenVINO сгенерировала за то же время только одну картинку. По словам нашего выпускающего редактора Андрея Созинова, в настоящий момент находящегося на выставке MWC 2024, в рамках живой демонстрации ноутбук на базе Snapdragon X Elite в той же задаче генерации картинок в Stable Diffusion в три раза превзошёл систему на базе Intel Core Ultra 7.

Превосходство Snapdragon X Elite в задачах ИИ вполне ожидаемо, поскольку NPU в составе тех же чипов Intel Core Ultra обеспечивает производительность всего до 34 TOPS. Meteor Lake являются первыми процессорами Intel, оснащёнными NPU. Intel ранее заявила, что процессоры будущего поколения Arrow Lake (настольные) и Lunar Lake (мобильные) предложат в три раза более высокую ИИ-производительность по сравнению с Meteor Lake. В рамках выставки CES 2024 в начале января стало известно, что указанные чипы находятся на финальной стадии своей разработки и будут представлены позже в этом году.

 Источник изображения: Tom's Hardware

Источник изображения: Tom's Hardware

Следует добавить, что несколько дней назад Snapdragon X Elite засветился в базе данных синтетического теста Geekbench, где продемонстрировал убедительно высокую производительность против x86-совместимых мобильных процессоров конкурентов.

Qualcomm представила AI Hub — «инструмент мечты» для создания ИИ-приложений, работающих локально

Многие разработчики в области генеративного ИИ переходят от использования облачных ресурсов к работе с нейросетями на своих устройствах. Для них Qualcomm на выставке MWC 2024 представила новейший инструмент AI Hub, который упрощает доступ разработчиков к моделям ИИ. Qualcomm AI Hub содержит постоянно пополняемую библиотеку генеративных моделей ИИ, которые могут быть легко загружены на устройства на базе Qualcomm. Сейчас в AI Hub уже представлено более 75 моделей.

 Источник изображений: Qualcomm

Источник изображений: Qualcomm

«Выпустив Snapdragon 8 Gen 3 для смартфонов и Snapdragon X Elite для ПК, мы положили начало масштабной коммерциализации искусственного интеллекта на устройствах. Теперь Qualcomm AI Hub предоставит разработчикам возможность полноценно использовать потенциал этих передовых технологий и создавать захватывающие приложения с поддержкой ИИ», — сообщила Дурга Маллади (Durga Malladi), старший вице-президент Qualcomm по технологическому планированию и периферийным технологиям.

Библиотека Qualcomm AI Hub содержит некоторые из самых популярных моделей в отрасли, такие как Whisper, система автоматического распознавания речи (ASR) от OpenAI, и Stable DIffusion, модель преобразования текста в изображение от Stability AI. По утверждению Qualcomm, модели ИИ в AI Hub аппаратно оптимизируются, обеспечивая «превосходную производительность искусственного интеллекта на устройстве».

Максимально эффективное использование всех ядер Qualcomm AI Engine, включая NPU, CPU и GPU, приводит к повышению энергоэффективности, снижению использования памяти и четырёхкратному увеличению скорости вывода. Ещё одним преимуществом использования моделей ИИ на локальном устройстве является повышенная по сравнению с облаком безопасность данных, что особенно важно при создании моделей, использующих конфиденциальную или проприетарную информацию.

По словам Маллади, «Qualcomm AI Hub предоставляет разработчикам обширную библиотеку моделей ИИ, позволяющую быстро и легко интегрировать предварительно оптимизированные модели ИИ в свои приложения, что приводит к более быстрому, надёжному и конфиденциальному пользовательскому опыту». Оптимизированные модели ИИ доступны сегодня на Qualcomm AI Hub, GitHub и Hugging Face. Разработчики могут оформить подписку, начиная с сегодняшнего дня.

Microsoft сформулировала «принципы доступа к ИИ» — компания обещает не монополизировать рынок

Президент Microsoft Брэд Смит (Brad Smith) огласил набор принципов, которых будет придерживаться компания для содействия инновациям и конкуренции в области ИИ. Этот шаг американского технологического гиганта стал ответом на опасения конкурентов и антимонопольных органов по поводу рыночного доминирования Microsoft, чему способствовало её успешное сотрудничество с OpenAI, ставшей первопроходцем в продвижении генеративного ИИ.

В прошлом году Microsoft внедрила инструменты ИИ во все свои основные продукты, что привлекло бизнес-клиентов, стремящихся идти в ногу со временем. Представленные теперь «Принципы доступа к искусственному интеллекту» гарантируют доступ и поддержку разработчикам ИИ, широкое распространение моделей ИИ и инструментов разработки по всему миру, а также предоставление общедоступных API (интерфейсов прикладного программирования), позволяющих разработчикам получать доступ к моделям ИИ и использовать их в Microsoft Azure.

«Поскольку мы вступаем в новую эру, основанную на искусственном интеллекте, мы считаем, что сейчас лучшее время для того, чтобы сформулировать принципы, которые будут определять, как мы будем управлять нашей инфраструктурой центров обработки данных ИИ и другими важными активами ИИ по всему миру», — заявил Смит на Всемирном мобильном конгрессе (MWC) в Барселоне.

Microsoft обязуется не использовать закрытую информацию или данные разработчиков, полученные в результате создания и развёртывания моделей ИИ в Microsoft Azure, для конкуренции с этими моделями, а также гарантирует клиентам Microsoft Azure лёгкий экспорт данных и миграцию к другому поставщику облачных услуг.

«Принципы доступа к искусственному интеллекту» направлены на расширение ответственности Microsoft как одного из новаторов в области искусственного интеллекта и лидеров рынка. «Публикуя их, мы обязуемся обеспечить широкий доступ к технологиям, дающим возможность организациям и отдельным лицам по всему миру разрабатывать и использовать ИИ способами, которые будут служить общественному благу», добавил Смит.

Антимонопольная служба ЕС изучит инвестиции Microsoft в стартап Mistral AI

Инвестиции Microsoft в стартап Mistral AI на сумму примерно $16,3 млн привлекли внимание антимонопольной службы Европейского Союза (ЕС). В рамках этого стратегического партнёрства новейшие ИИ-модели французского разработчика станут доступны клиентам облачной платформы Microsoft Azure.

 Источник изображения: Mistral AI

Источник изображения: Mistral AI

Отличительной чертой ИИ-моделей Mistral AI является то, что они находятся в открытом доступе, в отличие от аналогичных алгоритмических моделей OpenAI, используемых для создания умных чат-ботов и прочих ИИ-сервисов. Согласно условиям сделки, инвестиции Microsoft будут конвертированы в долю в капитале стартапа в ходе следующего раунда финансирования.

Долгосрочное сотрудничество Microsoft с калифорнийским стартапом OpenAI, оцениваемое примерно в $13 млрд, также находится под пристальным вниманием регуляторов из Великобритании и ЕС. Представитель Европейской комиссии во вторник сообщил, что ведомство проверит инвестиции Microsoft в Mistral AI после получения копии соглашения. Этот процесс может вылиться в официальное расследование, способное помешать реализации планов Microsoft.

Анализ показывает, что пристальное внимание регуляторов к деятельности технологических гигантов в сфере ИИ становится всё более актуальным. Инвестиции в Mistral AI и партнёрство с OpenAI открывают новые горизонты для Microsoft в области облачных технологий и ИИ, однако также подвергают корпорацию дополнительному контролю со стороны антимонопольных органов.

Легендарный Джим Келлер поможет японской Rapidus создать передовой 2-нм ИИ-чип

Насыщенная успехами в разработке процессорных архитектур для разных компаний кривая жизненного пути привела ветерана отрасли Джима Келлера (Jim Keller) в стартап Tenstorrent, который до последнего времени присматривался к возможностям Samsung по контрактному производству чипов. Как выясняется, японской Rapidus Джим Келлер тоже поможет создать передовой ускоритель вычислений.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Об этом стало известно из совместного заявления Tenstorrent и Rapidus на этой неделе, как сообщает Bloomberg. Стоит напомнить, что японская компания Rapidus была основана полтора года назад консорциумом инвесторов с целью наладить к 2027 году контрактный выпуск 2-нм чипов на территории Японии. Технологическими партнёрами Rapidus выступают американская корпорация IBM, бельгийский исследовательский центр Imec и французский институт Leti.

При участии руководства Rapidus в Японии был основан исследовательский центр LSTC, именно ему Tenstorrent поможет разработать чипы для ускорителей искусственного интеллекта, лицензировав часть своих разработок и предложив общее содействие в этом процессе. Данные ускорители, судя по профилю деятельности Tenstorrent, будут использовать архитектуру RISC-V с открытым исходным кодом. Стартап будет поддерживать связь с американскими регуляторами, чтобы предотвратить утечку чувствительных для США технологий.

Представители Rapidus выразили надежду, что при поддержке Tenstorrent смогут наладить выпуск энергоэффективных чипов для ускорителей вычислений, ведь по мере развития систем искусственного интеллекта активно растёт и энергопотребление вычислительных центров. Помимо Джима Келлера, в составе коллектива Tenstorrent, насчитывающего около 400 специалистов, трудятся и другие ветераны отрасли с опытом работы в AMD и Apple.

Samsung разработала 12-слойную память HBM3E с рекордной ёмкостью — 36 Гбайт на стек

Сегмент памяти типа HBM сейчас развивается очень динамично, поскольку именно ею оснащаются востребованные рынком ускорители вычислений для систем искусственного интеллекта. Компания Samsung Electronics заявила о разработке первого в мире 12-ярусного стека HBM3E совокупной ёмкостью 36 Гбайт, который обеспечивает передачу информации со скоростью 1280 Гбайт/с.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Как поясняется в лаконичном пресс-релизе производителя, по критерию ёмкости и скорости передачи информации 12-слойный стек HBM3E более чем на 50 % превосходит имеющиеся на рынке 8-слойные стеки HBM3. Особенностью технологии производства новой памяти является использование термокомпрессии в сочетании с диэлектрической плёнкой при формировании 12-слойных стеков и межслойных соединений. Результирующий 12-слойный стек HBM3E в итоге имеет такую же монтажную высоту, как и 8-слойный. Расстояние между кристаллами памяти в стеке не превышает 7 мкм, что является отраслевым рекордом. Плотность компоновки микросхем в стеке удалось увеличить более чем на 20 %.

Технология Samsung также подразумевает использование контактных шариков разной величины между слоями памяти. Малые шарики используются для передачи сигнала, а более крупные способствуют улучшению теплоотвода. Такая методика производства попутно повышает уровень выхода годной продукции, как утверждает Samsung. По оценкам компании, 12-слойная память типа HBM3E позволяет поднять скорость обучения систем искусственного интеллекта на 34 %, а количество одновременно обращающихся к ним пользователей может вырасти более чем в 11,5 раз по сравнению с 8-слойным стеком HBM3. Поставки памяти HBM3E в 12-ярусном исполнении в виде инженерных образцов для нужд клиентов Samsung уже начались, а массовое производство стартует в первой половине текущего года.

Meta✴ Platforms ищет разработчиков ускорителей вычислений для своих систем искусственного интеллекта

Облачные гиганты и ранее были склонны создавать собственные процессоры для серверных систем, а по мере развития искусственного интеллекта только укрепились в этом стремлении. Как отмечает The Register, компания Meta Platforms разместила объявления о вакансиях для разработчиков чипов в Индии и США, упор делается на задачи машинного обучения.

 Источник изображения: Unsplash, Igor Omilaev

Источник изображения: Unsplash, Igor Omilaev

Одно из таких объявлений, привлекающее соискателей на вакансию в индийском Бангалоре (Бенгалуру), описывает потребность компании в создании «сложной передовой системы на чипе для применения в серверной среде». По замыслу работодателя, соответствующие ускорители могут найти применение в серверной инфраструктуре Facebook на территории Индии. Разумеется, предпочтение среди соискателей будет отдаваться кандидатам с опытом работы в данной сфере, не говоря уже о наличии профильного образования с подтверждающими документами.

Впервые подобные объявления на страницах социальной сети LinkedIn появились ещё в конце декабря прошлого года, но пару недель назад они были обновлены. Желающих попробовать свои силы на этой работе пока набралось не так много, хотя на позициях в Калифорнии претенденты могут рассчитывать на годовую зарплату в размере $200 000. Помимо предполагаемого эффекта экономии, стремление разработчиков систем искусственного интеллекта обзавестись собственными ускорителями диктуется и высокой загруженностью NVIDIA заказами: она просто не справляется со спросом, а недавно ещё и заявила, что ситуация с доступностью будущих ускорителей семейства Blackwell заведомо будет сложной. Meta заинтересована разработкой не только ускорителей для задач машинного обучения, но и для так называемого «сильного искусственного интеллекта», который уже может поспорить с человеческим.

Стремление клиентов NVIDIA обрести некоторую независимость по компонентной базе, как отмечает The Register, проявляется и в намерениях Microsoft разработать специализированные сетевые карты для обмена информацией на высоких скоростях в системах искусственного интеллекта. Решения Mellanox, принадлежащей NVIDIA, тоже наверняка остаются в дефиците, поэтому крупные игроки рынка готовы делать ставку на собственные разработки в этой сфере.

В NVIDIA появился отдел исследования сильного ИИ для роботов и игр

Компания NVIDIA создала новый исследовательский отдел GEAR (Generalist Embodied Agent Research), который будет заниматься вопросами создания универсальных воплощенных ИИ-агентов в физическом (робототехника) и виртуальном (игры и любые симуляции) мирах.

 Источник изображений: NVIDIA GEAR

Источник изображений: NVIDIA GEAR

Основателями GEAR являются Джим Фан (Jim Fan) и Юке Зу (Yuke Zhu). Оба ранее сотрудничали в рамках других проектов.

«Мы верим в будущее, где каждая машина сможет двигаться автономно, а использование роботов и смоделированных агентов станет таким же повсеместным, как использование iPhone», — концептуально описал цели нового исследовательского отдела его руководитель Джим Фан.

Он добавил, что одной из задач исследовательского отдела будет «создание ИИ-агента, который сможет учиться умело действовать как виртуальном, так и реальном мирах». По сути, речь идёт о разработке так называемого сильного ИИ (Artificial General Intelligence — AGI) или общего ИИ общего назначения, то есть системе, способной решать задачи наравне с человеком. По словам Фана, 2024 года станет годом развития робототехники, развития игрового ИИ и годом моделирования.

На домашней странице GEAR сайта NVIDIA выделены четыре основных пункта, описывающих программу исследований. Свою работу команда начнёт с разработки мультимодальных моделей базового ИИ, роботов общего назначения, базовых виртуальных ИИ-агентов, а также будет заниматься моделированием данных.

На сайте исследовательской группы также представлены четыре предыдущих проекта, в которых Джим Фан и Юке Зу принимали участие. Два из них касаются разработки проекта специализированных и проактивных ИИ-агентов, которые были встроены в популярную игру Minecraft. Другой проект касается оптимизированной техники обучения с подкреплением для роботов, призванной повысить «ловкость до сверхчеловеческого уровня». Кроме того, специалисты вели разработку системы для мультимодальных запросов для установки задач для роботов, а также системы оценки для таких действий.

Oppo показала прототип лёгких AR-очков Air Glass 3 XR со встроенным голосовым ИИ-ассистентом

Компания Oppo представила на выставке MWC 2024 прототип очков дополненной реальности Air Glass 3 XR с поддержкой искусственного интеллекта.

 Источник изображений: Oppo

Источник изображений: Oppo

Oppo Air Glass 3 XR имеют поддержку голосового ассистента на базе китайской ИИ-модели AndesGPT, с которым они связываются через смартфон. На одной из дужек очков расположено сенсорное управление. В пресс-релизе компании говорится, что голосовой помощник в настоящее время доступен только в Китае.

Чат-бот может по запросу «выполнять поиск информации и вести беседы, чтобы помочь пользователям в таких задачах, как планирование путешествий», отмечают в компании. Кроме того, с помощью голосового помощника можно управлять музыкальным плеером, отвечать на звонки и просматривать изображения.

Вес очков дополненной реальности Oppo Air Glass 3 XR составляет всего 50 граммов. Они оснащены оптикой с индексом отражения 1.70. Пиковая яркость встроенных в очки проекционных дисплеев составляет более 1000 кд/м2. Oppo заявляет, что Air Glass 3 XR наделены такими свойствами, которые делают их использование близким к использованию обычной пары очков.

Oppo Air Glass 3 XR также оснащены системой из четырёх микрофонов с функцией шумоподавления. В перспективе компания также планирует наделить гаджет поддержкой различных генеративных функций ИИ вроде AI Eraser для редактирования фотографий и изображений. Указанная функция доступна в смартфонах серии Reno 11 и Find N3.

Французский стартап Mistral выпустил конкурента GPT-4 и получил инвестиции от Microsoft

Компания Microsoft объявила о новом многолетнем партнёрстве с французским стартапом Mistral, который работает в сфере искусственного интеллекта и оценивается в €2 млрд. По данным источника, Microsoft приобретёт небольшую долю в Mistral, а также сделает доступными открытые и коммерческие большие языковые модели стартапа на своей платформе Azure.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Как и в случае с OpenAI, в которую Microsoft инвестировала свыше $10 млрд, партнёрство с Mistral предполагает разработку и внедрение в эксплуатацию больших языковых моделей следующего поколения. На этом фоне Mistral официально представила новую языковую модель Mistral Large, которая создавалась в качестве альтернативы GPT-4 от OpenAI. По умолчанию языковая модель Mistral поддерживает контекстные окна из 32 тыс. токенов (обычно это более 20 тыс. слов на английском языке). Помимо английского, Mistral Large поддерживает и другие языки.

Языковая модель Mistral Large доступна через инфраструктуру компании, которая находится в Европе, а также через Azure AI Studio и Azure Machine Learning. В дополнение к этому пользователям стала доступна модель Mistral Small, которая представляет собой более продвинутый вариант алгоритма Mistral 8x7B.

Сегодня Mistral также запустила чат-бота под названием Le Chat. Он доступен на сайте chat.mistral.ai. Компания предупреждает, что пока это бета-версия и что возможны «странности». Доступ к сервису бесплатный, и пользователи могут выбирать между тремя различными моделями — Mistral Small, Mistral Large и прототипом под названием Mistral Next. Стоит также отметить, что Le Chat не может выходить в интернет.

Прежде языковые модели Mistral имели открытый исходный код. Однако партнёрство с Microsoft, вероятно, позволит французской компании извлечь больше выгоды. На данный момент Microsoft и Mistral не раскрывают финансовых подробностей партнёрского соглашения.

Купить ИИ-ускоритель NVIDIA H100 стало проще — очереди уменьшились, появился вторичный рынок

Сроки поставки графических процессоров NVIDIA H100, применяемых в приложениях ИИ и высокопроизводительных вычислениях, заметно сократились — с 8–11 до 3–4 месяцев. Аналитики полагают, что это связано с расширением возможностей аренды ресурсов у крупных компаний, таких как Amazon Web Services, Google Cloud и Microsoft Azure. В результате некоторые компании, ранее закупившие большое количество процессоров H100, теперь пытаются их продать.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

The Information сообщает, что некоторые фирмы перепродают свои графические процессоры H100 или сокращают заказы из-за снижения дефицита и высокой стоимости содержания неиспользуемых запасов. Это знаменует собой значительный сдвиг по сравнению с прошлым годом, когда приобретение графических процессоров NVIDIA Hopper было серьёзной проблемой. Несмотря на повышение доступности чипов и значительное сокращение сроков выполнения заказов, спрос на чипы ИИ всё ещё продолжает превышать предложение, особенно среди компаний, обучающих большие языковые модели (LLM).

Ослабление дефицита ускорителей ИИ отчасти связано с тем, что поставщики облачных услуг упростили аренду графических процессоров NVIDIA H100. Например, AWS представила новый сервис, позволяющий клиентам планировать аренду графических процессоров на более короткие периоды, что привело к сокращению спроса и времени ожидания. Увеличение доступности ИИ-процессоров NVIDIA также привело к изменению поведения покупателей. Компании при покупке или аренде становятся более требовательными к ценам, ищут меньшие по размеру кластеры графических процессоров и больше внимания уделяют экономической жизнеспособности своего бизнеса.

В результате рост сектора искусственного интеллекта значительно меньше, чем в прошлом году, сдерживается ограничениями из-за дефицита чипов. Появляются альтернативы устройствам NVIDIA, например, процессоры AMD или AWS, которые наряду с повысившейся производительностью получили улучшенную поддержку со стороны программного обеспечения. В совокупности с взвешенным подходом к инвестициям в ИИ, это может привести к более сбалансированной ситуации на рынке.

Тем не менее, доступ к большим кластерам графических процессоров, необходимым для обучения LLM, до сих пор остаётся проблематичным. Цены на H100 и другие процессоры NVIDIA не снижаются, компания продолжает получать высокую прибыль и невероятными темпами наращивать свою рыночную стоимость. NVIDIA прогнозирует высокий спрос на ИИ-ускорители следующего поколения Blackwell. В поисках альтернатив Сэм Альтман (Sam Altman) из OpenAI пытается привлечь масштабное финансирование для создания дополнительных заводов по производству процессоров ИИ.

Micron начала массовое производство чипов HBM3E ёмкостью 24 Гбайт для ИИ-ускорителей NVIDIA H200

Компания Micron сообщила о старте массового производства высокопроизводительной памяти HBM3E в формате 8-этажных стеков объёмом 24 Гбайт. Такие микросхемы будут использоваться в составе специализированных ИИ-ускорителей NVIDIA H200, массовые поставки которых начнутся во втором календарном квартале 2024 года.

 Источник изображения: Microsoft

Источник изображения: Microsoft

В Micron заявляют, что растущий спрос на ИИ-вычисления требует новых высокопроизводительных решений в вопросе памяти. Новые микросхемы HBM3E от Micron полностью отвечают этим требованиям.

Для своих 8-слойных стеков памяти HBM3E объёмом 24 Гбайт компания Micron заявляет скорость передачи данных в 9,2 Гбит/с на контакт и пропускную способность более 1,2 Тбайт/с. По словам Micron, её чипы памяти HBM3E до 30 % энергоэффективнее аналогичных решений от других производителей.

Компания также отмечает, что большая ёмкость в 24 Гбайт чипов памяти HBM3E позволяет центрам обработки данных беспрепятственно масштабировать свои задачи, связанные с ИИ, будь то обучение массивных нейронных сетей или ускорение инференса.

Компания Micron производит чипы памяти HBM3E с использованием своего самого передового технологического процесса 1β (1-beta), а также передовой технологии сквозных соединений TSV (Through-silicon via) и других инновационных решений, связанных с упаковкой микросхем. Micron будет производить свои чипы памяти HBM3E на мощностях компании TSMC.

Производитель также сообщил, что в марте этого года начнёт рассылать производителям образы передовых 12-слойных чипов памяти HBM3E ёмкостью 36 Гбайт, которые обеспечат пропускную способность выше 1,2 Тбайт/с.


window-new
Soft
Hard
Тренды 🔥
Sony подтвердила линейку игр PS Plus на март 2024 года — в неё вошло четыре проекта 12 мин.
В ответ на обвинения в воровстве контента OpenAI обвинила New York Times во взломе ChatGPT 24 мин.
Хакеры заполучили почти 200 Гбайт внутренних данных Epic Games, но это не точно 2 ч.
Легендарный разработчик Call of Duty открыл студию BulletFarm для создания олдскульного кооперативного AAA-шутера 3 ч.
Игрок прошёл The Elder Scrolls V: Skyrim на 100 % без читов и модов — его персонаж достиг 1337-го уровня, но не стал неуязвимым 3 ч.
Биткоин вырос до $60 000, аналитики прогнозируют новые рекорды 5 ч.
Telegram начнёт платить владельцам каналов за показ рекламы 5 ч.
Слухи: студия-разработчик Star Citizen замаскировала массовые сокращения под релокацию сотрудников 6 ч.
Гоночный симулятор F1 24 поступит в продажу 31 мая — и вновь ни слова по-русски, но с поддержкой VR и обновлённым сюжетным режимом 7 ч.
Threads затмил X: соцсеть Цукерберга лидирует по загрузкам приложения 7 ч.