Сегодня 30 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

«Больше, чем у кого-либо»: Цукерберг похвастался системой с более чем 100 тыс. Nvidia H100 — на ней обучается Llama 4

Среди американских IT-гигантов зародилась новая забава — соревнование, у кого больше кластеры и твёрже уверенность в превосходстве своих мощностей для обучения больших языковых моделей ИИ. Лишь недавно глава компании Tesla Илон Маск (Elon Musk) хвастался завершением сборки суперкомпьютера xAI Colossus со 100 тыс. ускорителей Nvidia H100 для обучения ИИ, как об использовании более 100 тыс. таких же ИИ-ускорителей сообщил глава Meta Марк Цукерберг (Mark Zuckerberg).

 Источник изображения: CNET/YouTube

Источник изображения: CNET/YouTube

Глава Meta отметил, что упомянутая система используется для обучения большой языковой модели нового поколения Llama 4. Эта LLM обучается «на кластере, в котором используется больше 100 000 графических ИИ-процессоров H100, и это больше, чем что-либо, что я видел в отчётах о том, что делают другие», — заявил Цукерберг. Он не поделился деталями о том, что именно уже умеет делать Llama 4. Однако, как пишет издание Wired со ссылкой на заявление главы Meta, их ИИ-модель обрела «новые модальности», «стала сильнее в рассуждениях» и «значительно быстрее».

Этим комментарием Цукерберг явно хотел уколоть Маска, который ранее заявлял, что в составе его суперкластера xAI Colossus для обучения ИИ-модели Grok используются 100 тыс. ускорителей Nvidia H100. Позже Маск заявил, что количество ускорителей в xAI Colossus в перспективе будет увеличено втрое. Meta также ранее заявила, что планирует получить до конца текущего года ИИ-ускорители, эквивалентные более чем полумиллиону H100. Таким образом, у компании Цукерберга уже имеется значительное количество оборудования для обучения своих ИИ-моделей, и будет ещё больше.

Meta использует уникальный подход к распространению своих моделей Llama — она предоставляет их полностью бесплатно, позволяя другим исследователям, компаниям и организациям создавать на их базе новые продукты. Это отличает её от тех же GPT-4o от OpenAI и Gemini от Google, доступных только через API. Однако Meta всё же накладывает некоторые ограничения на лицензию Llama, например, на коммерческое использование. Кроме того, компания не сообщает, как именно обучаются её модели. В остальном модели Llama имеют природу «открытого исходного кода».

С учётом заявленного количества используемых ускорителей для обучения ИИ-моделей возникает вопрос — сколько электричества всё это требует? Один специализированный ускоритель может съедать до 3,7 МВт·ч энергии в год. Это означает, что 100 тыс. таких ускорителей будут потреблять как минимум 370 ГВт·ч электроэнергии — как отмечается, достаточно для того, чтобы обеспечить энергией свыше 34 млн среднестатистических американских домохозяйств. Каким образом компании добывают всю эту энергию? По признанию самого Цукерберга, со временем сфера ИИ столкнётся с ограничением доступных энергетических мощностей.

Компания Илона Маска, например, использует несколько огромных мобильных генераторов для питания суперкластера из 100 тыс. ускорителей, расположенных в здании площадью более 7000 м2 в Мемфисе, штат Теннесси. Та же Google может не достичь своих целевых показателей по выбросам углерода, поскольку с 2019 года увеличила выбросы парниковых газов своими дата-центрами на 48 %. На этом фоне бывший генеральный директор Google даже предложил США отказаться от поставленных климатических целей, позволив компаниям, занимающимся ИИ, работать на полную мощность, а затем использовать разработанные технологии ИИ для решения климатического кризиса.

Meta увильнула от ответа на вопрос о том, как компании удалось запитать такой гигантский вычислительный кластер. Необходимость в обеспечении растущего объёма используемой энергии для ИИ вынудила те же технологические гиганты Amazon, Oracle, Microsoft и Google обратиться к атомной энергетике. Одни инвестируют в разработку малых ядерных реакторов, другие подписали контракты на перезапуск старых атомных электростанций для обеспечения растущих энергетических потребностей.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Инвесторы пока не боятся вкладывать деньги в ИИ-стартапы на фоне разговоров о формировании пузыря 3 мин.
Новая статья: Goodnight Universe — колыбельная для крошки. Рецензия 9 ч.
Новая статья: Gamesblender № 754: кризис на рынке памяти, Pioner не для российского Steam и 20-летие Xbox 360 10 ч.
Роскомнадзор увидел в Roblox угрозу детям — на платформе нашли неподобающий контент 17 ч.
Asus предупредила об очередной критической уязвимости в маршрутизаторах с AiCloud 17 ч.
Infinix проведёт в декабре турнир по PUBG Mobile, для участия в котором нужно быть студентом вуза или ссуза России 18 ч.
Президент Signal призвала не спешить с внедрением ИИ в мессенджерах 19 ч.
ИИ-модель DeepseekMath-V2 достигла уровня золотой медали на Международной математической олимпиаде 20 ч.
Практическое использование ИИ в работе остаётся весьма неравномерным 29-11 08:07
Новая статья: PowerWash Simulator 2 — опять работать. Рецензия 29-11 00:01
Ускорители вычислений Baidu имеют все шансы стать хитом китайского рынка 30 мин.
SK hynix будет использовать все возможности, чтобы увеличить объёмы выпуска DRAM 2 ч.
Китайский предприниматель сколотил состояние на сдаче в аренду африканских IP-адресов за пределами континента 2 ч.
Первый в мире частный научный спутник успешно выведен в космос — он будет изучать звёзды в ультрафиолете 14 ч.
Главы технологических компаний наперебой заговорили о ЦОД в космосе 15 ч.
В 2027 году Intel может наладить выпуск процессоров Apple M по техпроцессу 18A-P 16 ч.
Samsung выпустила внешние SSD T7 Resurrected с ударопрочным корпусом из вторсырья и скоростью до 1050 Мбайт/с 17 ч.
Битва за Северную Европу: Digital Realty и Equinix борются за покупку скандинавского оператора ЦОД atNorth за €4,5 млрд 18 ч.
Asustor представила десктопные NAS Lockerstor Gen2+ с двумя портами 5GbE и чипом Intel Jasper Lake 18 ч.
MGX-сервер MSI CG480-S6053 получил чипы AMD EPYC Turin и восемь слотов PCIe 5.0 x16 для FHFL-карт двойной ширины 18 ч.