Сегодня 22 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → цод
Быстрый переход

Meta✴ временно поселила ИИ-серверы в палатки

Компания Meta активно развивает технологии искусственного интеллекта и наращивает вычислительные мощности — в условиях дефицита площадей для размещения серверных стоек компания дошла до того, что временно размещает центры обработки данных в палатках.

 Источник изображения: Patrick Hendry / unsplash.com

Источник изображения: Patrick Hendry / unsplash.com

В гонке за созданием технологий передового искусственного интеллекта компания Meta переманивает ведущих профильных специалистов из других компаний; кроме того, уже строится колоссальный 5-гигаваттный ЦОД под названием Hyperion. Компания настолько стремится нарастить свою вычислительную мощность, что буквально ставит палатки для временного размещения ЦОД, пока основные объекты ещё строятся.

Всё это указывает, что Meta, уступившая инициативу таким игрокам как OpenAI, xAI и Google, стремится наверстать упущенное, и глава компании Марк Цукерберг (Mark Zuckerberg) не готов ждать стандартных сроков строительства, чтобы сократить разрыв. «Этот проект отличают не красота или избыточность. Речь идёт о срочном запуске вычислительных ресурсов! От сборных энергетических и охлаждающих модулей до сверхлёгких конструкций — решающее значение имеет скорость, и резервных источников энергии (таких как дизельные генераторы) не предусматривается», — пишет SemiAnalysis.

Гигантский ЦОД Hyperion будет расположен в американском штате Луизиана; к 2030 году он выйдет на мощность 2 ГВт, передаёт TechCrunch со ссылкой на официального представителя Meta Эшли Габриэль (Ashley Gabriel).

В России намерены запретить майнинг в ЦОД

Вскоре в Госдуме во втором чтении будет рассматриваться законопроект о ЦОД, в который правительство и депутаты внесли поправки о создании реестра дата-центров, их правовом определении и запрете на майнинг. Предполагается, что запрет на майнинг в ЦОД исключит возможность получения майнерами льгот в качестве участников рынка дата-центров, пишет РБК.

 Источник изображения: Dmytro Demidko/unsplash.com

Источник изображения: Dmytro Demidko/unsplash.com

В первом чтении законопроект с поправками в закон «О связи» был принят в 2022 году. Он был разработан по поручению президента России, данному в 2020 году, — обеспечить решение вопросов льготной поддержки ЦОД и компенсации издержек на электроэнергию.

Подготовленный ко второму чтению законопроект, в дополнение к закону «О связи», вносит изменения в законы «О концессионных соглашениях», «О государственно-частном партнёрстве» и «О цифровых финансовых активах».

В частности, предлагается отнести ЦОД к сооружениям связи с соответствующей корректировкой их определения. Также будет создан реестр ЦОД, который будет вести Минцифры. Владельцы дата-центров смогут включаться в него на добровольной основе. Для ЦОД, включённых в реестр, вводится запрет на размещение майнинговой инфраструктуры и осуществление майнинга.

Как отметил руководитель аппарата правительства Дмитрий Григоренко, для эффективной работы рынка ЦОД, а также увеличения количества и мощности дата-центров в условиях цифровизации и внедрения ИИ-технологий необходимо прозрачное и понятное регулирование. «В первую очередь мы законодательно закрепляем, что ЦОД — это объект связи, а не просто серверная. Чёткие правила создадут основу для дополнительных мер поддержки, привлечения частных инвестиций и развития технологий», — подчеркнул он. Создание реестра, как ожидается, устранит бюрократические проволочки, поскольку статус ЦОД можно будет подтвердить одной выпиской.

Без чёткого определения дата-центра всё труднее становится реализовывать новые проекты по их созданию, подключать энергомощности, получать меры поддержки, считает генеральный директор Координационного совета по ЦОД и облачным технологиям (АНО КС ЦОД) Дмитрий Бедердинов.

По словам источника РБК, запрет на майнинг был добавлен в законопроект в качестве превентивной меры — чтобы исключить возможность получения майнерами льгот, которые распространяются на объекты связи.

Создание реестра позволит государству более точно оценивать объёмы и распределение инфраструктуры, а участникам рынка — подтверждать свой статус и надёжность для клиентов и партнёров, поддержал инициативу технический директор Selectel Кирилл Малеванов.

Илон Маск перевезёт электростанцию из-за границы в США для своего прожорливого ИИ

В новых центрах обработки данных принадлежащей Илону Маску (Elon Musk) компании xAI будут размещаться миллионы ИИ-ускорителей, что приведёт к существенному росту потребления электроэнергии. Для решения этой проблемы миллиардер купил за рубежом электростанцию и планирует перевезти её в США. Об этом недавно во время подкаста рассказал аналитик SemiAnalysis Дилан Патель (Dylan Patel), а позднее подтвердил и сам бизнесмен.

 Источник изображения: xAI

Источник изображения: xAI

Уже имеющийся в распоряжении xAI суперкомпьютер Colossus входит в число самых мощных и энергоёмких. Он использует примерно 200 тыс. графических ускорителей Nvidia поколения Hopper и потребляет около 300 МВт электроэнергии, из-за чего xAI столкнулась с трудностями при обеспечении его достаточной мощностью.

По мере развития компании проблемы становятся всё серьёзнее. xAI и Маск должны решить грандиозную задачу по обеспечению энергией нового ЦОД, в котором, как ожидается, будет использоваться 1 млн ИИ-ускорителей. Такой объект потенциально может потреблять столько же электроэнергии, сколько необходимо для питания 1,9 млн домохозяйств.

По словам Пателя, xAI собрала огромные вычислительные ресурсы и команду талантливых исследователей для разработки ИИ-бота Grok. Однако впереди компанию ждут ещё более масштабные задачи. Не секрет, что xAI столкнулась с трудностями при обеспечении энергией своего ЦОД в Мемфисе, штат Теннесси. Для его работы с 200 тыс. ИИ-ускорителями задействовано 35 газовых турбин, способных вырабатывать суммарно 420 МВт энергии, в сочетании с системой накопления Tesla Megapack.

Помимо Colossus компания быстрыми темпами наращивает мощности. xAI приобрела завод в Мемфисе и сейчас преобразует его в ЦОД, способный вместить не только огромное количество графических ускорителей Nvidia, но и вспомогательное оборудование. Миллион ИИ-ускорителей Nvidia Blackwell будут потреблять от 1000 МВт (1 ГВт) до 1400 МВт (1,4 ГВт) энергии — в зависимости от модели ускорителей (B200, GB200, B300, GB300) и их конфигурации.

Графические ускорители — не единственная нагрузка на систему питания. Необходимо учитывать энергопотребление процессоров, оперативной памяти DDR5, накопителей, сетевого оборудования, систем охлаждения и кондиционирования воздуха, а также неэффективность источников питания. Одна крупномасштабная солнечная электростанция не способна круглосуточно обеспечивать энергией такой ЦОД. Для этого потребовалось бы огромное количество солнечных панелей, способных вырабатывать несколько гигаватт энергии, и массивные аккумуляторы для её накопления, что невыгодно с финансовой точки зрения.

Более практичным и часто применяемым вариантом является строительство нескольких парогазовых установок, работающих на природном газе и способных вырабатывать от 0,5 МВт до 1500 МВт энергии каждая. Такой подход относительно быстро разворачивается (несколько лет), позволяет масштабировать мощности поэтапно и интегрировать их с существующими электросетями. Возможно, xAI выберет именно этот путь для обеспечения энергией своего нового ЦОД.

Альтернативы, такие как ядерные реакторы, теоретически могли бы удовлетворить потребности xAI с меньшим количеством энергоблоков (каждый вырабатывает около 1000 МВт) и без прямых выбросов углекислого газа. Однако проектирование, получение разрешений и строительство атомных станций требует значительно больше времени (до 10 лет). Маловероятно, что Маск купил за границей атомную станцию и планирует её транспортировку в США.

На практике любая компания, пытающаяся ввести в эксплуатацию систему мощностью 1,4–1,96 ГВт, становится крупным промышленным потребителем энергии. Существующий ЦОД xAI обеспечивается энергией, вырабатываемой собственными турбинами, а также закупаемой у сторонних поставщиков. Вероятно, новый объект будет питаться по аналогичной схеме.

Судя по всему, покупка электростанции в США могла бы занять слишком много времени. Поэтому xAI приобрела станцию за рубежом и теперь планирует перевезти оборудование в США. Это подчёркивает, что развитие ИИ сегодня зависит не только от аппаратного и программного обеспечения, но и от способности быстро обеспечить инфраструктуру необходимым объёмом энергоснабжения.

Meta✴ готова привлечь $29 млрд на расширение вычислительных мощностей в США

Утверждение о том, что потоки денежных средств, генерируемые продажей рекламы в социальных сетях, принадлежащих Meta Platforms, с запасом покрывают её потребности в инвестициях на направлении искусственного интеллекта, в реальности может не пройти проверку временем. Компания готова привлечь на соответствующие цели $29 млрд у инвесторов.

 Источник изображения: X, Mark Zuckerberg

Источник изображения: X, Mark Zuckerberg

Как сообщило накануне издание Financial Times, сейчас Meta ведёт переговоры с крупными институциональными инвесторами типа Apollo Global Management, KKR, Brookfield, Carlyle и Pimco о возможности предоставления ими в совокупности до $29 млрд на строительство новых центров обработки данных на территории США. Из этой суммы $3 млрд будут выручены Meta за счёт реализации активов, которые перейдут под контроль инвесторов, а оставшиеся $26 млрд будут, по сути, предоставлены в форме кредитов. Данными суммами дело может не ограничиться, как поясняет один из источников.

По информации издания, консультантом в этой сфере для Meta выступал инвестиционный банк Morgan Stanley. Долговые обязательства, о которых идёт речь при обсуждении структуры возможной сделки, должны иметь высокую ликвидность на межбанковском рынке, как подчёркивают вероятные участники. По всей видимости, инвесторы научены горьким опытом сделки Илона Маска (Elon Musk) по покупке социальной сети Twitter (ныне X), по итогам которой они долго не могли реализовать долги компании на приемлемых для себя условиях.

Решение о привлечении дополнительных средств на строительство вычислительных мощностей не было неожиданным. Ещё в мае на квартальной отчётной конференции руководство Meta заявило, что компания увеличит капитальные затраты в текущем году на 10 % до интервала от $64 до $72 млрд. Необходимость увеличить бюджет в этой сфере была продиктована как потребностью в дополнительных центрах обработки данных, так и ростом цен на аппаратное обеспечение. Кроме того, в июне Meta заключила долгосрочный контракт с одним из поставщиков электроэнергии в Иллинойсе, располагающим в этом штате АЭС. Развитие вычислительной инфраструктуры в таких масштабах требует высоких затрат электроэнергии.

Конкурирующая OpenAI тоже активно привлекает капитал инвесторов к финансированию своих проектов. Помимо знаменитого Stargate стоимостью $500 млрд, стартапу недавно удалось договориться о финансировании проекта в Техасе с Blue Owl стоимостью $15 млрд. Инвесторы в таких случаях всё чаще претендуют на часть выручки будущего проекта, если сделка подразумевает создание совместного предприятия. Развивающим свою инфраструктуру компаниям такие сделки тоже выгодны, поскольку позволяют не наращивать портфель долговых обязательств.

В Калифорнийском университете попробовали охлаждать процессоры мокрой тряпкой и добились теплоотвода 800 Вт

Предложенная учёными из Калифорнийского университета в Сан-Диего технология пассивного охлаждения процессоров обещает поднять энергосбережение серверных залов на новую высоту. Новая разработка на основе испаряющего воду волокнистого материала способна рассеять 800 Вт с каждого квадратного сантиметра поверхности, что стало новым рекордом в капиллярном способе охлаждения.

 Источник изображения: Tianshi Feng

Источник изображения: Tianshi Feng

К 2030 году глобальное потребление энергии ЦОДами может увеличиться более чем в два раза. По оценкам Министерства энергетики США, на охлаждение центров по обработке данных уже расходуется до 40 % всей потребляемой ими энергии, и эта нагрузка будет только расти. Убрать это слагаемое из уравнения означает пустить энергию на вычисления, а не буквально выпустить её в атмосферу в виде тех же парниковых газов. Не исключено, что созданная в США технология пассивного охлаждения чипов без вентиляторов и помп поможет в этом благом деле.

Технология основана на использовании специально разработанной волокнистой мембраны, которая пассивно отводит тепло от чипа с помощью естественного испарения влаги. Заявленная способность мембраны отводить 800 Вт/см2 стала одним из самых высоких показателей для пассивных систем охлаждения. И это не разовый эффект. Разработка показала стабильную работу в течение нескольких часов подряд.

Созданная учёными мембрана обладает высочайшей пористостью, что благодаря капиллярному эффекту позволило равномерно распределять влагу по всей площади и испарять её в верхней части мембраны. По мере испарения жидкости она естественным образом бесшумно отводит тепло от микросхем.

«По сравнению с традиционным воздушным или жидкостным охлаждением, испарение может рассеивать больший тепловой поток, потребляя при этом меньше энергии», — сказал Ренкун Чен (Renkun Chen), профессор машиностроения в Калифорнийском университете в Сан-Диего и соавтор исследования.

Исследователи из Калифорнийского университета в Сан-Диего нашли золотую середину между слишком большими порами и слишком маленькими, обеспечив баланс между риском неравномерной подачи влаги к поверхности и опасностью засорения. Разработав сеть пор нужного размера, они создали материал, который не только лишён недостатков, но и обеспечивает лучшие в отрасли характеристики. И он сохраняет стабильность в течение нескольких часов работы при высокой температуре.

«Представленные волокнистые мембраны изначально были разработаны для фильтрации, и никто ранее не исследовал их применение в процессе испарения. Мы поняли, что их уникальные структурные характеристики — взаимосвязанные поры и правильный размер пор — могут сделать их идеальными для эффективного испарительного охлаждения. Нас удивило, что при правильном механическом усилении они не только выдерживали высокий тепловой поток, но и работали при нём очень хорошо», — поясняют учёные.

Сейчас команда работает над интеграцией этой технологии в «охлаждающие пластины» — устройства, которые устанавливаются непосредственно на процессоры для рассеивания тепла. Они также создали стартап, чтобы вывести технологию на рынок.

В Москве почти закончились свободные мощности ЦОД для крупных клиентов

В Московском регионе почти исчерпаны предложения для крупных пользователей мощностей центров обработки данных. При этом стоимость размещения в столичном и ленинградском регионе за год существенно выросла. Об этом пишет «Коммерсантъ» со ссылкой на данные исследования агентства iKS-Consulting и оператора ЦОД 3data, которые изучили ситуацию на российском рынке хранения данных и строительстве ЦОД в первом квартале 2025 года.

 Источник изображения: Kevin Ache / Unsplash

Источник изображения: Kevin Ache / Unsplash

Данные исследования указывают на то, что средняя стоимость услуги colocation (аренда места для установки IT-оборудования) в Москве и ближнем Подмосковье, а также в Санкт-Петербурге и Ленобласти год к году увеличилась на 31,4 % и 10,9 % соответственно. В денежном выражении для Москвы и области цена услуги составила 146,6 тыс. рублей, а для Санкт-Петербурга и области — 96,1 тыс. рублей.

Отмечается, что в столичном регионе почти не осталось предложений для размещения оборудования крупных клиентов, поскольку все сданные в эксплуатацию в 2023-2024 годах площадки уже арендованы. Имеющиеся в наличии свободные мощности могут удовлетворить потребности только розничных клиентов, т.е. тех, кому инфраструктура требуется «под собственные запросы». Спросу на большие мощности в настоящее время соответствуют только сданные в начале 2025 года объекты, такие как ЦОД DC N1 в Телекомплексе НТВ, а также вводимые в первом полугодии мощности IXcellerate.

В компании Selectel, которая занимается предоставлением IT-инфраструктуры, рассказали, что в последние годы бизнес активно развивает продукты с использованием технологий искусственного интеллекта. Соответственно IT-инфраструктура для обеспечения работоспособности таких продуктов требует существенно больше электроэнергии. Это обусловлено использованием производительных графических ускорителей, а также мощных процессоров. «Для сравнения: среднее потребление одной серверной стойки с оборудованием под задачи, не связанные с ИИ, составляет 5-10 кВт. При этом стойки с оборудованием под ИИ могут потреблять до 40 кВт», — рассказал директор направления дата-центров в Selectel Илья Михайлов.

В РТК-ЦОД (входит в состав «Ростелеком») сообщили, что несмотря на лидерство столичного региона по концентрации спроса на услуги colocation, в регионах сейчас также фиксируется повышенный спрос. В компании эту тенденцию связывают со зрелостью клиентов и доверием к крупным провайдерам. Там также отметили формирование тенденции регионального спроса на модульные ЦОД из-за меньших временных затрат и капитальных вложений при их строительстве. Высокая ключевая ставка способствовала снижению объёма инвестиций в строительство ЦОД. Поскольку это в основном проекты с длительным сроком окупаемости, в ближайшее время не стоит ожидать появления большого количества новых площадок, добавил представитель РТК-ЦОД.

Представители строительного рынка говорят, что девелоперы не торопятся строить ЦОД в больших количествах. Это связывают с тем, что такие проекты имеют длительный цикл строительства и срок окупаемости, а также высокие капитальные затраты, что на фоне текущей стоимости заёмного финансирования является важным фактором. Также отмечается дефицит свободных энергомощностей. Подключение к электросетям является сложным и дорогим процессом не только в Москве, но и в регионах.

По прогнозу NF Group, в нынешнем году спрос на мощности коммерческих ЦОД продолжит опережать предложение. Это связано с тем, что основной ввод крупных объектов в Москве заявлен на 2026-2027 годы. Сложившаяся ситуация поддерживает тренд на развитие собственных корпоративных ЦОД, т.е. клиенты всё чаще рассматривают строительство собственной инфраструктуры как альтернативу аренде.

Nvidia запустила выпуск ИИ-чипов «Made in USA» и пообещала развивать американское производство

Nvidia начала выпускать графические процессоры Blackwell в США — на фабрике TSMC в Фениксе, штат Аризона. Одновременно компания объявила, что создаёт совместные предприятия по производству ускорителей и серверных систем: с Foxconn — в Хьюстоне, и с Wistron — в Далласе. Для упаковки и тестирования чипов Nvidia заключила контракты с Amkor и SPIL. Компания уже ввела в эксплуатацию более 93 тыс. м² площадей для производства и тестирования ИИ-чипов в Аризоне и Техасе в рамках усилий по переносу части производства в США.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Nvidia планирует начать массовое производство ускорителей и систем на заводах в Хьюстоне и Далласе в течение следующих 12–15 месяцев. В течение ближайших четырёх лет компания намерена инвестировать в США до полутриллиона долларов в инфраструктурные объекты для искусственного интеллекта.

«Двигатели мировой инфраструктуры ИИ впервые строятся в Соединённых Штатах, — заявил генеральный директор Nvidia Дженсен Хуанг (Jensen Huang). — Добавление американского производства помогает нам лучше удовлетворять невероятный и растущий спрос на чипы ИИ и суперкомпьютеры, укрепляет нашу цепочку поставок и повышает нашу устойчивость».

Это заявление было сделано буквально через несколько дней после того, как Nvidia удалось заключить сделку с администрацией США и избежать мер экспортного контроля в отношении своего чипа H20. Этот самый передовой чип Nvidia все ещё может экспортироваться в Китай благодаря обещанию Хуанга профинансировать центры обработки данных ИИ в США.

В настоящее время многие ИИ-компании пытаются заслужить благосклонность администрации США. OpenAI объединилась с SoftBank и Oracle для создания центра обработки данных в США стоимостью $500 млрд. Половина из запланированных Microsoft инвестиций в размере $80 млрд в 2025 финансовом году на создание центров обработки данных ИИ будет потрачена на строительство непосредственно в США.

Nvidia утверждает, что её инициативы по производству чипов в США могут создать «сотни тысяч рабочих мест и привлечь триллионы долларов в экономическую активность в ближайшие десятилетия». Однако программы по наращиванию производства чипов в США сталкиваются с серьёзными проблемами. Ответные пошлины и торговые ограничения со стороны Китая угрожают поставкам необходимого сырья, ощущается нехватка квалифицированных кадров, а действия администрации Трампа по отмене «Закона о микросхемах», принятого в 2022 году, могут отпугнуть будущих инвесторов.

Arm собралась руками Nvidia захватить половину рынка процессоров для дата-центров

Arm Holdings ожидает, что к концу 2025 года ей будет принадлежать до 50 % мирового рынка центральных процессоров (CPU), используемых в центрах обработки данных. По словам представителя компании, в 2024 году доля Arm составляла около 15 %. Предпосылкой для значительного прироста назван резкий рост популярности вычислительных систем, предназначенных для задач ИИ, где активно применяются CPU на базе архитектуры Arm.

 Источник изображения: arm.com

Источник изображения: arm.com

Процессоры Arm используются в качестве хост-компонентов в инфраструктуре ИИ-систем. Их роль заключается в управлении потоками данных между высокопроизводительными графическими ускорителями (GPU). В качестве примера Мохамед Авад (Mohamed Awad), возглавляющий направление инфраструктурных решений Arm, привёл серверные системы компании Nvidia, в которых применяется разработанный ею процессор Grace на архитектуре Arm. В отдельных системах Grace работает совместно с двумя GPU нового поколения Blackwell, также созданными Nvidia.

Авад подчеркнул, что архитектура Arm демонстрирует преимущество по показателю энергопотребления по сравнению с решениями конкурентов, включая процессоры Intel и AMD. Поскольку ИИ-системы требуют значительных энергетических ресурсов, потребность в энергоэффективных архитектурах способствует увеличению спроса на продукты Arm среди поставщиков облачных вычислений.

По словам Авада, Arm получает более высокий совокупный размер роялти с CPU, предназначенных для центров обработки данных, поскольку такие чипы используют больше компонентов интеллектуальной собственности компании. Это отличает их от менее сложных вычислительных решений, применяемых, например, в потребительских устройствах. Arm не производит микропроцессоры самостоятельно — компания лицензирует архитектуру и предоставляет интеллектуальные компоненты другим компаниям, включая облачных провайдеров и производителей, таких как Apple и Nvidia, для разработки CPU для серверов, ноутбуков и смартфонов. Выручка Arm формируется за счёт лицензионных отчислений за использование технологий и роялти за каждый произведённый чип.

В течение почти двадцати лет Arm не удавалось занять значимую долю в сегменте серверных CPU из-за доминирования архитектуры x86, разработанной Intel и AMD. Переход на платформу Arm требовал от клиентов адаптации программного обеспечения (ПО) и изменения аппаратных компонентов. Однако, по утверждению Авада, ситуация изменилась: теперь разработка ПО всё чаще ведётся сразу под архитектуру Arm.

Amazon сообщила в декабре 2024 года, что в течение последних двух лет более половины вычислительной мощности новых серверов компании обеспечивалось за счёт CPU, разработанных Amazon на базе архитектуры Arm. По данным издания Reuters, компании Alphabet (владеющая Google) и Microsoft также начали разработку собственных серверных CPU с использованием технологий Arm. Их проекты появились позже по сравнению с инициативами Amazon.

На волне ИИ-бума Китай понастроил центров обработки данных — теперь сотни из них никому не нужны

Во время «нейросетевой лихорадки» Китай вложил миллиарды в ИИ-инфраструктуру, объявив эти проекты национальным приоритетом. Однако многие недавно построенные объекты теперь пустуют, а другие изо всех сил пытаются удержаться на плаву. Появление DeepSeek сделало нерентабельным высокодоходный бизнес сдачи в аренду графических процессоров для обучения ИИ. Экономика отрасли за короткий срок радикально изменилась.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

Когда ChatGPT инициировал ИИ-бум в конце 2022 года, китайское правительство обозначило инфраструктуру ИИ как национальный приоритет, призвав ускорить разработку так называемых «интеллектуальных вычислительных центров» — термин, придуманный для описания центров обработки данных (ЦОД), ориентированных на ИИ.

По данным аналитической компании KZ Consulting, в 2023 и 2024 годах в Китае было заложено более 500 новых ЦОД и, по крайней мере, 150 из них были запущены к началу 2025 года. Государственные предприятия, публичные компании и аффилированные с государством фонды конкурировали за возможность инвестировать в них, надеясь вырваться в лидеры в ИИ-гонке. Местные органы власти рассчитывали, что новые ЦОД стимулируют экономику и сделают регион ключевым центром ИИ.

 Источник изображений: unsplash.com

Однако многие недавно построенные объекты сейчас пустуют, а большинство компаний, управляющих этими ЦОД, изо всех сил пытаются удержаться на плаву. По некоторым оценкам, невостребованными оказались до 80 % недавно введённых в строй объектов инфраструктуры ИИ. Сдача в аренду графических процессоров для обучения ИИ рассматривалась, как основная бизнес-модель для новой волны ЦОД и считалась беспроигрышным вариантом. Но с появлением моделей рассуждений, таких как DeepSeek R1, снизивших планку для обучения моделей ИИ на несколько порядков, и внезапным изменением экономики вокруг ИИ отрасль пошатнулась.

Рост числа моделей рассуждений, таких как DeepSeek R1 и OpenAI ChatGPT o1 и o3, изменил требования к ЦОД. При использовании этих моделей большинство вычислительных мощностей тратится на пошаговые логические выводы в ответ на запросы пользователей, а не на обучение модели. Процесс рассуждений даёт весьма качественные результаты, но требует больше времени. В результате определяющим фактором становятся низкие задержки, следовательно, ЦОД должны располагаться вблизи крупных технологических центров. Многие ЦОД, построенные в удалённых районах Китая, где электричество и земля дешевле, потеряли свою привлекательность для компаний ИИ.

 Источник изображений: unsplash.com

Кроме того, многие из новых центров обработки данных, которые появились в последние годы, были оптимизированы для рабочих нагрузок при обучении — больших, длительных вычислений, выполняемых на огромных наборах данных, — а не для реагирования на вводимые пользователем данные в реальном времени.

Спрос сместился в сторону оборудования с низкой задержкой для логических выводов, что снизило привлекательность ЦОД, расположенных в отдалённых регионах. DeepSeek изменила подход с «кто может создать лучшую большую языковую модель?» на «кто может лучше эту модель использовать?».

Только в 2024 году более 144 компаний зарегистрировались в Администрации киберпространства Китая — центральном интернет-регуляторе страны — для разработки собственных больших языковых моделей. Однако, по данным китайского издания Economic Observer, к концу года только около 10 % этих компаний все ещё активно инвестировали в эти проекты.

«Растущая боль, которую переживает индустрия ИИ в Китае, во многом является результатом того, что неопытные игроки — корпорации и местные органы власти — запрыгивают в поезд ажиотажа, строя объекты, которые не являются оптимальными для сегодняшних потребностей», — уверен старший советник по технологиям корпорации RAND Джимми Гудрич (Jimmy Goodrich).

 Источник изображений: unsplash.com

В результате проекты терпят неудачу, энергия тратится впустую, а ЦОД становятся «проблемными активами», которые выставляются на продажу по ценам ниже рыночных. Ситуация может в конечном итоге вызвать вмешательство правительства, которое, по словам Гудрича, «передаст их более способным операторам».

Нужно отметить и злоупотребления, сопутствующие строительству новых ЦОД. Далеко не все участники рынка стремились зарабатывать деньги на ЦОД, многие используют их для получения субсидированной зелёной энергии, которую затем перепродают в сеть с наценкой. Порой компании приобретают землю для развития ЦОД ради получения государственных займов и кредитов, даже не планируя использовать объект по назначению.

Аналитики выделяют следующие объективные причины перенасыщения рынка:

  • избыточное первоначальное финансирование на фоне упадка рынка недвижимости и стагнации интернет-индустрии;
  • спад на рынке аренды графических процессоров, значительное снижение цен;
  • разочарование инвесторов после окончания строительства, трудности с привлечением дальнейшего финансирования;
  • несоответствие многих построенных ЦОД текущим потребностям;
  • поощрение местными властями краткосрочных проектов ради повышения своего политического статуса;
  • ограниченный опыт руководителей, спешка и несоблюдение отраслевых стандартов;
  • завышенные прогнозы и манипуляции данными со стороны посредников и брокеров для получения государственных субсидий.

В этих обстоятельствах стоимость аренды графических процессоров упала до рекордно низкого уровня. По данным китайского издания Zhineng Yongxian, сервер с восемью графическими процессорами Nvidia H100 теперь сдаётся в аренду за 75 000 юаней ($10 200) в месяц, тогда как раньше стоимость аренды достигала 180 000 юаней ($24 600). Некоторые ЦОД предпочитают остановить эксплуатацию объектов, поскольку доходы не покрывают расходы на электроэнергию и обслуживание.

 Источник изображений: unsplash.com

Как это не парадоксально, Китай сталкивается с самыми высокими расходами на приобретение чипов Nvidia, но цены на аренду графических процессоров необычайно низки. В стране имеется переизбыток вычислительной мощности, особенно в центральном и западном Китае, но в то же время наблюдается нехватка передовых чипов. Часть нового спроса обусловлена ​​компаниями, развёртывающими собственные версии моделей DeepSeek. Наибольшим спросом пользуется Nvidia H20, оптимизированный для вывода ИИ, за ним следует H100, продолжающий стабильно поступать в Китай, несмотря на санкции США.

Несмотря на простой многочисленных построенных ЦОД, правительство Китая продолжает развивать ИИ-инфраструктуру. Крупные китайские технологические компании продолжают инвестировать в это направление, объявленное национальным приоритетом. Alibaba Group планирует вложить более $50 млрд в облачные вычисления и инфраструктуру ИИ в течение следующих трёх лет, а ByteDance собирается потратить около $20 млрд на графические процессоры и ЦОД.

Стоит отметить, что технологические компании США делают то же самое, принимая участие в 500-миллиардной программе Stargate, которая предусматривает создание передовых ЦОД и вычислительной инфраструктуры в течение следующих четырёх лет. Учитывая конкуренцию в области ИИ, Китай вряд ли сократит свои усилия.

«Инфраструктура станет определяющим фактором успеха, — уверен Гудрич. — Китайское правительство, скорее всего, будет рассматривать [простаивающие ЦОД] как необходимое зло для развития важной возможности, своего рода растущую боль. У вас есть провальные проекты и проблемные активы, и государство консолидирует и очистит их. Они видят цель, а не средства».

Google отключился от российских точек обмена трафиком и центров обработки данных

Компания Google отключила соединения с некоторыми российскими центрами обработки данных (ЦОД) и точками обмена трафиком (IX). Информация о таких подключениях исчезла из базы PeeringDB, обратил внимание RB.ru. Мера грозит задержками в передаче данных и ростом цен на услуги.

 Источник изображения: Mitchell Luo / unsplash.com

Источник изображения: Mitchell Luo / unsplash.com

До середины июля 2024 года в базе были указаны сведения о наличии подключения Google к DataLine-IX и DataLine OST (входят в «Ростелеком»), inet2 и W-IX («Эр-Телеком»), MegaFon-IX, DATAIX, MSK-IX и Piter-IX4. В октябре информация об этом из PeeringDB исчезла. В PeeringDB подтвердили, что такой информации больше нет, и уточнили, что удалить её могли только сотрудники Google. В «МегаФоне» сообщили, что отключение Google от точки MegaFon-IX произошло по инициативе американской компании; отключение от W-IX «Эр-Телекома» также было следствием решения Google, подтвердил источник RB.ru.

Администраторы некоторых других IX, однако, рассказали, что отключение Google было неполным. В компании «ГлобалНет» отметили, что физическое присоединение Google к DATAIX в России имеется, но американская компания перестала анонсировать и принимать маршруты через маршрутные серверы. Аналогичную ситуацию описали в MSK-IX и Piter-IX.

Google могла принять такое решение по финансовым соображениям, считают опрошенные Forbes эксперты: присутствие на IX осуществляется на платной основе, а российское юрлицо американского поискового гиганта находится в состоянии банкротства. Из-за санкций и многомиллиардных штрафов Google лишилась возможности обслуживать серверы и оплачивать услуги — не контролируя ситуацию с обслуживанием серверов, компания могла отключиться от ряда точек обмена трафиком и публично отрицать своё присутствие на оставшихся.

В результате этих мер скорость доступа к службам Google в России может снизиться, а качество сервисов — ухудшиться. Трафик будет идти через транзитную сеть, что означает рост задержек из-за увеличения числа переходов.

Meta✴ задумала построить ИИ-суперкомпьютер за $200 млрд, но это не точно

Meta обсуждает строительство нового кампуса при центре обработки данных, где будут разрабатываться проекты в области искусственного интеллекта. Стоимость объекта оценивается в $200 млрд, передаёт The Information со ссылкой на собственные источники.

 Источник изображения: Alex wong / unsplash.com

Источник изображения: Alex wong / unsplash.com

Руководство Meta сообщило компаниям, которые проектируют и возводят ЦОД, что рассматривает возможность построить кампус в штате Луизиана, Вайоминг или Техас. В феврале члены высшего руководства гиганта соцсетей посетили площадки, где может появиться комплекс объектов. В 2022 году OpenAI при поддержке Microsoft запустила сервис ChatGPT, чем спровоцировала резкий рост инвестиций в ИИ по всему миру — сегодня развернуть свои системы ИИ стремятся компании из самых разных отраслей.

Официальный представитель Meta отверг сведения о планах компании. Он заявил, что Meta уже раскрыла планы по развитию направления ЦОД, и всё выходящее за эти рамки, по его словам, является «чистой спекуляцией». В январе глава компании Марк Цукерберг (Mark Zuckerberg) заявил, что в этом году компания потратит на расширение связанной с ИИ инфраструктуры $65 млрд. Для сравнения, Microsoft в 2025 финансовом году вложит в развитие ЦОД $80 млрд; Amazon в 2025 году намеревается потратить на эти цели больше, чем $75 млрд, которые, по оценкам, потребовались в 2024 году.

В России наметился дефицит электроэнергии для обучения ИИ

В России может возникнуть недостаток электроэнергии для обучения отечественных моделей искусственного интеллекта, сообщают «Ведомости» со ссылкой на заявление директора по развитию технологи ИИ в «Яндексе» Александра Крайнова.

 Источник изображения: NASA / unsplash.com

Источник изображения: NASA / unsplash.com

Дефицит электроэнергии наблюдается как в мировом масштабе, так и в России, отметил господин Крайнов. В современных реалиях запуск крупных центров обработки данных (ЦОД) становится всё более сложной задачей. Российские компании, которые обучают ИИ с нуля, для экономии ресурсов повторно используют результаты ранее проведённых вычислений. Важнейшей задачей остаётся не только обучение ИИ-моделей, но и инференс — запуск уже обученных систем, добавил директор центра продвинутой аналитики «Альфа-банка» Алексей Каширин.

За последние 10 лет лидеры рынка инвестировали в сферу ИИ не менее 650 млрд руб., подсчитали в ассоциации «Финтех». Данных по российскому рынку ИИ за 2024 год ещё нет, но, по оценкам, речь идёт о сумме порядка 780 млрд руб. с учётом роста на 30 %. В 2025 году этот показатель, по прогнозам правительства России, достигнет 1 трлн руб.

Крупнейшими разработчиками собственных ИИ-моделей в России являются «Яндекс» и «Сбер». В арсенале первой значатся YandexGPT и «Шедеврум», а второй — GigaChat и Kandinsky. МТС, «Т-Банк» и несколько других компаний дообучили открытые модели ИИ. Небольшое число корпоративных разработчиков и энтузиастов также обучили малые модели для собственных нужд.

У крупных компаний есть собственные центры обработки данных, однако объекты, на которых развивается ИИ, потребляют больше электроэнергии. Стандартная серверная стойка для задач, не связанных с ИИ, потребляет 5–10 кВт, тогда как оборудование для ИИ может требовать до 40 кВт на стойку.

 Источник изображения: Taylor Vick / unsplash.com

Источник изображения: Taylor Vick / unsplash.com

Учитывая дефицит мест в коммерческих ЦОД, многие крупные компании за последние три года были вынуждены заняться строительством собственных мощностей. В коммерческих ЦОД России на сегодняшний день установлено более 82 000 серверных шкафов, при этом годовой рост в 2024 году составил 17 %, подсчитали в ГК Softline. Количество корпоративных ЦОД значительно выше.

Потребление электроэнергии отечественными дата-центрами по состоянию на апрель 2024 года составляло около 2,6 ГВт, что эквивалентно 1 % установленной мощности Единой энергосистемы (ЕЭС) России. Если учитывать американский опыт, рост потребления в этом сегменте может составлять 30–40 % в год.

На начало 2025 года установленная мощность электростанций ЕЭС России составляла 263,7 ГВт, а максимальное потребление, зафиксированное в январе 2024 года, достигало 168,3 ГВт, что говорит о наличии запаса мощности. Однако из-за промышленного производства, криптовалютного майнинга и роста энергопотребления в отдельных регионах возможен дефицит — в первую очередь на юге России, в Сибири и на Дальнем Востоке. По прогнозам, на юго-востоке Сибири в 2025–2030 годах нехватка мощности может составить до 2,9 ГВт, аналогичный дефицит ожидается и в Объединённой энергосистеме Юга.

Таким образом, в масштабах страны проблем с выработкой электроэнергии нет, однако существуют сложности с её доставкой и распределением. В мегаполисах возможна точечная нехватка электроэнергии, тогда как в регионах, напротив, сохраняется профицит. Это создаёт предпосылки для развития инфраструктуры ЦОД в регионах, хотя на данный момент массового переноса дата-центров не ожидается.

Спрос на мощности ЦОД сегодня превышает предложение. По оценкам экспертов, на поиск места для строительства крупного объекта мощностью 60 МВт может уйти до трёх лет. В Москве, по различным данным, осталось около 50 МВт свободных мощностей, которых хватит на 2–4 крупных коммерческих ЦОД. В южной части энергосистемы Московского региона к 2030 году дефицит, по данным оператора ЕЭС, может достигнуть 564 МВт, а к 2042 году — уже 3,15 ГВт.

Meta✴ потратит $65 млрд на ИИ-проекты в этом году и построит гигантский дата-центр

Гендиректор Meta Platforms Марк Цукерберг (Mark Zuckerberg) сообщил о планах компании инвестировать в 2025 году до $65 млрд в проекты, связанные с искусственным интеллектом. Среди этих капитальных затрат значится включая строительство нового гигантского центра обработки данных (ЦОД) и увеличение найма специалистов в команды по разработке технологий ИИ.

 Источник изображения: Jordan Harrison

Источник изображения: Jordan Harrison

Компания направит часть средств на строительство ЦОД, который, по словам Цукерберга, будет «настолько большим, что мог бы покрыть значительную часть Манхэттена». Meta планирует ввести в эксплуатацию около 1 ГВт вычислительной мощности в 2025 году и, по прогнозам, завершить год с более чем 1,3 млн графических процессоров, добавил он.

«Это огромные усилия, и в ближайшие годы они будут стимулировать развитие наших основных продуктов и бизнеса, открывать исторические инновации и укреплять американское технологическое лидерство», — написал Цукерберг в своем сообщении.

Meta, как и другие ведущие технологические компании, стремится строить более крупные ЦОД, чтобы обеспечить растущую потребность в мощных вычислительных системах для разработки более совершенных моделей ИИ, отметил Bloomberg.

Ранее на этой неделе OpenAI, SoftBank Group и Oracle объявили о создании совместного предприятия Stargate для строительства ЦОД и инфраструктурных проектов ИИ на территории США. Компании планируют инвестировать до $500 млрд в течение четырёх лет при поддержке ряда других крупных технологических корпораций.

В феврале будет запущен первый лунный центр обработки данных

Новый виток космической гонки по всему миру привлёк множество частных компаний. Они реализуют различные проекты от доставки грузов до строительства объектов на Луне. А скоро на естественном спутнике Земли может заработать и первый центр обработки данных.

 Источник изображения: Andrew Hughes / unsplash.com

Источник изображения: Andrew Hughes / unsplash.com

Первый лунный ЦОД под названием Freedom Data Center собирается запустить компания из Флориды Lonestar Data Holdings. Компактный, но полностью работоспособный объект отправится на Луну в посадочном модуле Intuitive Machines на борту ракеты SpaceX Falcon 9 в феврале. Компания уверяет, что хранение данных на Луне даёт уникальные преимущества. Это непревзойдённая физическая безопасность, защита от стихийных бедствий, киберугроз и геополитических конфликтов, которые могут создать угрозу сохранности данных на Земле. Небольшой объект на солнечной энергии значительно меньше вредит экологии, чем энергоёмкие земные ЦОД; на Луне также обеспечивается естественное охлаждение для твердотельных накопителей.

Lonestar нашла для своей лунной платформы несколько известных клиентов. В их число вошли власти штата Флорида и Острова Мэн, специализирующаяся на искусственном интеллекте компания Valkyrie и играющий в жанре поп-рока коллектив Imagine Dragons. Lonestar разрабатывала проект много лет, и в 2021 году успешно протестировала хранилище данных на МКС. Но размещение ЦОД на поверхности Луны представляет собой более сложную техническую задачу: проблемы могут возникнуть из-за суровых условий, трудностей с обслуживанием и астрономических затрат; существуют и неизбежные риски, связанные с запуском объекта в космос. Если что-то пойдёт не так, у оператора не будет возможности восстановить оборудование. Поэтому резервная копия информации из лунного ЦОД будет храниться на Земле на объекте Flexential в Тампе (Флорида).

Компания пока не опубликовала конкретных эксплуатационных данных и характеристик оборудования; неизвестно и как она собирается обеспечивать связь между лунными и наземными объектами. Лунный ЦОД планирует построить и стартап Lumen Orbit, который недавно привлёк $11 млн вложений при оценке в $40 млн.

Изменение 30 строк кода Linux снизит энергопотребление ЦОД на 30 %, выяснили учёные

Небольшое изменение в коде Linux, операционные системы на базе которого используются большинством центров обработки данных, способно сократить потребление энергии серверами на величину до 30 %, утверждают учёные Университета Ватерлоо (Канада).

 Источник изображения: Scott Graham / unsplash.com

Источник изображения: Scott Graham / unsplash.com

Профессор информатики Мартин Карстен (Martin Karsten) и Питер Цай (Peter Cai), аспирант на математическом факультете Университета Ватерлоо, обнаружили, что механизм обработки сетевых пакетов в ЦОД неэффективен. Они разработали небольшое изменение, чтобы значительно улучшить этот показатель. «Мы ничего не добавляли. Мы просто изменили очерёдность того, что и когда делается, и это помогло намного улучшить использование кешей центральных процессоров в ЦОД. Это как изменить схему конвейера на заводе, чтобы люди постоянно не бегали», — рассказал профессор Карстен.

При участии инженера Джо Дамато (Joe Damato) из компании Fastly — CDN-провайдера — был разработан фрагмент кода на 30 строк, который оптимизирует обработку сетевого трафика в Linux и на 30 % сокращает энергопотребление ЦОД в важных операциях. Код был включён в ядро Linux 6.13.

«Все эти крупные компании — Amazon, Google и Meta — в той или иной степени используют Linux, но они очень разборчивы в его применении. Если они решат „включить“ наш метод в своих центрах обработки данных, это поможет сэкономить гигаватт-часы энергии по всему миру. Это может оказать положительное влияние практически на каждый сервисный запрос в интернете», — добавил профессор Карстен.


window-new
Soft
Hard
Тренды 🔥
Electronic Arts анонсировала открытую «бету» Battlefield 6, а в приложении EA App засветились её подробности 9 мин.
Плохо прогнозируемый эффект от применения ИИ — один из основных барьеров, сдерживающих его использование в промышленности 17 мин.
ИИ-модель Google Gemini получила золотую медаль Международной математической олимпиады 2 ч.
OpenAI раскрыла масштабы популярности ChatGPT: каждый день бот получает 2,5 млрд запросов 11 ч.
Microsoft реализовала на ПК и консолях Xbox кроссплатформенную историю запущенных игр, но пока не для всех 12 ч.
Календарь релизов —21–27 июля: Killing Floor 3, Wuchang: Fallen Feathers и The King is Watching 12 ч.
Дуров призвал сообщать ему о вымогателях в Telegram, охотящихся за подарками — но это не бесплатно 12 ч.
Спустя два года после релиза в Avatar: Frontiers of Pandora всё-таки добавят функции, которые фанаты просили больше всего 14 ч.
Microsoft ускорила запуск приложений Office, но это может замедлить загрузку Windows 15 ч.
Цензура была не зря: Ready or Not продаётся на PS5, Xbox Series X и S в 10 раз быстрее, чем на ПК 15 ч.
Новая статья: Безопасный выход в интернет для аэропортов как объектов КИИ: как преодолеть дилемму изоляции и безопасности 34 мин.
Китайская YMTC рассчитывает запустить импортозамещённую производственную линию и к концу 2026 года занять 15 % рынка NAND 2 ч.
Телефон Escobar Fold 2 оказался фальшивкой — создателю бренда грозит 20 лет тюрьмы 3 ч.
Google раскрыла дизайн Pixel 10 за месяц до презентации, не дожидаясь утечек 3 ч.
Один из первых ЦОД для проекта Stargate появится в США к концу этого года 3 ч.
В ближайшие пару лет Apple будет привлекать покупателей сверхтонкими и складными iPhone соответственно 5 ч.
Новая статья: Система жидкостного охлаждения MSI MAG CoreLiquid A13 360: добавляем в закладки ещё одну 10 ч.
Амстердам и Франкфурт выбыли из первой двадцатки локаций гиперскейлеров 14 ч.
Ryzen Threadripper Pro 9995WX разогнали до 5 ГГц на всех 96 ядрах: 950 Вт потребления и 186 тыс. баллов в Cinebench R23 14 ч.
Tesla попытается остановить падение продаж электромобилей скидками, бесплатной зарядкой и другими бонусами 14 ч.