Сегодня 07 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → цод
Быстрый переход

Китай погрузит дата-центры под воду, чтобы Земля стала чище

Затраты на энергоснабжение мощных центров обработки данных велики ещё и по той причине, что им требуется серьёзное охлаждение, и в целом обеспечение таких объектов электроэнергией увеличивает углеродные выбросы в атмосферу. Китайские разработчики пытаются снизить это пагубное влияние за счёт создания подводных центров обработки данных.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Производитель различного морского оборудования Highlander в сотрудничестве со строительными компаниями в Шанхае пытается создать погружной центр обработки данных, который смог бы работать в море у берегов Шанхая. Его конструкция напоминает огромную жёлтую бочку с порталом для подключения необходимых коммуникаций. Подводные центры обработки данных, по мнению участников эксперимента, имеют важное преимущество, поскольку могут охлаждаться океанскими течениями.

Microsoft ещё в 2018 году испытала подобное решение у берегов Шотландии, но китайский проект, который будет запущен в середине этого месяца, готов работать на коммерческой основе. Клиентами подводного ЦОД в Шанхае готовы стать оператор связи China Telecom и одна из местных компаний ИИ-сектора с государственным участием. По словам вице-президента Highlander, подводные ЦОД позволяют сократить расходы энергии на своё охлаждение на величину до 90 %.

Highlander в 2022 году получила от властей Китая субсидии в размере $5,62 млн на реализацию схожего проекта в провинции Хайнань, который до сих пор функционирует. Как отмечают специалисты Highlander, с точки зрения технической реализации подобные проекты обычно таят больше трудностей, чем ожидается изначально. Высокая стоимость и потенциальное влияние на экологию моря являются факторами, которые пока сдерживают широкое распространение подводных центров обработки данных.

Шанхайский проект Highlander будет более 95 % электроэнергии, необходимой для своей работы, получать от ветряных источников генерации. При создании герметичной капсулы корпуса ЦОД важно обеспечить защиту от длительного воздействия солёной воды, которая вызывает коррозию. Highlander покрывает стальной корпус капсулы специальным составом на основе частиц стекла. На поверхности моря расположится шлюзовой отсек, который будет перемещать обслуживающий персонал до погружённой в море капсулы ЦОД при помощи специального лифта.

Примечательно, что японским учёным уже удалось найти специфические уязвимости подводных ЦОД с точки зрения информационной безопасности. Как выясняется, злоумышленники могут атаковать их при помощи звуковых волн, распространяемых в воде. Экологи озабочены тем, что выделяемое подводным ЦОД тепло может оказывать влияние на экосферу в окрестностях. Часть обитателей моря при изменении температурного режима может переселиться в более прохладные районы, тогда как теплолюбивые соседи займут их место. Конечный эффект подобной миграции морской фауны предугадать сложно. Влияние этого фактора на экологию заметно усилится по мере масштабирования вычислительных мощностей в конкретном районе акватории. Скорее всего, подводные ЦОД не заменят собой наземные полностью, а будут уживаться с ними, как считают эксперты.

На орбите появятся гигантские дата-центры для ИИ в течение десяти лет, уверен Джефф Безос

Выступая на технологической конференции в итальянском Турине на этой неделе, основатель и бывший руководитель Amazon Джефф Безос (Jeff Bezos) не только охарактеризовал состояние ИИ-отрасли и её ближайшее будущее, но и выразил уверенность, что в течение 10–20 лет станет возможным создание центров обработки данных в космосе.

 Источник изображения: AWS

Источник изображения: AWS

По мнению Безоса, доступ к непрерывным потокам солнечной энергии позволит таким центрам обработки данных превосходить по производительности те, что расположатся на Земле. По своей мощности они будут достигать гигаваттных масштабов, как убеждён миллиардер. «Гигантские обучающие кластеры, их лучше строить в космосе, поскольку мы имеем доступ к солнечной энергии в режиме 24/7. Там нет облачность и дождей, нет погоды. Мы сможем осилить расходы по созданию внеземных центров обработки данных в ближайшие пару десятилетий»,заявил Безос.

Смещение в сторону космической инфраструктуры, по его мнению, станет частью более масштабной инициативы по улучшению жизни на Земле благодаря освоению космоса. Как он отметил, это уже произошло с метеорологическими и телекоммуникационными спутниками. Следующим этапом станут центры обработки данных, а потом дело дойдёт до некоторых видов производственной деятельности. Говоря о перспективах распространения ИИ в целом, Безос добавил: «Мы должны быть предельно оптимистичны в том, что социальные блага, которые приносит ИИ, подобные тем, что наблюдались 25 лет по мере распространения интернета, реальны и останутся надолго». Он убеждён, что нужно отделять потенциальные «пузыри» и последствия от их схлопывания, которые могут как случиться, так и нет, от объективной реальности.

ИИ-пузырь покорил новую веху: капитализация Nvidia превысила $4,5 трлн

Акции Nvidia во вторник достигли нового рекорда, поднявшись почти на 3 %, что увеличило рыночную капитализацию производителя чипов до невероятных $4,5 триллиона. За год акции Nvidia выросли примерно на 49 % и продолжают привлекать инвесторов, поскольку компания наращивает темпы заключения сделок, укрепляя свои позиции в центре бума искусственного интеллекта, сообщает CNBC.

 Источник изображения: Nvidia

Источник изображения: Nvidia

На прошлой неделе OpenAI заявила, что Nvidia приобретёт долю в стартапе в сфере ИИ на сумму до $100 млрд и построит центры обработки данных стоимостью в сотни миллиардов долларов, которые будут оснащаться графическими ускорителями Nvidia. Затем OpenAI объявила о строительстве пяти новых крупных центров обработки данных совместно с Oracle в рамках ИИ-мегапроекта Stargate. По словам компаний реализация плана обойдётся в $500 млрд.

Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) заявил, что на продукцию Nvidia приходится около 70 % расходов на новые центры обработки данных для ИИ.

Аналитики Citi во вторник повысили целевую стоимость акций Nvidia с $200 до $210, ссылаясь на прогноз роста расходов на инфраструктуру ИИ после анонсов OpenAI.

«Мы считаем, что OpenAI обратилась к Nvidia за помощью, поскольку у Nvidia есть очень привлекательный продукт, а число пользователей и объёмы потребляемых вычислительных мощностей на одного пользователя растут», — цитирует CNBC аналитика Citi Атифа Малика (Atif Malik).

Meta, Google и другие компании также значительно увеличивают свои расходы на инфраструктуру. CoreWeave, поставщик облачных услуг, крупным акционером которого является Nvidia, сообщил во вторник о достижении соглашения о поставке Meta услуг по инфраструктуре ИИ на сумму $14,2 млрд.

Акции Nvidia в этом году опережают по темпам роста всех конкурентов, за исключением производителя микросхем Broadcom, бумаги которого выросли примерно на 40 %, чему также способствовал OpenAI.

Совместный проект Nvidia и OpenAI потребует энергию 10 ядерных реакторов

Компании Nvidia и OpenAI неделю начали с заявления о намерениях направить $100 млрд на строительство центров обработки данных совокупной мощностью 10 ГВт. Для их обеспечения электроэнергией, по сути, потребовались бы 10 ядерных реакторов, таких как работают на Ленинградской АЭС. Кроме того, это почти втрое больше, чем в среднем потребляли все дата-центры Google во всём мире в 2024 году.

 Источник изображения: Unsplash, Lukáš Lehotský

Источник изображения: Unsplash, Lukáš Lehotský

Как успел заявить в интервью CNBC основатель и генеральный директор Nvidia Дженсен Хуанг (Jensen Huang), уровень энергопотребления в 10 ГВт соответствует от 4 до 5 млн ускорителей вычислений, и подобное количество продукции компания намерена поставить по итогам текущего года. Это один из редких случаев, когда глава Nvidia количественно характеризует возможности своей компании. По его словам, в прошлом году она поставила вдвое меньше ускорителей. Уже только эти заявления позволяют судить о масштабе совместного проекта Nvidia и OpenAI.

По информации Ars Technica, типовой центр обработки данных в наши дни потребляет от 10 МВт до 1 ГВт, но чаще всего встречаются объекты с уровнем энергопотребления от 50 до 200 МВт. Проект OpenAI и Nvidia будет по уровню энергопотребления сопоставим с несколькими крупными городами, а также почти втрое превысит «аппетиты» всех ЦОД компании Google — по итогам 2024 года их средняя мощность достигла 3,67 ГВт. Также мощность проекта OpenAI и Nvidia можно легко представить в ядерных реакторах — например, для его питания потребовалось бы больше десятка реакторов РБМК-1000 (чистая мощность 925 МВт) или ВВЭР-1000 (950 МВт), используемых на Ленинградской АЭС и Ростовской АЭС соответственно.

Сделка между OpenAI и Nvidia превращает последнюю в одного из крупнейших партнёров первой наряду с Microsoft, Oracle и SoftBank, которые будут принимать участие в мегапроекте Stargate. Поскольку значительная часть затрат на строительство ЦОД подразумевает закупку ускорителей Nvidia, основная доля заявленных компанией инвестиций в размере $100 млрд вернётся на её счета.

Ранее глава Nvidia пояснял, что строительство гигаваттного центра обработки данных в среднем обходится в сумму от $50 до $60 млрд, причём до $35 млрд из них расходуются на закупку её ускорителей вычислений. При таких ценах ЦОД на 10 ГВт обойдётся как минимум в $500 млрд. Потребности в энергоснабжении всё чаще подталкивают владельцев крупных ЦОД заключать соглашения с поставщиками электричества, вырабатываемого на АЭС. Ещё в сентябре прошлого года глава OpenAI Сэм Альтман (Sam Altman) признался Bloomberg, что компания намерена построить не менее семи ЦОД мощностью по 5 ГВт каждый. В совокупности они бы потребляли электроэнергии в два раза больше, чем весь штат Нью-Йорк. Уже эксплуатируемые в мире ЦОД в 2024 году потребляли 1,5 % всей вырабатываемой электроэнергии, и эта доля будет стремительно расти.

Microsoft рассказала, что нужно собрать вместе для обучения самых продвинутых ИИ-моделей

Microsoft заявила, что находится на завершающей стадии строительства нового инфраструктурного объекта стоимостью $3,3 млрд в Висконсине. В компании этот объект называют «самым передовым в мире центром обработки данных (ЦОД) для искусственного интеллекта». Его введут в эксплуатацию в начале 2026 года, и первоначально он будет использоваться для обучения ИИ-моделей OpenAI. Об этом заявил вице-председатель и президент Microsoft Брэд Смит (Brad Smith).

 Источник изображения: Microsoft

Источник изображения: Microsoft

Во время выступления Смит также сообщил, что в дальнейшем вычислительные мощности этого ЦОД смогут задействовать как сторонние компании и сама Microsoft. Он также анонсировал строительство ещё одного ЦОД в этом районе, который будет сопоставим по мощности и выполняемым задачам с первым. Для реализации этого проекта софтверный гигант выделит $4 млрд.

Смит подчеркнул, что уникальность и передовой уровень проекта обеспечиваются комбинацией трёх факторов: количества ускорителей от Nvidia, мощности этих ускорителей, а также сетевой инфраструктуры и систем, объединяющих эти мощности воедино. «Если собрать всё вместе, то это позволит обучать более продвинутые ИИ-модели, чем когда-либо прежде», — заявил Смит.

ЦОД Microsoft в Висконсине включает в себя три двухэтажных здания суммарной площадью около 111,5 тыс. м², которые возведены на участке площадью примерно 1275 Га. По данным Microsoft, на этом объекте размещены сотни тысяч ИИ-ускорителей Nvidia GB200. На уровне серверных стоек ускорители обмениваются данным со скоростью до нескольких терабайт в секунду. Отмечается, что ЦОД построен по двухэтажной схеме, что обеспечивает более тесное сетевое взаимодействие и снижение задержек. При строительстве объекта было задействовано около 193 км кабелей среднего напряжения и около 117 км трубопроводов для прокладки коммуникаций.

Анонсированный ЦОД стоимостью $4 млрд станет третьим подобным объектом в семействе передовых дата-центров Fairwater. Первым таким объектом является ЦОД в Висконсине, а ещё один такой ЦОД возведут в Джорджии. Смит сообщил, что Microsoft купила участок земли у тайваньской Foxconn, которая ранее объявила о намерении инвестировать $10 млрд в регион, но так и не реализовала свои планы в полной мере. «Нам удалось купить эту землю. Мы воспользуемся преимуществами уже имеющейся там инфраструктуры и проведённых подготовительных работ», — добавил Смит.

По словам президента Microsoft, система охлаждения ЦОД в Висконсине является ещё одним аспектом, которые делают данный объект передовым. «Один из главных вопросов, который актуален сейчас в Висконсине, заключается в том, строят ли компании центры обработки данных вблизи озера Мичиган, чтобы использовать огромное количество воды из озера. Ответ – нет», — заявил Смит.

Более 90 % помещений объекта в Висконсине будут обслуживаться системой замкнутого цикла, которая обеспечивает рециркуляцию воды и химикатов и не нуждается в повторном заполнении. Оставшаяся часть помещений будет использовать систему воздушного кондиционирования, переключаясь на водяное охлаждение только при необходимости в особо жаркие периоды. По данным Microsoft, общее годовое потребление воды одним ЦОД в кампусе будет сопоставимо с объёмом, который использует поле для гольфа с 18 лунками за неделю в летние месяцы или ресторан за год.

Смит также отметил, что компания с пониманием относится к озабоченности местных жителей по поводу увеличения энергопотребления в регионе из-за появления ЦОД, что может привести к росту цен для населения. Он заявил, что Microsoft договорилась с местным поставщиком коммунальных услуг WE Energies о повышении тарифов для компании, чтобы взять на себя эти расходы.

Axiom Space представила первый орбитальный ЦОД на МКС

Компания Axiom Space с партнёрами сообщила о создании первого орбитального дата-центра, который разместился на МКС. Этот ЦОД будет обслуживать не только станцию, но также любые спутники с оптическими терминалами на борту. Аппаратам в космосе больше не нужно будет ждать очереди или удобного положения на орбите для передачи данных на Землю. ЦОД на МКС сам обработает сырые данные со спутников и передаст на Землю итоговый результат.

 Источник изображения: ИИ-генерация Grok 3/3DNews

Источник изображения: ИИ-генерация Grok 3/3DNews

В космосе и на МКС в частности давно наблюдается дефицит вычислительных мощностей и каналов связи. Проект орбитальных ЦОД (ODC) с оптическими каналами связи в виде ячеистой сети позволяет решить вопрос как с трафиком, так и с проведением расчётов на месте. Проект компании Axiom Space, реализуемый совместно с компаниями Spacebilt, Microchip Technology, Phison Electronics и Skyloom, стал первым крупным шагом на пути к поставленной цели.

Модуль ЦОД и необходимые внутренние и внешние компоненты для его работы по оптическим каналам связи на борту МКС был доставлен на станцию в августе. Сегодня он формально приступил к работе. Это платформа AxDCU-1 в виде автономного сервера на платформе Red Hat Device Edge, специально разработанной для сред с ограниченными ресурсами. Непосредственно сервер создан компанией Spacebilt, которая использовала 64-разрядные процессоры Microchip PIC64-HPSC и накопители SSD Phison Pascari объёмом 128,88 Тбайт.

Для работы ЦОД в сети космической оптической связи компания Skyloom создала терминал. В дальнейшем он будет использоваться как коммерческими спутниками, так и государственными. Терминал способен обеспечить скорость связи с ЦОД на борту МКС до 2,5 Гбит/с. В будущем скорость обмена будет повышена до 100 Гбит/с.

«Мы закладываем фундамент оптической магистрали, которая однажды сделает космос таким же подключенным и богатым данными, как Земля, — сказал Эрик Мольцау (Eric Moltzau), коммерческий директор Skyloom. — Обеспечивая высокоскоростную оптическую связь с узлом AxODC, мы ускоряем будущее орбитальных облачных вычислений и принятия решений в космосе на основе искусственного интеллекта».

Облаку в космосе — быть, уверены в Axiom Space, запуская работу ЦОД на Международной космической станции.

OpenAI готова зарабатывать на создании ЦОД для клиентов

Стартап OpenAI, который долгое время специализировался на обучении больших языковых моделей и опирался главным образом на арендованные вычислительные мощности, всё чаще задумывается об усилении вертикальной интеграции бизнеса. Получив опыт в создании инфраструктуры, OpenAI готов зарабатывать на этом при реализации проектов для своих клиентов.

 Источник изображения: Unsplash, İsmail Enes Ayhan

Источник изображения: Unsplash, İsmail Enes Ayhan

Подобные заявления вчера прозвучали из уст финансового директора OpenAI Сары Фрайар (Sarah Friar) в интервью, на которое ссылается Bloomberg. Сама идея подобного источника дополнительного дохода возникла у руководства OpenAI в результате изучения опыта Amazon, чьё облачное подразделение AWS сдаёт в аренду собственные вычислительные мощности, которые в определённый период не загружены работой.

Впрочем, как подчеркнула Фрайар, именно сейчас OpenAI о подобных услугах не задумывается, поскольку сосредоточена на обеспечении собственных потребностей в вычислительных ресурсах. «Но я думаю об этом, как о бизнесе в определённой перспективе, безусловно», — отметила финансовый директор компании. За последние годы она обрела определённый опыт в создании вычислительной инфраструктуры, а потому готова зарабатывать на этом в будущем. Кроме того, OpenAI намерена меньше зависеть от подрядчиков в этой сфере, поскольку их привлечение подразумевает передачу ценной интеллектуальной собственности сторонним компаниям.

Десятки миллиардов долларов, которые OpenAI при участии партнёров типа SoftBank и Oracle готова тратить на расширение своих вычислительных мощностей, всё равно являются каплей в море, поскольку генеральный директор Сэм Альтман (Sam Altman) в этом месяце призвал общественность быть готовой к тому, что в не очень отдалённом будущем компания начнёт тратить на строительство ЦОД триллионы долларов США. Кроме того, OpenAI работает над созданием «весьма интересного финансового инструмента», который позволит обеспечивать подобную деятельность необходимыми средствами.

Как отметила финансовый директор OpenAI, теперь компания готова финансировать свою деятельность и за счёт заёмных средств, а не полагаться только на целевые инвестиции партнёров. Разрабатываются и новые финансовые инструменты, о которых говорил Альтман. Проблема заключается в том, что даже быстро наращивая выручку, OpenAI всё равно тратит больше, чем зарабатывает, поэтому кредиторы к её бизнес-модели вполне обоснованно могут относиться настороженно. В июле размер выручки OpenAI впервые превысил $1 млрд, как подчеркнула Фрайар. По слухам, компания также продолжает привлекать капитал через продажу собственных акций. Капитализация бизнеса может достичь $500 млрд по итогам очередного раунда финансирования, который позволит привлечь на нужды OpenAI до $41 млрд в совокупности. Количество желающих вложиться в компанию велико, по словам финансового директора, поэтому планы по привлечению капитала с лёгкостью перевыполняются.

Meta✴ временно поселила ИИ-серверы в палатки

Компания Meta активно развивает технологии искусственного интеллекта и наращивает вычислительные мощности — в условиях дефицита площадей для размещения серверных стоек компания дошла до того, что временно размещает центры обработки данных в палатках.

 Источник изображения: Patrick Hendry / unsplash.com

Источник изображения: Patrick Hendry / unsplash.com

В гонке за созданием технологий передового искусственного интеллекта компания Meta переманивает ведущих профильных специалистов из других компаний; кроме того, уже строится колоссальный 5-гигаваттный ЦОД под названием Hyperion. Компания настолько стремится нарастить свою вычислительную мощность, что буквально ставит палатки для временного размещения ЦОД, пока основные объекты ещё строятся.

Всё это указывает, что Meta, уступившая инициативу таким игрокам как OpenAI, xAI и Google, стремится наверстать упущенное, и глава компании Марк Цукерберг (Mark Zuckerberg) не готов ждать стандартных сроков строительства, чтобы сократить разрыв. «Этот проект отличают не красота или избыточность. Речь идёт о срочном запуске вычислительных ресурсов! От сборных энергетических и охлаждающих модулей до сверхлёгких конструкций — решающее значение имеет скорость, и резервных источников энергии (таких как дизельные генераторы) не предусматривается», — пишет SemiAnalysis.

Гигантский ЦОД Hyperion будет расположен в американском штате Луизиана; к 2030 году он выйдет на мощность 2 ГВт, передаёт TechCrunch со ссылкой на официального представителя Meta Эшли Габриэль (Ashley Gabriel).

В России намерены запретить майнинг в ЦОД

Вскоре в Госдуме во втором чтении будет рассматриваться законопроект о ЦОД, в который правительство и депутаты внесли поправки о создании реестра дата-центров, их правовом определении и запрете на майнинг. Предполагается, что запрет на майнинг в ЦОД исключит возможность получения майнерами льгот в качестве участников рынка дата-центров, пишет РБК.

 Источник изображения: Dmytro Demidko/unsplash.com

Источник изображения: Dmytro Demidko/unsplash.com

В первом чтении законопроект с поправками в закон «О связи» был принят в 2022 году. Он был разработан по поручению президента России, данному в 2020 году, — обеспечить решение вопросов льготной поддержки ЦОД и компенсации издержек на электроэнергию.

Подготовленный ко второму чтению законопроект, в дополнение к закону «О связи», вносит изменения в законы «О концессионных соглашениях», «О государственно-частном партнёрстве» и «О цифровых финансовых активах».

В частности, предлагается отнести ЦОД к сооружениям связи с соответствующей корректировкой их определения. Также будет создан реестр ЦОД, который будет вести Минцифры. Владельцы дата-центров смогут включаться в него на добровольной основе. Для ЦОД, включённых в реестр, вводится запрет на размещение майнинговой инфраструктуры и осуществление майнинга.

Как отметил руководитель аппарата правительства Дмитрий Григоренко, для эффективной работы рынка ЦОД, а также увеличения количества и мощности дата-центров в условиях цифровизации и внедрения ИИ-технологий необходимо прозрачное и понятное регулирование. «В первую очередь мы законодательно закрепляем, что ЦОД — это объект связи, а не просто серверная. Чёткие правила создадут основу для дополнительных мер поддержки, привлечения частных инвестиций и развития технологий», — подчеркнул он. Создание реестра, как ожидается, устранит бюрократические проволочки, поскольку статус ЦОД можно будет подтвердить одной выпиской.

Без чёткого определения дата-центра всё труднее становится реализовывать новые проекты по их созданию, подключать энергомощности, получать меры поддержки, считает генеральный директор Координационного совета по ЦОД и облачным технологиям (АНО КС ЦОД) Дмитрий Бедердинов.

По словам источника РБК, запрет на майнинг был добавлен в законопроект в качестве превентивной меры — чтобы исключить возможность получения майнерами льгот, которые распространяются на объекты связи.

Создание реестра позволит государству более точно оценивать объёмы и распределение инфраструктуры, а участникам рынка — подтверждать свой статус и надёжность для клиентов и партнёров, поддержал инициативу технический директор Selectel Кирилл Малеванов.

Илон Маск перевезёт электростанцию из-за границы в США для своего прожорливого ИИ

В новых центрах обработки данных принадлежащей Илону Маску (Elon Musk) компании xAI будут размещаться миллионы ИИ-ускорителей, что приведёт к существенному росту потребления электроэнергии. Для решения этой проблемы миллиардер купил за рубежом электростанцию и планирует перевезти её в США. Об этом недавно во время подкаста рассказал аналитик SemiAnalysis Дилан Патель (Dylan Patel), а позднее подтвердил и сам бизнесмен.

 Источник изображения: xAI

Источник изображения: xAI

Уже имеющийся в распоряжении xAI суперкомпьютер Colossus входит в число самых мощных и энергоёмких. Он использует примерно 200 тыс. графических ускорителей Nvidia поколения Hopper и потребляет около 300 МВт электроэнергии, из-за чего xAI столкнулась с трудностями при обеспечении его достаточной мощностью.

По мере развития компании проблемы становятся всё серьёзнее. xAI и Маск должны решить грандиозную задачу по обеспечению энергией нового ЦОД, в котором, как ожидается, будет использоваться 1 млн ИИ-ускорителей. Такой объект потенциально может потреблять столько же электроэнергии, сколько необходимо для питания 1,9 млн домохозяйств.

По словам Пателя, xAI собрала огромные вычислительные ресурсы и команду талантливых исследователей для разработки ИИ-бота Grok. Однако впереди компанию ждут ещё более масштабные задачи. Не секрет, что xAI столкнулась с трудностями при обеспечении энергией своего ЦОД в Мемфисе, штат Теннесси. Для его работы с 200 тыс. ИИ-ускорителями задействовано 35 газовых турбин, способных вырабатывать суммарно 420 МВт энергии, в сочетании с системой накопления Tesla Megapack.

Помимо Colossus компания быстрыми темпами наращивает мощности. xAI приобрела завод в Мемфисе и сейчас преобразует его в ЦОД, способный вместить не только огромное количество графических ускорителей Nvidia, но и вспомогательное оборудование. Миллион ИИ-ускорителей Nvidia Blackwell будут потреблять от 1000 МВт (1 ГВт) до 1400 МВт (1,4 ГВт) энергии — в зависимости от модели ускорителей (B200, GB200, B300, GB300) и их конфигурации.

Графические ускорители — не единственная нагрузка на систему питания. Необходимо учитывать энергопотребление процессоров, оперативной памяти DDR5, накопителей, сетевого оборудования, систем охлаждения и кондиционирования воздуха, а также неэффективность источников питания. Одна крупномасштабная солнечная электростанция не способна круглосуточно обеспечивать энергией такой ЦОД. Для этого потребовалось бы огромное количество солнечных панелей, способных вырабатывать несколько гигаватт энергии, и массивные аккумуляторы для её накопления, что невыгодно с финансовой точки зрения.

Более практичным и часто применяемым вариантом является строительство нескольких парогазовых установок, работающих на природном газе и способных вырабатывать от 0,5 МВт до 1500 МВт энергии каждая. Такой подход относительно быстро разворачивается (несколько лет), позволяет масштабировать мощности поэтапно и интегрировать их с существующими электросетями. Возможно, xAI выберет именно этот путь для обеспечения энергией своего нового ЦОД.

Альтернативы, такие как ядерные реакторы, теоретически могли бы удовлетворить потребности xAI с меньшим количеством энергоблоков (каждый вырабатывает около 1000 МВт) и без прямых выбросов углекислого газа. Однако проектирование, получение разрешений и строительство атомных станций требует значительно больше времени (до 10 лет). Маловероятно, что Маск купил за границей атомную станцию и планирует её транспортировку в США.

На практике любая компания, пытающаяся ввести в эксплуатацию систему мощностью 1,4–1,96 ГВт, становится крупным промышленным потребителем энергии. Существующий ЦОД xAI обеспечивается энергией, вырабатываемой собственными турбинами, а также закупаемой у сторонних поставщиков. Вероятно, новый объект будет питаться по аналогичной схеме.

Судя по всему, покупка электростанции в США могла бы занять слишком много времени. Поэтому xAI приобрела станцию за рубежом и теперь планирует перевезти оборудование в США. Это подчёркивает, что развитие ИИ сегодня зависит не только от аппаратного и программного обеспечения, но и от способности быстро обеспечить инфраструктуру необходимым объёмом энергоснабжения.

Meta✴ готова привлечь $29 млрд на расширение вычислительных мощностей в США

Утверждение о том, что потоки денежных средств, генерируемые продажей рекламы в социальных сетях, принадлежащих Meta Platforms, с запасом покрывают её потребности в инвестициях на направлении искусственного интеллекта, в реальности может не пройти проверку временем. Компания готова привлечь на соответствующие цели $29 млрд у инвесторов.

 Источник изображения: X, Mark Zuckerberg

Источник изображения: X, Mark Zuckerberg

Как сообщило накануне издание Financial Times, сейчас Meta ведёт переговоры с крупными институциональными инвесторами типа Apollo Global Management, KKR, Brookfield, Carlyle и Pimco о возможности предоставления ими в совокупности до $29 млрд на строительство новых центров обработки данных на территории США. Из этой суммы $3 млрд будут выручены Meta за счёт реализации активов, которые перейдут под контроль инвесторов, а оставшиеся $26 млрд будут, по сути, предоставлены в форме кредитов. Данными суммами дело может не ограничиться, как поясняет один из источников.

По информации издания, консультантом в этой сфере для Meta выступал инвестиционный банк Morgan Stanley. Долговые обязательства, о которых идёт речь при обсуждении структуры возможной сделки, должны иметь высокую ликвидность на межбанковском рынке, как подчёркивают вероятные участники. По всей видимости, инвесторы научены горьким опытом сделки Илона Маска (Elon Musk) по покупке социальной сети Twitter (ныне X), по итогам которой они долго не могли реализовать долги компании на приемлемых для себя условиях.

Решение о привлечении дополнительных средств на строительство вычислительных мощностей не было неожиданным. Ещё в мае на квартальной отчётной конференции руководство Meta заявило, что компания увеличит капитальные затраты в текущем году на 10 % до интервала от $64 до $72 млрд. Необходимость увеличить бюджет в этой сфере была продиктована как потребностью в дополнительных центрах обработки данных, так и ростом цен на аппаратное обеспечение. Кроме того, в июне Meta заключила долгосрочный контракт с одним из поставщиков электроэнергии в Иллинойсе, располагающим в этом штате АЭС. Развитие вычислительной инфраструктуры в таких масштабах требует высоких затрат электроэнергии.

Конкурирующая OpenAI тоже активно привлекает капитал инвесторов к финансированию своих проектов. Помимо знаменитого Stargate стоимостью $500 млрд, стартапу недавно удалось договориться о финансировании проекта в Техасе с Blue Owl стоимостью $15 млрд. Инвесторы в таких случаях всё чаще претендуют на часть выручки будущего проекта, если сделка подразумевает создание совместного предприятия. Развивающим свою инфраструктуру компаниям такие сделки тоже выгодны, поскольку позволяют не наращивать портфель долговых обязательств.

В Калифорнийском университете попробовали охлаждать процессоры мокрой тряпкой и добились теплоотвода 800 Вт

Предложенная учёными из Калифорнийского университета в Сан-Диего технология пассивного охлаждения процессоров обещает поднять энергосбережение серверных залов на новую высоту. Новая разработка на основе испаряющего воду волокнистого материала способна рассеять 800 Вт с каждого квадратного сантиметра поверхности, что стало новым рекордом в капиллярном способе охлаждения.

 Источник изображения: Tianshi Feng

Источник изображения: Tianshi Feng

К 2030 году глобальное потребление энергии ЦОДами может увеличиться более чем в два раза. По оценкам Министерства энергетики США, на охлаждение центров по обработке данных уже расходуется до 40 % всей потребляемой ими энергии, и эта нагрузка будет только расти. Убрать это слагаемое из уравнения означает пустить энергию на вычисления, а не буквально выпустить её в атмосферу в виде тех же парниковых газов. Не исключено, что созданная в США технология пассивного охлаждения чипов без вентиляторов и помп поможет в этом благом деле.

Технология основана на использовании специально разработанной волокнистой мембраны, которая пассивно отводит тепло от чипа с помощью естественного испарения влаги. Заявленная способность мембраны отводить 800 Вт/см2 стала одним из самых высоких показателей для пассивных систем охлаждения. И это не разовый эффект. Разработка показала стабильную работу в течение нескольких часов подряд.

Созданная учёными мембрана обладает высочайшей пористостью, что благодаря капиллярному эффекту позволило равномерно распределять влагу по всей площади и испарять её в верхней части мембраны. По мере испарения жидкости она естественным образом бесшумно отводит тепло от микросхем.

«По сравнению с традиционным воздушным или жидкостным охлаждением, испарение может рассеивать больший тепловой поток, потребляя при этом меньше энергии», — сказал Ренкун Чен (Renkun Chen), профессор машиностроения в Калифорнийском университете в Сан-Диего и соавтор исследования.

Исследователи из Калифорнийского университета в Сан-Диего нашли золотую середину между слишком большими порами и слишком маленькими, обеспечив баланс между риском неравномерной подачи влаги к поверхности и опасностью засорения. Разработав сеть пор нужного размера, они создали материал, который не только лишён недостатков, но и обеспечивает лучшие в отрасли характеристики. И он сохраняет стабильность в течение нескольких часов работы при высокой температуре.

«Представленные волокнистые мембраны изначально были разработаны для фильтрации, и никто ранее не исследовал их применение в процессе испарения. Мы поняли, что их уникальные структурные характеристики — взаимосвязанные поры и правильный размер пор — могут сделать их идеальными для эффективного испарительного охлаждения. Нас удивило, что при правильном механическом усилении они не только выдерживали высокий тепловой поток, но и работали при нём очень хорошо», — поясняют учёные.

Сейчас команда работает над интеграцией этой технологии в «охлаждающие пластины» — устройства, которые устанавливаются непосредственно на процессоры для рассеивания тепла. Они также создали стартап, чтобы вывести технологию на рынок.

В Москве почти закончились свободные мощности ЦОД для крупных клиентов

В Московском регионе почти исчерпаны предложения для крупных пользователей мощностей центров обработки данных. При этом стоимость размещения в столичном и ленинградском регионе за год существенно выросла. Об этом пишет «Коммерсантъ» со ссылкой на данные исследования агентства iKS-Consulting и оператора ЦОД 3data, которые изучили ситуацию на российском рынке хранения данных и строительстве ЦОД в первом квартале 2025 года.

 Источник изображения: Kevin Ache / Unsplash

Источник изображения: Kevin Ache / Unsplash

Данные исследования указывают на то, что средняя стоимость услуги colocation (аренда места для установки IT-оборудования) в Москве и ближнем Подмосковье, а также в Санкт-Петербурге и Ленобласти год к году увеличилась на 31,4 % и 10,9 % соответственно. В денежном выражении для Москвы и области цена услуги составила 146,6 тыс. рублей, а для Санкт-Петербурга и области — 96,1 тыс. рублей.

Отмечается, что в столичном регионе почти не осталось предложений для размещения оборудования крупных клиентов, поскольку все сданные в эксплуатацию в 2023-2024 годах площадки уже арендованы. Имеющиеся в наличии свободные мощности могут удовлетворить потребности только розничных клиентов, т.е. тех, кому инфраструктура требуется «под собственные запросы». Спросу на большие мощности в настоящее время соответствуют только сданные в начале 2025 года объекты, такие как ЦОД DC N1 в Телекомплексе НТВ, а также вводимые в первом полугодии мощности IXcellerate.

В компании Selectel, которая занимается предоставлением IT-инфраструктуры, рассказали, что в последние годы бизнес активно развивает продукты с использованием технологий искусственного интеллекта. Соответственно IT-инфраструктура для обеспечения работоспособности таких продуктов требует существенно больше электроэнергии. Это обусловлено использованием производительных графических ускорителей, а также мощных процессоров. «Для сравнения: среднее потребление одной серверной стойки с оборудованием под задачи, не связанные с ИИ, составляет 5-10 кВт. При этом стойки с оборудованием под ИИ могут потреблять до 40 кВт», — рассказал директор направления дата-центров в Selectel Илья Михайлов.

В РТК-ЦОД (входит в состав «Ростелеком») сообщили, что несмотря на лидерство столичного региона по концентрации спроса на услуги colocation, в регионах сейчас также фиксируется повышенный спрос. В компании эту тенденцию связывают со зрелостью клиентов и доверием к крупным провайдерам. Там также отметили формирование тенденции регионального спроса на модульные ЦОД из-за меньших временных затрат и капитальных вложений при их строительстве. Высокая ключевая ставка способствовала снижению объёма инвестиций в строительство ЦОД. Поскольку это в основном проекты с длительным сроком окупаемости, в ближайшее время не стоит ожидать появления большого количества новых площадок, добавил представитель РТК-ЦОД.

Представители строительного рынка говорят, что девелоперы не торопятся строить ЦОД в больших количествах. Это связывают с тем, что такие проекты имеют длительный цикл строительства и срок окупаемости, а также высокие капитальные затраты, что на фоне текущей стоимости заёмного финансирования является важным фактором. Также отмечается дефицит свободных энергомощностей. Подключение к электросетям является сложным и дорогим процессом не только в Москве, но и в регионах.

По прогнозу NF Group, в нынешнем году спрос на мощности коммерческих ЦОД продолжит опережать предложение. Это связано с тем, что основной ввод крупных объектов в Москве заявлен на 2026-2027 годы. Сложившаяся ситуация поддерживает тренд на развитие собственных корпоративных ЦОД, т.е. клиенты всё чаще рассматривают строительство собственной инфраструктуры как альтернативу аренде.

Nvidia запустила выпуск ИИ-чипов «Made in USA» и пообещала развивать американское производство

Nvidia начала выпускать графические процессоры Blackwell в США — на фабрике TSMC в Фениксе, штат Аризона. Одновременно компания объявила, что создаёт совместные предприятия по производству ускорителей и серверных систем: с Foxconn — в Хьюстоне, и с Wistron — в Далласе. Для упаковки и тестирования чипов Nvidia заключила контракты с Amkor и SPIL. Компания уже ввела в эксплуатацию более 93 тыс. м² площадей для производства и тестирования ИИ-чипов в Аризоне и Техасе в рамках усилий по переносу части производства в США.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Nvidia планирует начать массовое производство ускорителей и систем на заводах в Хьюстоне и Далласе в течение следующих 12–15 месяцев. В течение ближайших четырёх лет компания намерена инвестировать в США до полутриллиона долларов в инфраструктурные объекты для искусственного интеллекта.

«Двигатели мировой инфраструктуры ИИ впервые строятся в Соединённых Штатах, — заявил генеральный директор Nvidia Дженсен Хуанг (Jensen Huang). — Добавление американского производства помогает нам лучше удовлетворять невероятный и растущий спрос на чипы ИИ и суперкомпьютеры, укрепляет нашу цепочку поставок и повышает нашу устойчивость».

Это заявление было сделано буквально через несколько дней после того, как Nvidia удалось заключить сделку с администрацией США и избежать мер экспортного контроля в отношении своего чипа H20. Этот самый передовой чип Nvidia все ещё может экспортироваться в Китай благодаря обещанию Хуанга профинансировать центры обработки данных ИИ в США.

В настоящее время многие ИИ-компании пытаются заслужить благосклонность администрации США. OpenAI объединилась с SoftBank и Oracle для создания центра обработки данных в США стоимостью $500 млрд. Половина из запланированных Microsoft инвестиций в размере $80 млрд в 2025 финансовом году на создание центров обработки данных ИИ будет потрачена на строительство непосредственно в США.

Nvidia утверждает, что её инициативы по производству чипов в США могут создать «сотни тысяч рабочих мест и привлечь триллионы долларов в экономическую активность в ближайшие десятилетия». Однако программы по наращиванию производства чипов в США сталкиваются с серьёзными проблемами. Ответные пошлины и торговые ограничения со стороны Китая угрожают поставкам необходимого сырья, ощущается нехватка квалифицированных кадров, а действия администрации Трампа по отмене «Закона о микросхемах», принятого в 2022 году, могут отпугнуть будущих инвесторов.

Arm собралась руками Nvidia захватить половину рынка процессоров для дата-центров

Arm Holdings ожидает, что к концу 2025 года ей будет принадлежать до 50 % мирового рынка центральных процессоров (CPU), используемых в центрах обработки данных. По словам представителя компании, в 2024 году доля Arm составляла около 15 %. Предпосылкой для значительного прироста назван резкий рост популярности вычислительных систем, предназначенных для задач ИИ, где активно применяются CPU на базе архитектуры Arm.

 Источник изображения: arm.com

Источник изображения: arm.com

Процессоры Arm используются в качестве хост-компонентов в инфраструктуре ИИ-систем. Их роль заключается в управлении потоками данных между высокопроизводительными графическими ускорителями (GPU). В качестве примера Мохамед Авад (Mohamed Awad), возглавляющий направление инфраструктурных решений Arm, привёл серверные системы компании Nvidia, в которых применяется разработанный ею процессор Grace на архитектуре Arm. В отдельных системах Grace работает совместно с двумя GPU нового поколения Blackwell, также созданными Nvidia.

Авад подчеркнул, что архитектура Arm демонстрирует преимущество по показателю энергопотребления по сравнению с решениями конкурентов, включая процессоры Intel и AMD. Поскольку ИИ-системы требуют значительных энергетических ресурсов, потребность в энергоэффективных архитектурах способствует увеличению спроса на продукты Arm среди поставщиков облачных вычислений.

По словам Авада, Arm получает более высокий совокупный размер роялти с CPU, предназначенных для центров обработки данных, поскольку такие чипы используют больше компонентов интеллектуальной собственности компании. Это отличает их от менее сложных вычислительных решений, применяемых, например, в потребительских устройствах. Arm не производит микропроцессоры самостоятельно — компания лицензирует архитектуру и предоставляет интеллектуальные компоненты другим компаниям, включая облачных провайдеров и производителей, таких как Apple и Nvidia, для разработки CPU для серверов, ноутбуков и смартфонов. Выручка Arm формируется за счёт лицензионных отчислений за использование технологий и роялти за каждый произведённый чип.

В течение почти двадцати лет Arm не удавалось занять значимую долю в сегменте серверных CPU из-за доминирования архитектуры x86, разработанной Intel и AMD. Переход на платформу Arm требовал от клиентов адаптации программного обеспечения (ПО) и изменения аппаратных компонентов. Однако, по утверждению Авада, ситуация изменилась: теперь разработка ПО всё чаще ведётся сразу под архитектуру Arm.

Amazon сообщила в декабре 2024 года, что в течение последних двух лет более половины вычислительной мощности новых серверов компании обеспечивалось за счёт CPU, разработанных Amazon на базе архитектуры Arm. По данным издания Reuters, компании Alphabet (владеющая Google) и Microsoft также начали разработку собственных серверных CPU с использованием технологий Arm. Их проекты появились позже по сравнению с инициативами Amazon.


window-new
Soft
Hard
Тренды 🔥
OpenAI запланировала проекты на общую сумму $1 трлн, но не подумала, где взять на них деньги 10 мин.
В облаке Astra Cloud появился квантовый генератор случайных чисел 2 ч.
Новая статья: ИИтоги сентября 2025 г.: вайб-райтингу — да; вайб-трейдингу — нет 2 ч.
JEDEC рассказала о работе над UFS 5.0 — смартфонную память разгонят до 10,8 Гбайт/с 2 ч.
Китайцы модифицировали микробов для превращения CO₂ из морской воды в пластик, продукты и топливо 2 ч.
Япония введёт крупнейшие за десятилетия ограничения экспорт чипов, дронов и станков — под прицелом Китай и Юго-Восточная Азия 3 ч.
«Росатом» создал российский интерконнет «Альфа»: до 80 Гбит/с на порт и до 4096 узлов 4 ч.
Искусственный интеллект разогнал рынок чипов — мировые продажи подскочили почти на 22 % в августе 5 ч.
OpenAI в рамках сделки с AMD будет не только покупать ускорители Instinct, но и арендовать их 6 ч.
Huawei Mate 80 Pro засветился на живых фото в неожиданной расцветке 14 ч.