Сегодня 14 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → цод
Быстрый переход

На строительство ЦОД в этом году будет потрачено больше, чем на разведку новых месторождений нефти

Углеводородное топливо остаётся основным источником энергии для человечества, поэтому весьма символично, что относительно недавно зародившийся бум искусственного интеллекта в сжатые сроки позволил расходам на строительство центров обработки данных оказаться выше, чем затраты на поиск новых месторождений нефти.

 Источник изображения: Saudi Aramco

Источник изображения: Saudi Aramco

В общей сложности на строительство новых ЦОД в этом году будет потрачено $580 млрд, как отмечается в отчёте Международного энергетического агентства (IEA). На нужды разведки новых месторождений нефти при этом будет потрачено на $40 млрд меньше. К концу десятилетия энергопотребление ориентированных на ИИ центров обработки данных вырастет в пять раз, превысив текущее энергопотребление ЦОД всех типов в два раза. Последние также увеличат своё энергопотребление, но прирост не будет таким заметным.

По оценкам IEA, основной прирост энергопотребления придётся на США, которым достанется половина этой величины, остальное увеличение распределят между собой Европа и Китай. Основная часть новых ЦОД строится в непосредственной близости от городов с численностью населения более 1 млн человек. Половина из строящихся ЦОД рассчитана на потребление более 200 МВт, в основном новые ЦОД строятся рядом с уже имеющимися. Нехватка источников электроэнергии для подобных объектов ощущается во многих случаях. Очереди на присоединение к электросетям растягиваются на десять лет в некоторых случаях, как на севере американского штата Вирджиния. В ирландском Дублине квота на подключения распределена вплоть до 2028 года.

По данным агентства, компоненты для строительства энергетической инфраструктуры тоже становятся дефицитным товаром, замедляя процесс модернизации под нужды ИИ. Некоторые компании начали разработку твердотельных трансформаторов, которые лучшее соответствуют современным требованиям к энергетической инфраструктуре. Тем не менее, их массовое применение начнётся от силы через год или два.

По прогнозам IEA, уже к 2035 году возобновляемые источники электроэнергии начнут доминировать в структуре энергоснабжения новых ЦОД, независимо от изменений в политике «озеленения» энергетики большинства стран. В ближайшие десять лет возобновляемые источники обеспечат ЦОД примерно 400 ТВт·ч электроэнергии, тогда как на долю природного газа придётся только 220 ТВт·ч. Модульные ядерные реакторы в случае своей успешной экспансии обеспечат ещё 190 ТВт·ч электроэнергии для питания ЦОД.

Учёные придумали пассивный кулер на пористой мембране для самых мощных чипов — он эффективнее традиционных

Учёные Калифорнийского университета в Сан-Диего создали пассивную систему охлаждения, основанную на испарительной мембране, которая значительно улучшает отвод тепла от мощных чипов, что особенно актуально для современных ЦОД, пишет SciTechDaily. Новое решение не только предлагает эффективную и энергосберегающую альтернативу традиционным методам охлаждения, но и потенциально позволяет сократить расход воды, используемой во многих существующих системах.

 Источник изображений: SciTechDaily/Tianshi Feng

Источник изображений: SciTechDaily/Tianshi Feng

В настоящее время на системы охлаждения приходится до 40 % общего энергопотребления ЦОД. При сохранении текущего роста и развёртывании ИИ-технологий мировой спрос на энергию для охлаждения к 2030 году может увеличиться более чем вдвое.

В системе используется недорогая половолоконная мембрана с множеством взаимосвязанных микроскопических пор, которые втягивают охлаждающую жидкость за счёт капиллярного эффекта. Испаряясь, жидкость отводит тепло от расположенных ниже электронных компонентов без необходимости использования дополнительной энергии. Мембрана расположена над микроканалами, по которым поступает жидкость, что позволяет теплу эффективно рассеиваться от расположенного ниже оборудования.

«По сравнению с традиционным воздушным или жидкостным охлаждением испарение позволяет рассеивать больший тепловой поток при меньших затратах энергии», — отметил руководитель проекта Ренкун Чен (Renkun Chen), профессор кафедры машиностроения и аэрокосмической техники Инженерной школы Джейкобса Калифорнийского университета в Сан-Диего. По его словам, предыдущие попытки использования пористых мембран, обладающих большой площадью поверхности, идеально подходящей для испарения, не увенчались успехом из-за несоответствующего размера пор: они были либо слишком малы, что приводило к засорению, либо слишком велики, что вызывало нежелательное вскипание.

«Здесь мы используем пористые волокнистые мембраны с взаимосвязанными порами правильного размера», — сказал Чен. Такая конструкция обеспечивает эффективное испарение без этих недостатков.

Предложенная учёными конструкция мембраны при испытаниях в условиях переменных тепловых потоков выдержала тепловые нагрузки выше 800 Вт на квадратный сантиметр — один из самых высоких показателей, когда-либо зарегистрированных для подобных систем охлаждения. Также система продемонстрировала стабильность в течение нескольких часов работы.

Тем не менее, по словам учёного, достигнутые показатели пока значительно ниже теоретического предела технологии. Сейчас команда работает над усовершенствованием мембраны и оптимизацией её производительности. Следующие шаги включают интеграцию решения в прототипы охлаждающих пластин — плоских компонентов, которые крепятся к микросхемам, таким как центральные и графические процессоры, для рассеивания тепла. Команда также запускает стартап для коммерциализации технологии.

Google придумала дата-центр с неограниченным источником энергии, но придётся усыпать орбиту спутниками — представлен Project Suncatcher

Google предложила новый способ обойти ограничения, актуальные для энергоёмких центров обработки данных для систем искусственного интеллекта на Земле — размещать ИИ-ускорители на спутниках, которые работают на солнечной энергии. Этой идее посвящена новая программа компании, получившая название Project Suncatcher.

 Источник изображения: SpaceX / unsplash.com

Источник изображения: SpaceX / unsplash.com

Если технологический гигант начнёт реализацию этого проекта, на орбите появятся космические ЦОД — там солнечную энергию можно будет использовать круглосуточно. Google мечтает подключиться к практически неограниченному источнику чистой энергии, чтобы реализовать свои планы в области ИИ, не размениваясь на сопутствующие земным ЦОД сложности, такие как углеродные выбросы и высокие цены на энергоисточники. Солнечные батареи на спутниках с тензорными процессорами (TPU) Google обещают восьмикратно превзойти показатели земных.

Важнейшая задача для проекта — обеспечить надёжную связь между спутниками. Если они будут выступать аналогами земных ЦОД, то канал связи должен иметь ширину в десятки терабит в секунду, говорят в компании. Один из способов решить задачу — формировать плотные скопления аппаратов, чтобы они находились на расстоянии «не более километра» друг от друга. Это значительно ближе, чем расстояние между спутниками в теперешних группировках. Компания также убедилась, что её TPU способны выдерживать радиационное излучение, эквивалентное тому, что они получат за пять лет работы на орбите.

Пока отправка космических аппаратов на орбиту обходится дорого, но уже в середине будущего десятилетия, по оценкам инженеров Google, запуск и эксплуатация космических ЦОД будут сопоставимы с обслуживанием земных из расчёта на киловатты в год. Первые испытания оборудования на орбите намечены на 2027 год — партнёром Google выступит компания Planet. Подробности проекта Project Suncatcher инженеры Google привели в нерецензированной научной статье (PDF).

Microsoft вложит в развитие ИИ в ОАЭ около $15,2 млрд за четыре года

Едва вернувшись в Белый дом в качестве президента США, Дональд Трамп (Donald Trump) в этом году начал «торговать» новым американским преимуществом в виде ускорителей вычислений на международном рынке, и корпорация Microsoft только сейчас смогла заключить соглашение с ОАЭ на развитие локальной инфраструктуры ИИ на общую сумму $15,2 млрд, которая будет распределена на четыре года.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Подобный срок вполне предсказуем, поскольку определяется продолжительностью пребывания действующего президента США на своём посту. Microsoft одновременно получила право поставлять в ОАЭ передовые ускорители вычислений Nvidia, как отмечает TechCrunch, и в условиях экспортных ограничений это тоже своего рода достижение. Такие условия превращают ОАЭ в проводника политики США в регионе, учитывая растущее влияние искусственного интеллекта на геополитические процессы.

Ещё в мае этого года Дональд Трамп заключил с президентом ОАЭ Мохаммедом бин Зайд аль-Нахайяном соглашение о строительстве центров обработки данных в Абу-Даби. К реализации проекта его участники приступить не могли из-за длительной процедуры согласования поставок передовых компонентов американского происхождения в эту ближневосточную страну. В сентябре Microsoft стала первым обладателем экспортной лицензии, позволяющей начать эти поставки в ОАЭ.

Как подчеркнули представители Microsoft, была проделана большая работа по обеспечению требований экспортного контроля США, но в итоге корпорация получила возможность направить в ОАЭ ускорители Nvidia, по своей производительности эквивалентные 21 500 экземплярам A100, хотя в действительности в партию попали и более современные H100 и H200. Как и планировалось по итогам майских договорённостей, использовать локальные вычислительные мощности в ОАЭ будут американские компании: Microsoft, OpenAI и Anthropic.

Общая сумма в $15,2 млрд включает те средства, которые Microsoft уже потратила на развитие вычислительной инфраструктуры в ОАЭ, начиная с 2023 года. До конца текущего года за указанный период будет в общей сложности потрачено $7,3 млрд, включая вложенные в капитал арабской G42 полтора миллиарда долларов США, а также более $4,6 млрд на строительство центров обработки данных.

Следующий этап инвестиций подразумевает расходы со стороны Microsoft в размере $7,9 млрд с начала следующего года до конца 2029 года, из них $5,5 млрд будут направлены на капитальные затраты по строительству и расширению локальных центров обработки данных в ОАЭ. Подробнее об этих планах Microsoft собирается поведать на текущей неделе в ходе мероприятия в Абу-Даби. Американская корпорация будет часть своих инвестиций направлять на подготовку кадров для ИИ непосредственно в ОАЭ. К 2027 году обучение пройдёт миллион местных жителей, а ещё Microsoft развернёт в стране исследовательский центр, который будет заниматься разработкой больших языковых моделей. В тот же день Microsoft заключила контракт с Австралией на строительство центров обработки данных на сумму $9,7 млрд, поэтому Ближним Востоком активность этого облачного провайдера не ограничивается.

Qualcomm вернулась в большие вычисления: представлены ИИ-ускорители AI200 и AI250 для дата-центров

Компания Qualcomm анонсировала два ускорителя ИИ-инференса (запуска уже обученных больших языковых моделей) — AI200 и AI250, которые выйдут на рынок в 2026 и 2027 годах. Новинки должны составить конкуренцию стоечным решениям AMD и Nvidia, предложив повышенную эффективность и более низкие эксплуатационные расходы при выполнении масштабных задач генеративного ИИ.

 Источник изображений: Qualcomm

Источник изображений: Qualcomm

Оба ускорителя — Qualcomm AI200 и AI250 — основаны на нейронных процессорах (NPU) Qualcomm Hexagon, адаптированных для задач ИИ в центрах обработки данных. В последние годы компания постепенно совершенствовала свои нейропроцессоры Hexagon, поэтому последние версии чипов уже оснащены скалярными, векторными и тензорными ускорителями (в конфигурации 12+8+1). Они поддерживают такие форматы данных, как INT2, INT4, INT8, INT16, FP8, FP16, микротайловый вывод для сокращения трафика памяти, 64-битную адресацию памяти, виртуализацию и шифрование моделей Gen AI для дополнительной безопасности.

Ускорители AI200 представляют собой первую систему логического вывода для ЦОД от Qualcomm и предлагают до 768 Гбайт встроенной памяти LPDDR. Система будет использовать интерфейсы PCIe для вертикального масштабирования и Ethernet — для горизонтального. Расчётная мощность стойки с ускорителями Qualcomm AI200 составляет 160 кВт. Система предполагает использование прямого жидкостного охлаждения. Для Qualcomm AI200 также заявлена поддержка конфиденциальных вычислений для корпоративных развертываний. Решение станет доступно в 2026 году.

Qualcomm AI250, выпуск которого состоится годом позже дебютирует с новой архитектурой памяти, которая обеспечит увеличение пропускной способности более чем в 10 раз. Кроме того, система будет поддерживать возможность дезагрегированного логического вывода, что позволит динамически распределять ресурсы памяти между картами. Qualcomm позиционирует его как более эффективное решение с высокой пропускной способностью, оптимизированное для крупных ИИ-моделей трансформеров. При этом система сохранит те же характеристики теплопередачи, охлаждения, безопасности и масштабируемости, что и AI200.

Помимо разработки аппаратных платформ, Qualcomm также сообщила о разработке гипермасштабируемой сквозной программной платформы, оптимизированной для крупномасштабных задач логического вывода. Платформа поддерживает основные наборы инструментов машинного обучения и генеративного ИИ, включая PyTorch, ONNX, vLLM, LangChain и CrewAI, обеспечивая при этом беспроблемное развертывание моделей. Программный стек будет поддерживать дезагрегированное обслуживание, конфиденциальные вычисления и подключение предварительно обученных моделей «одним щелчком мыши», заявляет компания.

Китайцы встроили ЦОД в основание морского ветряка — получилось эффективно и экономично

В Китае завершено строительство первого в мире подводного центра обработки данных, работающего на энергии ветра. Пикантность ситуации в том, что ЦОД расположен в основании питающей его ветряной турбины и находится ниже уровня моря, что обеспечивает ему условно бесплатное охлаждение — колоссальную проблему всех современных дата-центров. Успех опытного проекта может привести к массовому «затоплению» множества ЦОД в Китае.

 Источник изображения: Shanghai Hailanyun Technology

Источник изображения: Shanghai Hailanyun Technology

Пилотный проект реализован компанией Shanghai Hailanyun Technology у побережья зоны свободной торговли Особого района Китая Линган (Шанхай). Стоимость проекта составляет около 1,6 млрд юаней ($226 млн) и знаменует собой смелый шаг в создании устойчивой и высокопроизводительной вычислительной инфраструктуры. Подобная комбинация вычислительных и генерирующих мощностей обеспечивает объекту более 95 % необходимой для работы энергии, экономит на расходах на охлаждение и не занимает дефицитной земли. В совокупности это позволяет отказаться от пресной воды в системе охлаждения ЦОД и ведёт примерно к 22,8 % сокращению энергопотребления объекта.

Крупные наземные дата-центры способны каждый день расходовать на охлаждение объём пресной воды, достаточный для удовлетворения нужд городка на 50 тыс. жителей. К тому же на охлаждение может уходить до 50 % и более энергопотребления ЦОД. Проект с морским ЦОД с питанием от ветряка обещает сократить энергобюджет на охлаждение до 10 % и менее. Заявленный показатель эффективности энергопотребления (PUE) для него должен быть не выше 1,15, тогда как для всех новых и модернизированных ЦОД в Китае PUE не должен превышать 1,25.

Ожидается, что «ЦОД в ветряке» будет поддерживать широкий спектр передовых приложений для цифровой экономики и вычислений, а не просто служить хранилищем данных. Согласно официальным источникам, объект будет обеспечивать рабочие нагрузки, связанные с искусственным интеллектом и обучением высокопроизводительных моделей, обеспечивать вычислительную инфраструктуру для сетей 5G, промышленного интернета вещей (IoT) и электронной коммерции, а также станет частью региональной магистрали для международных каналов передачи данных. По сути, этот ЦОД будет функционировать как экологичный, высокопроизводительный подводный вычислительный кластер.

Стоит отметить, что этот проект является лишь первым этапом грандиозного подводного строительства. На втором этапе этот демонстрационный объект мощностью 2,3 МВт будет расширен до 24 МВт, хотя сроки его запуска пока не объявлены и будут зависеть от результатов испытаний.

Добавим, что ранее в этом месяце в Китае начал работать первый в мире коммерческий подводный ЦОД. Первой в море ЦОД опустила компания Microsoft — это произошло около семи лет назад, но китайцы стали лидерами по выведению этой услуги на рынок. Если подводный ЦОД в основании морской ветряной турбины хорошо покажет себя на практике, то за пилотным проектом последуют коммерческие. Впрочем, разработчики проекта подчёркивают, что остаётся множество нерешённых проблем — от коррозии до обслуживания подводных центров — и перевод проекта на коммерческие рельсы может задержаться.

Первый в мире ИИ-спутник с ускорителем Nvidia H100 отправится в космос в ноябре

Компания Starcloud (ранее — Lumen Orbit), участница программы NVIDIA Inception, объявила о запуске первого в мире спутника с искусственным интеллектом на базе ускорителя NVIDIA H100. Запуск, запланированный на ноябрь, станет шагом к созданию орбитальных дата-центров, которые, по расчётам, смогут сократить энергопотребление и углеродные выбросы на порядок по сравнению с наземными аналогами.

 Источник изображений: Starcloud

Источник изображений: Starcloud

Starcloud-1 весит около 60 кг и по размерам сопоставим с небольшим холодильником. Аппарат будет обрабатывать данные, поступающие от спутников дистанционного зондирования Земли, и выполнять задачи вывода на базе ИИ (inference) прямо на орбите — без необходимости передавать большие объёмы информации на Землю. По словам главы компании Филипа Джонстона (Philip Johnston), использование H100 обеспечит «в сто раз большую вычислительную мощность», чем существующие космические вычислительные платформы.

Космос — идеальная среда для энергоэффективных ИИ-систем. Спутники могут получать почти неограниченную энергию от Солнца и охлаждаться естественным образом в вакууме за счёт инфракрасного излучения, без воды и громоздких систем вентиляции. Это позволяет не только экономить энергию, но и снижать углеродный след дата-центров примерно в десять раз на протяжении всего их жизненного цикла.

В долгосрочной перспективе Starcloud намерена построить орбитальный дата-центр мощностью до 5 ГВт с солнечными панелями и радиаторами длиной около четырёх километров. По замыслу компании, такие системы помогут разгрузить земные энергосети, обеспечат условно бесплатное охлаждение и снизят зависимость ИИ-инфраструктуры от традиционных энергетических ресурсов.

Основные сценарии применения — обработка данных наблюдения за Землёй в реальном времени: обнаружение пожаров, реагирование на сигналы бедствия, прогнозирование погоды. Например, синтетическая апертурная радиолокация (SAR) способна генерировать до 10 Гбайт данных в секунду, и выполнение анализа на орбите позволит получать результаты мгновенно, без задержек, связанных с передачей сырых данных на Землю.

Благодаря участию в программе NVIDIA Inception, стартап получил доступ к аппаратной базе NVIDIA и консультациям инженеров компании. Запуск Starcloud-1 с ускорителем H100 станет первым примером применения этой архитектуры в космосе. В дальнейшем планируется интеграция платформы NVIDIA Blackwell с десятикратным ростом производительности, а также тестирование работы открытой модели Gemma от Google прямо на борту спутника.

Проект Starcloud рассматривается как потенциальный прорыв в области устойчивых ИИ-вычислений: он сочетает возобновляемую энергию, отсутствие затрат на охлаждение и мгновенную обработку данных. Хотя эксперты указывают на высокие издержки запусков и технические риски, в компании уверены, что через десять лет большинство новых дата-центров будут строиться уже в космосе.

Точная дата запуска Starcloud-1 пока не объявлена. Известно лишь, что спутник должен полететь на ракете SpaceX Falcon 9 в рамках миссии Bandwagon-4 как попутная нагрузка. В числе основных заказчиков числятся военные ведомства Южной Кореи и США, поэтому о деталях миссии пока не распространяются.

Китай погрузит дата-центры под воду, чтобы Земля стала чище

Затраты на энергоснабжение мощных центров обработки данных велики ещё и по той причине, что им требуется серьёзное охлаждение, и в целом обеспечение таких объектов электроэнергией увеличивает углеродные выбросы в атмосферу. Китайские разработчики пытаются снизить это пагубное влияние за счёт создания подводных центров обработки данных.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Производитель различного морского оборудования Highlander в сотрудничестве со строительными компаниями в Шанхае пытается создать погружной центр обработки данных, который смог бы работать в море у берегов Шанхая. Его конструкция напоминает огромную жёлтую бочку с порталом для подключения необходимых коммуникаций. Подводные центры обработки данных, по мнению участников эксперимента, имеют важное преимущество, поскольку могут охлаждаться океанскими течениями.

Microsoft ещё в 2018 году испытала подобное решение у берегов Шотландии, но китайский проект, который будет запущен в середине этого месяца, готов работать на коммерческой основе. Клиентами подводного ЦОД в Шанхае готовы стать оператор связи China Telecom и одна из местных компаний ИИ-сектора с государственным участием. По словам вице-президента Highlander, подводные ЦОД позволяют сократить расходы энергии на своё охлаждение на величину до 90 %.

Highlander в 2022 году получила от властей Китая субсидии в размере $5,62 млн на реализацию схожего проекта в провинции Хайнань, который до сих пор функционирует. Как отмечают специалисты Highlander, с точки зрения технической реализации подобные проекты обычно таят больше трудностей, чем ожидается изначально. Высокая стоимость и потенциальное влияние на экологию моря являются факторами, которые пока сдерживают широкое распространение подводных центров обработки данных.

Шанхайский проект Highlander будет более 95 % электроэнергии, необходимой для своей работы, получать от ветряных источников генерации. При создании герметичной капсулы корпуса ЦОД важно обеспечить защиту от длительного воздействия солёной воды, которая вызывает коррозию. Highlander покрывает стальной корпус капсулы специальным составом на основе частиц стекла. На поверхности моря расположится шлюзовой отсек, который будет перемещать обслуживающий персонал до погружённой в море капсулы ЦОД при помощи специального лифта.

Примечательно, что японским учёным уже удалось найти специфические уязвимости подводных ЦОД с точки зрения информационной безопасности. Как выясняется, злоумышленники могут атаковать их при помощи звуковых волн, распространяемых в воде. Экологи озабочены тем, что выделяемое подводным ЦОД тепло может оказывать влияние на экосферу в окрестностях. Часть обитателей моря при изменении температурного режима может переселиться в более прохладные районы, тогда как теплолюбивые соседи займут их место. Конечный эффект подобной миграции морской фауны предугадать сложно. Влияние этого фактора на экологию заметно усилится по мере масштабирования вычислительных мощностей в конкретном районе акватории. Скорее всего, подводные ЦОД не заменят собой наземные полностью, а будут уживаться с ними, как считают эксперты.

На орбите появятся гигантские дата-центры для ИИ в течение десяти лет, уверен Джефф Безос

Выступая на технологической конференции в итальянском Турине на этой неделе, основатель и бывший руководитель Amazon Джефф Безос (Jeff Bezos) не только охарактеризовал состояние ИИ-отрасли и её ближайшее будущее, но и выразил уверенность, что в течение 10–20 лет станет возможным создание центров обработки данных в космосе.

 Источник изображения: AWS

Источник изображения: AWS

По мнению Безоса, доступ к непрерывным потокам солнечной энергии позволит таким центрам обработки данных превосходить по производительности те, что расположатся на Земле. По своей мощности они будут достигать гигаваттных масштабов, как убеждён миллиардер. «Гигантские обучающие кластеры, их лучше строить в космосе, поскольку мы имеем доступ к солнечной энергии в режиме 24/7. Там нет облачность и дождей, нет погоды. Мы сможем осилить расходы по созданию внеземных центров обработки данных в ближайшие пару десятилетий»,заявил Безос.

Смещение в сторону космической инфраструктуры, по его мнению, станет частью более масштабной инициативы по улучшению жизни на Земле благодаря освоению космоса. Как он отметил, это уже произошло с метеорологическими и телекоммуникационными спутниками. Следующим этапом станут центры обработки данных, а потом дело дойдёт до некоторых видов производственной деятельности. Говоря о перспективах распространения ИИ в целом, Безос добавил: «Мы должны быть предельно оптимистичны в том, что социальные блага, которые приносит ИИ, подобные тем, что наблюдались 25 лет по мере распространения интернета, реальны и останутся надолго». Он убеждён, что нужно отделять потенциальные «пузыри» и последствия от их схлопывания, которые могут как случиться, так и нет, от объективной реальности.

ИИ-пузырь покорил новую веху: капитализация Nvidia превысила $4,5 трлн

Акции Nvidia во вторник достигли нового рекорда, поднявшись почти на 3 %, что увеличило рыночную капитализацию производителя чипов до невероятных $4,5 триллиона. За год акции Nvidia выросли примерно на 49 % и продолжают привлекать инвесторов, поскольку компания наращивает темпы заключения сделок, укрепляя свои позиции в центре бума искусственного интеллекта, сообщает CNBC.

 Источник изображения: Nvidia

Источник изображения: Nvidia

На прошлой неделе OpenAI заявила, что Nvidia приобретёт долю в стартапе в сфере ИИ на сумму до $100 млрд и построит центры обработки данных стоимостью в сотни миллиардов долларов, которые будут оснащаться графическими ускорителями Nvidia. Затем OpenAI объявила о строительстве пяти новых крупных центров обработки данных совместно с Oracle в рамках ИИ-мегапроекта Stargate. По словам компаний реализация плана обойдётся в $500 млрд.

Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) заявил, что на продукцию Nvidia приходится около 70 % расходов на новые центры обработки данных для ИИ.

Аналитики Citi во вторник повысили целевую стоимость акций Nvidia с $200 до $210, ссылаясь на прогноз роста расходов на инфраструктуру ИИ после анонсов OpenAI.

«Мы считаем, что OpenAI обратилась к Nvidia за помощью, поскольку у Nvidia есть очень привлекательный продукт, а число пользователей и объёмы потребляемых вычислительных мощностей на одного пользователя растут», — цитирует CNBC аналитика Citi Атифа Малика (Atif Malik).

Meta✴, Google и другие компании также значительно увеличивают свои расходы на инфраструктуру. CoreWeave, поставщик облачных услуг, крупным акционером которого является Nvidia, сообщил во вторник о достижении соглашения о поставке Meta✴ услуг по инфраструктуре ИИ на сумму $14,2 млрд.

Акции Nvidia в этом году опережают по темпам роста всех конкурентов, за исключением производителя микросхем Broadcom, бумаги которого выросли примерно на 40 %, чему также способствовал OpenAI.

Совместный проект Nvidia и OpenAI потребует энергию 10 ядерных реакторов

Компании Nvidia и OpenAI неделю начали с заявления о намерениях направить $100 млрд на строительство центров обработки данных совокупной мощностью 10 ГВт. Для их обеспечения электроэнергией, по сути, потребовались бы 10 ядерных реакторов, таких как работают на Ленинградской АЭС. Кроме того, это почти втрое больше, чем в среднем потребляли все дата-центры Google во всём мире в 2024 году.

 Источник изображения: Unsplash, Lukáš Lehotský

Источник изображения: Unsplash, Lukáš Lehotský

Как успел заявить в интервью CNBC основатель и генеральный директор Nvidia Дженсен Хуанг (Jensen Huang), уровень энергопотребления в 10 ГВт соответствует от 4 до 5 млн ускорителей вычислений, и подобное количество продукции компания намерена поставить по итогам текущего года. Это один из редких случаев, когда глава Nvidia количественно характеризует возможности своей компании. По его словам, в прошлом году она поставила вдвое меньше ускорителей. Уже только эти заявления позволяют судить о масштабе совместного проекта Nvidia и OpenAI.

По информации Ars Technica, типовой центр обработки данных в наши дни потребляет от 10 МВт до 1 ГВт, но чаще всего встречаются объекты с уровнем энергопотребления от 50 до 200 МВт. Проект OpenAI и Nvidia будет по уровню энергопотребления сопоставим с несколькими крупными городами, а также почти втрое превысит «аппетиты» всех ЦОД компании Google — по итогам 2024 года их средняя мощность достигла 3,67 ГВт. Также мощность проекта OpenAI и Nvidia можно легко представить в ядерных реакторах — например, для его питания потребовалось бы больше десятка реакторов РБМК-1000 (чистая мощность 925 МВт) или ВВЭР-1000 (950 МВт), используемых на Ленинградской АЭС и Ростовской АЭС соответственно.

Сделка между OpenAI и Nvidia превращает последнюю в одного из крупнейших партнёров первой наряду с Microsoft, Oracle и SoftBank, которые будут принимать участие в мегапроекте Stargate. Поскольку значительная часть затрат на строительство ЦОД подразумевает закупку ускорителей Nvidia, основная доля заявленных компанией инвестиций в размере $100 млрд вернётся на её счета.

Ранее глава Nvidia пояснял, что строительство гигаваттного центра обработки данных в среднем обходится в сумму от $50 до $60 млрд, причём до $35 млрд из них расходуются на закупку её ускорителей вычислений. При таких ценах ЦОД на 10 ГВт обойдётся как минимум в $500 млрд. Потребности в энергоснабжении всё чаще подталкивают владельцев крупных ЦОД заключать соглашения с поставщиками электричества, вырабатываемого на АЭС. Ещё в сентябре прошлого года глава OpenAI Сэм Альтман (Sam Altman) признался Bloomberg, что компания намерена построить не менее семи ЦОД мощностью по 5 ГВт каждый. В совокупности они бы потребляли электроэнергии в два раза больше, чем весь штат Нью-Йорк. Уже эксплуатируемые в мире ЦОД в 2024 году потребляли 1,5 % всей вырабатываемой электроэнергии, и эта доля будет стремительно расти.

Microsoft рассказала, что нужно собрать вместе для обучения самых продвинутых ИИ-моделей

Microsoft заявила, что находится на завершающей стадии строительства нового инфраструктурного объекта стоимостью $3,3 млрд в Висконсине. В компании этот объект называют «самым передовым в мире центром обработки данных (ЦОД) для искусственного интеллекта». Его введут в эксплуатацию в начале 2026 года, и первоначально он будет использоваться для обучения ИИ-моделей OpenAI. Об этом заявил вице-председатель и президент Microsoft Брэд Смит (Brad Smith).

 Источник изображения: Microsoft

Источник изображения: Microsoft

Во время выступления Смит также сообщил, что в дальнейшем вычислительные мощности этого ЦОД смогут задействовать как сторонние компании и сама Microsoft. Он также анонсировал строительство ещё одного ЦОД в этом районе, который будет сопоставим по мощности и выполняемым задачам с первым. Для реализации этого проекта софтверный гигант выделит $4 млрд.

Смит подчеркнул, что уникальность и передовой уровень проекта обеспечиваются комбинацией трёх факторов: количества ускорителей от Nvidia, мощности этих ускорителей, а также сетевой инфраструктуры и систем, объединяющих эти мощности воедино. «Если собрать всё вместе, то это позволит обучать более продвинутые ИИ-модели, чем когда-либо прежде», — заявил Смит.

ЦОД Microsoft в Висконсине включает в себя три двухэтажных здания суммарной площадью около 111,5 тыс. м², которые возведены на участке площадью примерно 1275 Га. По данным Microsoft, на этом объекте размещены сотни тысяч ИИ-ускорителей Nvidia GB200. На уровне серверных стоек ускорители обмениваются данным со скоростью до нескольких терабайт в секунду. Отмечается, что ЦОД построен по двухэтажной схеме, что обеспечивает более тесное сетевое взаимодействие и снижение задержек. При строительстве объекта было задействовано около 193 км кабелей среднего напряжения и около 117 км трубопроводов для прокладки коммуникаций.

Анонсированный ЦОД стоимостью $4 млрд станет третьим подобным объектом в семействе передовых дата-центров Fairwater. Первым таким объектом является ЦОД в Висконсине, а ещё один такой ЦОД возведут в Джорджии. Смит сообщил, что Microsoft купила участок земли у тайваньской Foxconn, которая ранее объявила о намерении инвестировать $10 млрд в регион, но так и не реализовала свои планы в полной мере. «Нам удалось купить эту землю. Мы воспользуемся преимуществами уже имеющейся там инфраструктуры и проведённых подготовительных работ», — добавил Смит.

По словам президента Microsoft, система охлаждения ЦОД в Висконсине является ещё одним аспектом, которые делают данный объект передовым. «Один из главных вопросов, который актуален сейчас в Висконсине, заключается в том, строят ли компании центры обработки данных вблизи озера Мичиган, чтобы использовать огромное количество воды из озера. Ответ – нет», — заявил Смит.

Более 90 % помещений объекта в Висконсине будут обслуживаться системой замкнутого цикла, которая обеспечивает рециркуляцию воды и химикатов и не нуждается в повторном заполнении. Оставшаяся часть помещений будет использовать систему воздушного кондиционирования, переключаясь на водяное охлаждение только при необходимости в особо жаркие периоды. По данным Microsoft, общее годовое потребление воды одним ЦОД в кампусе будет сопоставимо с объёмом, который использует поле для гольфа с 18 лунками за неделю в летние месяцы или ресторан за год.

Смит также отметил, что компания с пониманием относится к озабоченности местных жителей по поводу увеличения энергопотребления в регионе из-за появления ЦОД, что может привести к росту цен для населения. Он заявил, что Microsoft договорилась с местным поставщиком коммунальных услуг WE Energies о повышении тарифов для компании, чтобы взять на себя эти расходы.

Axiom Space представила первый орбитальный ЦОД на МКС

Компания Axiom Space с партнёрами сообщила о создании первого орбитального дата-центра, который разместился на МКС. Этот ЦОД будет обслуживать не только станцию, но также любые спутники с оптическими терминалами на борту. Аппаратам в космосе больше не нужно будет ждать очереди или удобного положения на орбите для передачи данных на Землю. ЦОД на МКС сам обработает сырые данные со спутников и передаст на Землю итоговый результат.

 Источник изображения: ИИ-генерация Grok 3/3DNews

Источник изображения: ИИ-генерация Grok 3/3DNews

В космосе и на МКС в частности давно наблюдается дефицит вычислительных мощностей и каналов связи. Проект орбитальных ЦОД (ODC) с оптическими каналами связи в виде ячеистой сети позволяет решить вопрос как с трафиком, так и с проведением расчётов на месте. Проект компании Axiom Space, реализуемый совместно с компаниями Spacebilt, Microchip Technology, Phison Electronics и Skyloom, стал первым крупным шагом на пути к поставленной цели.

Модуль ЦОД и необходимые внутренние и внешние компоненты для его работы по оптическим каналам связи на борту МКС был доставлен на станцию в августе. Сегодня он формально приступил к работе. Это платформа AxDCU-1 в виде автономного сервера на платформе Red Hat Device Edge, специально разработанной для сред с ограниченными ресурсами. Непосредственно сервер создан компанией Spacebilt, которая использовала 64-разрядные процессоры Microchip PIC64-HPSC и накопители SSD Phison Pascari объёмом 128,88 Тбайт.

Для работы ЦОД в сети космической оптической связи компания Skyloom создала терминал. В дальнейшем он будет использоваться как коммерческими спутниками, так и государственными. Терминал способен обеспечить скорость связи с ЦОД на борту МКС до 2,5 Гбит/с. В будущем скорость обмена будет повышена до 100 Гбит/с.

«Мы закладываем фундамент оптической магистрали, которая однажды сделает космос таким же подключенным и богатым данными, как Земля, — сказал Эрик Мольцау (Eric Moltzau), коммерческий директор Skyloom. — Обеспечивая высокоскоростную оптическую связь с узлом AxODC, мы ускоряем будущее орбитальных облачных вычислений и принятия решений в космосе на основе искусственного интеллекта».

Облаку в космосе — быть, уверены в Axiom Space, запуская работу ЦОД на Международной космической станции.

OpenAI готова зарабатывать на создании ЦОД для клиентов

Стартап OpenAI, который долгое время специализировался на обучении больших языковых моделей и опирался главным образом на арендованные вычислительные мощности, всё чаще задумывается об усилении вертикальной интеграции бизнеса. Получив опыт в создании инфраструктуры, OpenAI готов зарабатывать на этом при реализации проектов для своих клиентов.

 Источник изображения: Unsplash, İsmail Enes Ayhan

Источник изображения: Unsplash, İsmail Enes Ayhan

Подобные заявления вчера прозвучали из уст финансового директора OpenAI Сары Фрайар (Sarah Friar) в интервью, на которое ссылается Bloomberg. Сама идея подобного источника дополнительного дохода возникла у руководства OpenAI в результате изучения опыта Amazon, чьё облачное подразделение AWS сдаёт в аренду собственные вычислительные мощности, которые в определённый период не загружены работой.

Впрочем, как подчеркнула Фрайар, именно сейчас OpenAI о подобных услугах не задумывается, поскольку сосредоточена на обеспечении собственных потребностей в вычислительных ресурсах. «Но я думаю об этом, как о бизнесе в определённой перспективе, безусловно», — отметила финансовый директор компании. За последние годы она обрела определённый опыт в создании вычислительной инфраструктуры, а потому готова зарабатывать на этом в будущем. Кроме того, OpenAI намерена меньше зависеть от подрядчиков в этой сфере, поскольку их привлечение подразумевает передачу ценной интеллектуальной собственности сторонним компаниям.

Десятки миллиардов долларов, которые OpenAI при участии партнёров типа SoftBank и Oracle готова тратить на расширение своих вычислительных мощностей, всё равно являются каплей в море, поскольку генеральный директор Сэм Альтман (Sam Altman) в этом месяце призвал общественность быть готовой к тому, что в не очень отдалённом будущем компания начнёт тратить на строительство ЦОД триллионы долларов США. Кроме того, OpenAI работает над созданием «весьма интересного финансового инструмента», который позволит обеспечивать подобную деятельность необходимыми средствами.

Как отметила финансовый директор OpenAI, теперь компания готова финансировать свою деятельность и за счёт заёмных средств, а не полагаться только на целевые инвестиции партнёров. Разрабатываются и новые финансовые инструменты, о которых говорил Альтман. Проблема заключается в том, что даже быстро наращивая выручку, OpenAI всё равно тратит больше, чем зарабатывает, поэтому кредиторы к её бизнес-модели вполне обоснованно могут относиться настороженно. В июле размер выручки OpenAI впервые превысил $1 млрд, как подчеркнула Фрайар. По слухам, компания также продолжает привлекать капитал через продажу собственных акций. Капитализация бизнеса может достичь $500 млрд по итогам очередного раунда финансирования, который позволит привлечь на нужды OpenAI до $41 млрд в совокупности. Количество желающих вложиться в компанию велико, по словам финансового директора, поэтому планы по привлечению капитала с лёгкостью перевыполняются.

Meta✴ временно поселила ИИ-серверы в палатки

Компания Meta✴ активно развивает технологии искусственного интеллекта и наращивает вычислительные мощности — в условиях дефицита площадей для размещения серверных стоек компания дошла до того, что временно размещает центры обработки данных в палатках.

 Источник изображения: Patrick Hendry / unsplash.com

Источник изображения: Patrick Hendry / unsplash.com

В гонке за созданием технологий передового искусственного интеллекта компания Meta✴ переманивает ведущих профильных специалистов из других компаний; кроме того, уже строится колоссальный 5-гигаваттный ЦОД под названием Hyperion. Компания настолько стремится нарастить свою вычислительную мощность, что буквально ставит палатки для временного размещения ЦОД, пока основные объекты ещё строятся.

Всё это указывает, что Meta✴, уступившая инициативу таким игрокам как OpenAI, xAI и Google, стремится наверстать упущенное, и глава компании Марк Цукерберг (Mark Zuckerberg) не готов ждать стандартных сроков строительства, чтобы сократить разрыв. «Этот проект отличают не красота или избыточность. Речь идёт о срочном запуске вычислительных ресурсов! От сборных энергетических и охлаждающих модулей до сверхлёгких конструкций — решающее значение имеет скорость, и резервных источников энергии (таких как дизельные генераторы) не предусматривается», — пишет SemiAnalysis.

Гигантский ЦОД Hyperion будет расположен в американском штате Луизиана; к 2030 году он выйдет на мощность 2 ГВт, передаёт TechCrunch со ссылкой на официального представителя Meta✴ Эшли Габриэль (Ashley Gabriel).


window-new
Soft
Hard
Тренды 🔥
NVIDIA вновь впереди всех в новом раунде MLPerf Training v5.1 4 ч.
Новая статья: В шаговой доступности: как быстро найти бесплатный Wi-Fi в России 6 ч.
Google научила NotebookLM проводить «глубокие исследования», работать с Microsoft Word и «Google Таблицами» 6 ч.
В браузере Firefox появится прозрачное «Окно с ИИ» со чат-ботом и умным помощником 7 ч.
Rockstar подтвердила релиз Red Dead Redemption на PS5, Xbox Series X и S, Switch 2 и смартфонах — дата выхода и подробности улучшений 7 ч.
Google представила геймерского ИИ-агента SIMA 2 — он умеет проходить незнакомые игры 9 ч.
AMD выпустила драйвер Radeon с поддержкой Ryzen 5 7500X3D, а также игр Call of Duty: Black Ops 7, Anno 117: Pax Romana и ARC Raiders 9 ч.
Google грозит новый штраф в ЕС — на этот раз из-за неправильной борьбы со спамом 11 ч.
ИИ Google пробежится по рождественским распродажам за пользователя — сам выберет, сам закажет… и сам воспользуется? 11 ч.
Власти Франции полностью сняли с главы Telegram Павла Дурова запрет на выезд из страны 12 ч.
Доля AMD на рынке настольных процессоров выросла до 33,6 %, по данным Mercury Research 2 ч.
Tesla отзывает более 10 000 домашних аккумуляторов Powerwall 2 — они могут спалить дом из-за дефектных элементов 8 ч.
Baidu анонсировала суверенные ИИ-ускорители Kunlun M100 и M300 для инференса и обучения 9 ч.
Вышла глобальная версия смартфона OnePlus 15 – цена от $900 9 ч.
Steam Machine превратится в «Куб-Компаньон» из игр Portal — Dbrand представила скин для грядущей приставки 10 ч.
Китай испытал самого большого в мире воздушного змея для добычи электричества из подъёмной силы ветра 10 ч.
Google инвестирует €5,5 млрд в дата-центры в Германии 12 ч.
Ретро-консоль Analogue 3D с поддержкой 4K и картриджей Nintendo 64 наконец поступит в продажу на следующей неделе 12 ч.
Меж болот и прерий: Meta начала строительство юбилейного 30-го дата-центра за $1 млрд 13 ч.
DJI выпустила селфи-дрон Neo 2 за €239 на глобальный рынок, но не в США 13 ч.