Сегодня 07 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → цод
Быстрый переход

Учёные придумали пассивный кулер на пористой мембране для самых мощных чипов — он эффективнее традиционных

Учёные Калифорнийского университета в Сан-Диего создали пассивную систему охлаждения, основанную на испарительной мембране, которая значительно улучшает отвод тепла от мощных чипов, что особенно актуально для современных ЦОД, пишет SciTechDaily. Новое решение не только предлагает эффективную и энергосберегающую альтернативу традиционным методам охлаждения, но и потенциально позволяет сократить расход воды, используемой во многих существующих системах.

 Источник изображений: SciTechDaily/Tianshi Feng

Источник изображений: SciTechDaily/Tianshi Feng

В настоящее время на системы охлаждения приходится до 40 % общего энергопотребления ЦОД. При сохранении текущего роста и развёртывании ИИ-технологий мировой спрос на энергию для охлаждения к 2030 году может увеличиться более чем вдвое.

В системе используется недорогая половолоконная мембрана с множеством взаимосвязанных микроскопических пор, которые втягивают охлаждающую жидкость за счёт капиллярного эффекта. Испаряясь, жидкость отводит тепло от расположенных ниже электронных компонентов без необходимости использования дополнительной энергии. Мембрана расположена над микроканалами, по которым поступает жидкость, что позволяет теплу эффективно рассеиваться от расположенного ниже оборудования.

«По сравнению с традиционным воздушным или жидкостным охлаждением испарение позволяет рассеивать больший тепловой поток при меньших затратах энергии», — отметил руководитель проекта Ренкун Чен (Renkun Chen), профессор кафедры машиностроения и аэрокосмической техники Инженерной школы Джейкобса Калифорнийского университета в Сан-Диего. По его словам, предыдущие попытки использования пористых мембран, обладающих большой площадью поверхности, идеально подходящей для испарения, не увенчались успехом из-за несоответствующего размера пор: они были либо слишком малы, что приводило к засорению, либо слишком велики, что вызывало нежелательное вскипание.

«Здесь мы используем пористые волокнистые мембраны с взаимосвязанными порами правильного размера», — сказал Чен. Такая конструкция обеспечивает эффективное испарение без этих недостатков.

Предложенная учёными конструкция мембраны при испытаниях в условиях переменных тепловых потоков выдержала тепловые нагрузки выше 800 Вт на квадратный сантиметр — один из самых высоких показателей, когда-либо зарегистрированных для подобных систем охлаждения. Также система продемонстрировала стабильность в течение нескольких часов работы.

Тем не менее, по словам учёного, достигнутые показатели пока значительно ниже теоретического предела технологии. Сейчас команда работает над усовершенствованием мембраны и оптимизацией её производительности. Следующие шаги включают интеграцию решения в прототипы охлаждающих пластин — плоских компонентов, которые крепятся к микросхемам, таким как центральные и графические процессоры, для рассеивания тепла. Команда также запускает стартап для коммерциализации технологии.

Google придумала дата-центр с неограниченным источником энергии, но придётся усыпать орбиту спутниками — представлен Project Suncatcher

Google предложила новый способ обойти ограничения, актуальные для энергоёмких центров обработки данных для систем искусственного интеллекта на Земле — размещать ИИ-ускорители на спутниках, которые работают на солнечной энергии. Этой идее посвящена новая программа компании, получившая название Project Suncatcher.

 Источник изображения: SpaceX / unsplash.com

Источник изображения: SpaceX / unsplash.com

Если технологический гигант начнёт реализацию этого проекта, на орбите появятся космические ЦОД — там солнечную энергию можно будет использовать круглосуточно. Google мечтает подключиться к практически неограниченному источнику чистой энергии, чтобы реализовать свои планы в области ИИ, не размениваясь на сопутствующие земным ЦОД сложности, такие как углеродные выбросы и высокие цены на энергоисточники. Солнечные батареи на спутниках с тензорными процессорами (TPU) Google обещают восьмикратно превзойти показатели земных.

Важнейшая задача для проекта — обеспечить надёжную связь между спутниками. Если они будут выступать аналогами земных ЦОД, то канал связи должен иметь ширину в десятки терабит в секунду, говорят в компании. Один из способов решить задачу — формировать плотные скопления аппаратов, чтобы они находились на расстоянии «не более километра» друг от друга. Это значительно ближе, чем расстояние между спутниками в теперешних группировках. Компания также убедилась, что её TPU способны выдерживать радиационное излучение, эквивалентное тому, что они получат за пять лет работы на орбите.

Пока отправка космических аппаратов на орбиту обходится дорого, но уже в середине будущего десятилетия, по оценкам инженеров Google, запуск и эксплуатация космических ЦОД будут сопоставимы с обслуживанием земных из расчёта на киловатты в год. Первые испытания оборудования на орбите намечены на 2027 год — партнёром Google выступит компания Planet. Подробности проекта Project Suncatcher инженеры Google привели в нерецензированной научной статье (PDF).

Microsoft вложит в развитие ИИ в ОАЭ около $15,2 млрд за четыре года

Едва вернувшись в Белый дом в качестве президента США, Дональд Трамп (Donald Trump) в этом году начал «торговать» новым американским преимуществом в виде ускорителей вычислений на международном рынке, и корпорация Microsoft только сейчас смогла заключить соглашение с ОАЭ на развитие локальной инфраструктуры ИИ на общую сумму $15,2 млрд, которая будет распределена на четыре года.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Подобный срок вполне предсказуем, поскольку определяется продолжительностью пребывания действующего президента США на своём посту. Microsoft одновременно получила право поставлять в ОАЭ передовые ускорители вычислений Nvidia, как отмечает TechCrunch, и в условиях экспортных ограничений это тоже своего рода достижение. Такие условия превращают ОАЭ в проводника политики США в регионе, учитывая растущее влияние искусственного интеллекта на геополитические процессы.

Ещё в мае этого года Дональд Трамп заключил с президентом ОАЭ Мохаммедом бин Зайд аль-Нахайяном соглашение о строительстве центров обработки данных в Абу-Даби. К реализации проекта его участники приступить не могли из-за длительной процедуры согласования поставок передовых компонентов американского происхождения в эту ближневосточную страну. В сентябре Microsoft стала первым обладателем экспортной лицензии, позволяющей начать эти поставки в ОАЭ.

Как подчеркнули представители Microsoft, была проделана большая работа по обеспечению требований экспортного контроля США, но в итоге корпорация получила возможность направить в ОАЭ ускорители Nvidia, по своей производительности эквивалентные 21 500 экземплярам A100, хотя в действительности в партию попали и более современные H100 и H200. Как и планировалось по итогам майских договорённостей, использовать локальные вычислительные мощности в ОАЭ будут американские компании: Microsoft, OpenAI и Anthropic.

Общая сумма в $15,2 млрд включает те средства, которые Microsoft уже потратила на развитие вычислительной инфраструктуры в ОАЭ, начиная с 2023 года. До конца текущего года за указанный период будет в общей сложности потрачено $7,3 млрд, включая вложенные в капитал арабской G42 полтора миллиарда долларов США, а также более $4,6 млрд на строительство центров обработки данных.

Следующий этап инвестиций подразумевает расходы со стороны Microsoft в размере $7,9 млрд с начала следующего года до конца 2029 года, из них $5,5 млрд будут направлены на капитальные затраты по строительству и расширению локальных центров обработки данных в ОАЭ. Подробнее об этих планах Microsoft собирается поведать на текущей неделе в ходе мероприятия в Абу-Даби. Американская корпорация будет часть своих инвестиций направлять на подготовку кадров для ИИ непосредственно в ОАЭ. К 2027 году обучение пройдёт миллион местных жителей, а ещё Microsoft развернёт в стране исследовательский центр, который будет заниматься разработкой больших языковых моделей. В тот же день Microsoft заключила контракт с Австралией на строительство центров обработки данных на сумму $9,7 млрд, поэтому Ближним Востоком активность этого облачного провайдера не ограничивается.

Qualcomm вернулась в большие вычисления: представлены ИИ-ускорители AI200 и AI250 для дата-центров

Компания Qualcomm анонсировала два ускорителя ИИ-инференса (запуска уже обученных больших языковых моделей) — AI200 и AI250, которые выйдут на рынок в 2026 и 2027 годах. Новинки должны составить конкуренцию стоечным решениям AMD и Nvidia, предложив повышенную эффективность и более низкие эксплуатационные расходы при выполнении масштабных задач генеративного ИИ.

 Источник изображений: Qualcomm

Источник изображений: Qualcomm

Оба ускорителя — Qualcomm AI200 и AI250 — основаны на нейронных процессорах (NPU) Qualcomm Hexagon, адаптированных для задач ИИ в центрах обработки данных. В последние годы компания постепенно совершенствовала свои нейропроцессоры Hexagon, поэтому последние версии чипов уже оснащены скалярными, векторными и тензорными ускорителями (в конфигурации 12+8+1). Они поддерживают такие форматы данных, как INT2, INT4, INT8, INT16, FP8, FP16, микротайловый вывод для сокращения трафика памяти, 64-битную адресацию памяти, виртуализацию и шифрование моделей Gen AI для дополнительной безопасности.

Ускорители AI200 представляют собой первую систему логического вывода для ЦОД от Qualcomm и предлагают до 768 Гбайт встроенной памяти LPDDR. Система будет использовать интерфейсы PCIe для вертикального масштабирования и Ethernet — для горизонтального. Расчётная мощность стойки с ускорителями Qualcomm AI200 составляет 160 кВт. Система предполагает использование прямого жидкостного охлаждения. Для Qualcomm AI200 также заявлена поддержка конфиденциальных вычислений для корпоративных развертываний. Решение станет доступно в 2026 году.

Qualcomm AI250, выпуск которого состоится годом позже дебютирует с новой архитектурой памяти, которая обеспечит увеличение пропускной способности более чем в 10 раз. Кроме того, система будет поддерживать возможность дезагрегированного логического вывода, что позволит динамически распределять ресурсы памяти между картами. Qualcomm позиционирует его как более эффективное решение с высокой пропускной способностью, оптимизированное для крупных ИИ-моделей трансформеров. При этом система сохранит те же характеристики теплопередачи, охлаждения, безопасности и масштабируемости, что и AI200.

Помимо разработки аппаратных платформ, Qualcomm также сообщила о разработке гипермасштабируемой сквозной программной платформы, оптимизированной для крупномасштабных задач логического вывода. Платформа поддерживает основные наборы инструментов машинного обучения и генеративного ИИ, включая PyTorch, ONNX, vLLM, LangChain и CrewAI, обеспечивая при этом беспроблемное развертывание моделей. Программный стек будет поддерживать дезагрегированное обслуживание, конфиденциальные вычисления и подключение предварительно обученных моделей «одним щелчком мыши», заявляет компания.

Китайцы встроили ЦОД в основание морского ветряка — получилось эффективно и экономично

В Китае завершено строительство первого в мире подводного центра обработки данных, работающего на энергии ветра. Пикантность ситуации в том, что ЦОД расположен в основании питающей его ветряной турбины и находится ниже уровня моря, что обеспечивает ему условно бесплатное охлаждение — колоссальную проблему всех современных дата-центров. Успех опытного проекта может привести к массовому «затоплению» множества ЦОД в Китае.

 Источник изображения: Shanghai Hailanyun Technology

Источник изображения: Shanghai Hailanyun Technology

Пилотный проект реализован компанией Shanghai Hailanyun Technology у побережья зоны свободной торговли Особого района Китая Линган (Шанхай). Стоимость проекта составляет около 1,6 млрд юаней ($226 млн) и знаменует собой смелый шаг в создании устойчивой и высокопроизводительной вычислительной инфраструктуры. Подобная комбинация вычислительных и генерирующих мощностей обеспечивает объекту более 95 % необходимой для работы энергии, экономит на расходах на охлаждение и не занимает дефицитной земли. В совокупности это позволяет отказаться от пресной воды в системе охлаждения ЦОД и ведёт примерно к 22,8 % сокращению энергопотребления объекта.

Крупные наземные дата-центры способны каждый день расходовать на охлаждение объём пресной воды, достаточный для удовлетворения нужд городка на 50 тыс. жителей. К тому же на охлаждение может уходить до 50 % и более энергопотребления ЦОД. Проект с морским ЦОД с питанием от ветряка обещает сократить энергобюджет на охлаждение до 10 % и менее. Заявленный показатель эффективности энергопотребления (PUE) для него должен быть не выше 1,15, тогда как для всех новых и модернизированных ЦОД в Китае PUE не должен превышать 1,25.

Ожидается, что «ЦОД в ветряке» будет поддерживать широкий спектр передовых приложений для цифровой экономики и вычислений, а не просто служить хранилищем данных. Согласно официальным источникам, объект будет обеспечивать рабочие нагрузки, связанные с искусственным интеллектом и обучением высокопроизводительных моделей, обеспечивать вычислительную инфраструктуру для сетей 5G, промышленного интернета вещей (IoT) и электронной коммерции, а также станет частью региональной магистрали для международных каналов передачи данных. По сути, этот ЦОД будет функционировать как экологичный, высокопроизводительный подводный вычислительный кластер.

Стоит отметить, что этот проект является лишь первым этапом грандиозного подводного строительства. На втором этапе этот демонстрационный объект мощностью 2,3 МВт будет расширен до 24 МВт, хотя сроки его запуска пока не объявлены и будут зависеть от результатов испытаний.

Добавим, что ранее в этом месяце в Китае начал работать первый в мире коммерческий подводный ЦОД. Первой в море ЦОД опустила компания Microsoft — это произошло около семи лет назад, но китайцы стали лидерами по выведению этой услуги на рынок. Если подводный ЦОД в основании морской ветряной турбины хорошо покажет себя на практике, то за пилотным проектом последуют коммерческие. Впрочем, разработчики проекта подчёркивают, что остаётся множество нерешённых проблем — от коррозии до обслуживания подводных центров — и перевод проекта на коммерческие рельсы может задержаться.

Первый в мире ИИ-спутник с ускорителем Nvidia H100 отправится в космос в ноябре

Компания Starcloud (ранее — Lumen Orbit), участница программы NVIDIA Inception, объявила о запуске первого в мире спутника с искусственным интеллектом на базе ускорителя NVIDIA H100. Запуск, запланированный на ноябрь, станет шагом к созданию орбитальных дата-центров, которые, по расчётам, смогут сократить энергопотребление и углеродные выбросы на порядок по сравнению с наземными аналогами.

 Источник изображений: Starcloud

Источник изображений: Starcloud

Starcloud-1 весит около 60 кг и по размерам сопоставим с небольшим холодильником. Аппарат будет обрабатывать данные, поступающие от спутников дистанционного зондирования Земли, и выполнять задачи вывода на базе ИИ (inference) прямо на орбите — без необходимости передавать большие объёмы информации на Землю. По словам главы компании Филипа Джонстона (Philip Johnston), использование H100 обеспечит «в сто раз большую вычислительную мощность», чем существующие космические вычислительные платформы.

Космос — идеальная среда для энергоэффективных ИИ-систем. Спутники могут получать почти неограниченную энергию от Солнца и охлаждаться естественным образом в вакууме за счёт инфракрасного излучения, без воды и громоздких систем вентиляции. Это позволяет не только экономить энергию, но и снижать углеродный след дата-центров примерно в десять раз на протяжении всего их жизненного цикла.

В долгосрочной перспективе Starcloud намерена построить орбитальный дата-центр мощностью до 5 ГВт с солнечными панелями и радиаторами длиной около четырёх километров. По замыслу компании, такие системы помогут разгрузить земные энергосети, обеспечат условно бесплатное охлаждение и снизят зависимость ИИ-инфраструктуры от традиционных энергетических ресурсов.

Основные сценарии применения — обработка данных наблюдения за Землёй в реальном времени: обнаружение пожаров, реагирование на сигналы бедствия, прогнозирование погоды. Например, синтетическая апертурная радиолокация (SAR) способна генерировать до 10 Гбайт данных в секунду, и выполнение анализа на орбите позволит получать результаты мгновенно, без задержек, связанных с передачей сырых данных на Землю.

Благодаря участию в программе NVIDIA Inception, стартап получил доступ к аппаратной базе NVIDIA и консультациям инженеров компании. Запуск Starcloud-1 с ускорителем H100 станет первым примером применения этой архитектуры в космосе. В дальнейшем планируется интеграция платформы NVIDIA Blackwell с десятикратным ростом производительности, а также тестирование работы открытой модели Gemma от Google прямо на борту спутника.

Проект Starcloud рассматривается как потенциальный прорыв в области устойчивых ИИ-вычислений: он сочетает возобновляемую энергию, отсутствие затрат на охлаждение и мгновенную обработку данных. Хотя эксперты указывают на высокие издержки запусков и технические риски, в компании уверены, что через десять лет большинство новых дата-центров будут строиться уже в космосе.

Точная дата запуска Starcloud-1 пока не объявлена. Известно лишь, что спутник должен полететь на ракете SpaceX Falcon 9 в рамках миссии Bandwagon-4 как попутная нагрузка. В числе основных заказчиков числятся военные ведомства Южной Кореи и США, поэтому о деталях миссии пока не распространяются.

Китай погрузит дата-центры под воду, чтобы Земля стала чище

Затраты на энергоснабжение мощных центров обработки данных велики ещё и по той причине, что им требуется серьёзное охлаждение, и в целом обеспечение таких объектов электроэнергией увеличивает углеродные выбросы в атмосферу. Китайские разработчики пытаются снизить это пагубное влияние за счёт создания подводных центров обработки данных.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Производитель различного морского оборудования Highlander в сотрудничестве со строительными компаниями в Шанхае пытается создать погружной центр обработки данных, который смог бы работать в море у берегов Шанхая. Его конструкция напоминает огромную жёлтую бочку с порталом для подключения необходимых коммуникаций. Подводные центры обработки данных, по мнению участников эксперимента, имеют важное преимущество, поскольку могут охлаждаться океанскими течениями.

Microsoft ещё в 2018 году испытала подобное решение у берегов Шотландии, но китайский проект, который будет запущен в середине этого месяца, готов работать на коммерческой основе. Клиентами подводного ЦОД в Шанхае готовы стать оператор связи China Telecom и одна из местных компаний ИИ-сектора с государственным участием. По словам вице-президента Highlander, подводные ЦОД позволяют сократить расходы энергии на своё охлаждение на величину до 90 %.

Highlander в 2022 году получила от властей Китая субсидии в размере $5,62 млн на реализацию схожего проекта в провинции Хайнань, который до сих пор функционирует. Как отмечают специалисты Highlander, с точки зрения технической реализации подобные проекты обычно таят больше трудностей, чем ожидается изначально. Высокая стоимость и потенциальное влияние на экологию моря являются факторами, которые пока сдерживают широкое распространение подводных центров обработки данных.

Шанхайский проект Highlander будет более 95 % электроэнергии, необходимой для своей работы, получать от ветряных источников генерации. При создании герметичной капсулы корпуса ЦОД важно обеспечить защиту от длительного воздействия солёной воды, которая вызывает коррозию. Highlander покрывает стальной корпус капсулы специальным составом на основе частиц стекла. На поверхности моря расположится шлюзовой отсек, который будет перемещать обслуживающий персонал до погружённой в море капсулы ЦОД при помощи специального лифта.

Примечательно, что японским учёным уже удалось найти специфические уязвимости подводных ЦОД с точки зрения информационной безопасности. Как выясняется, злоумышленники могут атаковать их при помощи звуковых волн, распространяемых в воде. Экологи озабочены тем, что выделяемое подводным ЦОД тепло может оказывать влияние на экосферу в окрестностях. Часть обитателей моря при изменении температурного режима может переселиться в более прохладные районы, тогда как теплолюбивые соседи займут их место. Конечный эффект подобной миграции морской фауны предугадать сложно. Влияние этого фактора на экологию заметно усилится по мере масштабирования вычислительных мощностей в конкретном районе акватории. Скорее всего, подводные ЦОД не заменят собой наземные полностью, а будут уживаться с ними, как считают эксперты.

На орбите появятся гигантские дата-центры для ИИ в течение десяти лет, уверен Джефф Безос

Выступая на технологической конференции в итальянском Турине на этой неделе, основатель и бывший руководитель Amazon Джефф Безос (Jeff Bezos) не только охарактеризовал состояние ИИ-отрасли и её ближайшее будущее, но и выразил уверенность, что в течение 10–20 лет станет возможным создание центров обработки данных в космосе.

 Источник изображения: AWS

Источник изображения: AWS

По мнению Безоса, доступ к непрерывным потокам солнечной энергии позволит таким центрам обработки данных превосходить по производительности те, что расположатся на Земле. По своей мощности они будут достигать гигаваттных масштабов, как убеждён миллиардер. «Гигантские обучающие кластеры, их лучше строить в космосе, поскольку мы имеем доступ к солнечной энергии в режиме 24/7. Там нет облачность и дождей, нет погоды. Мы сможем осилить расходы по созданию внеземных центров обработки данных в ближайшие пару десятилетий»,заявил Безос.

Смещение в сторону космической инфраструктуры, по его мнению, станет частью более масштабной инициативы по улучшению жизни на Земле благодаря освоению космоса. Как он отметил, это уже произошло с метеорологическими и телекоммуникационными спутниками. Следующим этапом станут центры обработки данных, а потом дело дойдёт до некоторых видов производственной деятельности. Говоря о перспективах распространения ИИ в целом, Безос добавил: «Мы должны быть предельно оптимистичны в том, что социальные блага, которые приносит ИИ, подобные тем, что наблюдались 25 лет по мере распространения интернета, реальны и останутся надолго». Он убеждён, что нужно отделять потенциальные «пузыри» и последствия от их схлопывания, которые могут как случиться, так и нет, от объективной реальности.

ИИ-пузырь покорил новую веху: капитализация Nvidia превысила $4,5 трлн

Акции Nvidia во вторник достигли нового рекорда, поднявшись почти на 3 %, что увеличило рыночную капитализацию производителя чипов до невероятных $4,5 триллиона. За год акции Nvidia выросли примерно на 49 % и продолжают привлекать инвесторов, поскольку компания наращивает темпы заключения сделок, укрепляя свои позиции в центре бума искусственного интеллекта, сообщает CNBC.

 Источник изображения: Nvidia

Источник изображения: Nvidia

На прошлой неделе OpenAI заявила, что Nvidia приобретёт долю в стартапе в сфере ИИ на сумму до $100 млрд и построит центры обработки данных стоимостью в сотни миллиардов долларов, которые будут оснащаться графическими ускорителями Nvidia. Затем OpenAI объявила о строительстве пяти новых крупных центров обработки данных совместно с Oracle в рамках ИИ-мегапроекта Stargate. По словам компаний реализация плана обойдётся в $500 млрд.

Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) заявил, что на продукцию Nvidia приходится около 70 % расходов на новые центры обработки данных для ИИ.

Аналитики Citi во вторник повысили целевую стоимость акций Nvidia с $200 до $210, ссылаясь на прогноз роста расходов на инфраструктуру ИИ после анонсов OpenAI.

«Мы считаем, что OpenAI обратилась к Nvidia за помощью, поскольку у Nvidia есть очень привлекательный продукт, а число пользователей и объёмы потребляемых вычислительных мощностей на одного пользователя растут», — цитирует CNBC аналитика Citi Атифа Малика (Atif Malik).

Meta✴, Google и другие компании также значительно увеличивают свои расходы на инфраструктуру. CoreWeave, поставщик облачных услуг, крупным акционером которого является Nvidia, сообщил во вторник о достижении соглашения о поставке Meta✴ услуг по инфраструктуре ИИ на сумму $14,2 млрд.

Акции Nvidia в этом году опережают по темпам роста всех конкурентов, за исключением производителя микросхем Broadcom, бумаги которого выросли примерно на 40 %, чему также способствовал OpenAI.

Совместный проект Nvidia и OpenAI потребует энергию 10 ядерных реакторов

Компании Nvidia и OpenAI неделю начали с заявления о намерениях направить $100 млрд на строительство центров обработки данных совокупной мощностью 10 ГВт. Для их обеспечения электроэнергией, по сути, потребовались бы 10 ядерных реакторов, таких как работают на Ленинградской АЭС. Кроме того, это почти втрое больше, чем в среднем потребляли все дата-центры Google во всём мире в 2024 году.

 Источник изображения: Unsplash, Lukáš Lehotský

Источник изображения: Unsplash, Lukáš Lehotský

Как успел заявить в интервью CNBC основатель и генеральный директор Nvidia Дженсен Хуанг (Jensen Huang), уровень энергопотребления в 10 ГВт соответствует от 4 до 5 млн ускорителей вычислений, и подобное количество продукции компания намерена поставить по итогам текущего года. Это один из редких случаев, когда глава Nvidia количественно характеризует возможности своей компании. По его словам, в прошлом году она поставила вдвое меньше ускорителей. Уже только эти заявления позволяют судить о масштабе совместного проекта Nvidia и OpenAI.

По информации Ars Technica, типовой центр обработки данных в наши дни потребляет от 10 МВт до 1 ГВт, но чаще всего встречаются объекты с уровнем энергопотребления от 50 до 200 МВт. Проект OpenAI и Nvidia будет по уровню энергопотребления сопоставим с несколькими крупными городами, а также почти втрое превысит «аппетиты» всех ЦОД компании Google — по итогам 2024 года их средняя мощность достигла 3,67 ГВт. Также мощность проекта OpenAI и Nvidia можно легко представить в ядерных реакторах — например, для его питания потребовалось бы больше десятка реакторов РБМК-1000 (чистая мощность 925 МВт) или ВВЭР-1000 (950 МВт), используемых на Ленинградской АЭС и Ростовской АЭС соответственно.

Сделка между OpenAI и Nvidia превращает последнюю в одного из крупнейших партнёров первой наряду с Microsoft, Oracle и SoftBank, которые будут принимать участие в мегапроекте Stargate. Поскольку значительная часть затрат на строительство ЦОД подразумевает закупку ускорителей Nvidia, основная доля заявленных компанией инвестиций в размере $100 млрд вернётся на её счета.

Ранее глава Nvidia пояснял, что строительство гигаваттного центра обработки данных в среднем обходится в сумму от $50 до $60 млрд, причём до $35 млрд из них расходуются на закупку её ускорителей вычислений. При таких ценах ЦОД на 10 ГВт обойдётся как минимум в $500 млрд. Потребности в энергоснабжении всё чаще подталкивают владельцев крупных ЦОД заключать соглашения с поставщиками электричества, вырабатываемого на АЭС. Ещё в сентябре прошлого года глава OpenAI Сэм Альтман (Sam Altman) признался Bloomberg, что компания намерена построить не менее семи ЦОД мощностью по 5 ГВт каждый. В совокупности они бы потребляли электроэнергии в два раза больше, чем весь штат Нью-Йорк. Уже эксплуатируемые в мире ЦОД в 2024 году потребляли 1,5 % всей вырабатываемой электроэнергии, и эта доля будет стремительно расти.

Microsoft рассказала, что нужно собрать вместе для обучения самых продвинутых ИИ-моделей

Microsoft заявила, что находится на завершающей стадии строительства нового инфраструктурного объекта стоимостью $3,3 млрд в Висконсине. В компании этот объект называют «самым передовым в мире центром обработки данных (ЦОД) для искусственного интеллекта». Его введут в эксплуатацию в начале 2026 года, и первоначально он будет использоваться для обучения ИИ-моделей OpenAI. Об этом заявил вице-председатель и президент Microsoft Брэд Смит (Brad Smith).

 Источник изображения: Microsoft

Источник изображения: Microsoft

Во время выступления Смит также сообщил, что в дальнейшем вычислительные мощности этого ЦОД смогут задействовать как сторонние компании и сама Microsoft. Он также анонсировал строительство ещё одного ЦОД в этом районе, который будет сопоставим по мощности и выполняемым задачам с первым. Для реализации этого проекта софтверный гигант выделит $4 млрд.

Смит подчеркнул, что уникальность и передовой уровень проекта обеспечиваются комбинацией трёх факторов: количества ускорителей от Nvidia, мощности этих ускорителей, а также сетевой инфраструктуры и систем, объединяющих эти мощности воедино. «Если собрать всё вместе, то это позволит обучать более продвинутые ИИ-модели, чем когда-либо прежде», — заявил Смит.

ЦОД Microsoft в Висконсине включает в себя три двухэтажных здания суммарной площадью около 111,5 тыс. м², которые возведены на участке площадью примерно 1275 Га. По данным Microsoft, на этом объекте размещены сотни тысяч ИИ-ускорителей Nvidia GB200. На уровне серверных стоек ускорители обмениваются данным со скоростью до нескольких терабайт в секунду. Отмечается, что ЦОД построен по двухэтажной схеме, что обеспечивает более тесное сетевое взаимодействие и снижение задержек. При строительстве объекта было задействовано около 193 км кабелей среднего напряжения и около 117 км трубопроводов для прокладки коммуникаций.

Анонсированный ЦОД стоимостью $4 млрд станет третьим подобным объектом в семействе передовых дата-центров Fairwater. Первым таким объектом является ЦОД в Висконсине, а ещё один такой ЦОД возведут в Джорджии. Смит сообщил, что Microsoft купила участок земли у тайваньской Foxconn, которая ранее объявила о намерении инвестировать $10 млрд в регион, но так и не реализовала свои планы в полной мере. «Нам удалось купить эту землю. Мы воспользуемся преимуществами уже имеющейся там инфраструктуры и проведённых подготовительных работ», — добавил Смит.

По словам президента Microsoft, система охлаждения ЦОД в Висконсине является ещё одним аспектом, которые делают данный объект передовым. «Один из главных вопросов, который актуален сейчас в Висконсине, заключается в том, строят ли компании центры обработки данных вблизи озера Мичиган, чтобы использовать огромное количество воды из озера. Ответ – нет», — заявил Смит.

Более 90 % помещений объекта в Висконсине будут обслуживаться системой замкнутого цикла, которая обеспечивает рециркуляцию воды и химикатов и не нуждается в повторном заполнении. Оставшаяся часть помещений будет использовать систему воздушного кондиционирования, переключаясь на водяное охлаждение только при необходимости в особо жаркие периоды. По данным Microsoft, общее годовое потребление воды одним ЦОД в кампусе будет сопоставимо с объёмом, который использует поле для гольфа с 18 лунками за неделю в летние месяцы или ресторан за год.

Смит также отметил, что компания с пониманием относится к озабоченности местных жителей по поводу увеличения энергопотребления в регионе из-за появления ЦОД, что может привести к росту цен для населения. Он заявил, что Microsoft договорилась с местным поставщиком коммунальных услуг WE Energies о повышении тарифов для компании, чтобы взять на себя эти расходы.

Axiom Space представила первый орбитальный ЦОД на МКС

Компания Axiom Space с партнёрами сообщила о создании первого орбитального дата-центра, который разместился на МКС. Этот ЦОД будет обслуживать не только станцию, но также любые спутники с оптическими терминалами на борту. Аппаратам в космосе больше не нужно будет ждать очереди или удобного положения на орбите для передачи данных на Землю. ЦОД на МКС сам обработает сырые данные со спутников и передаст на Землю итоговый результат.

 Источник изображения: ИИ-генерация Grok 3/3DNews

Источник изображения: ИИ-генерация Grok 3/3DNews

В космосе и на МКС в частности давно наблюдается дефицит вычислительных мощностей и каналов связи. Проект орбитальных ЦОД (ODC) с оптическими каналами связи в виде ячеистой сети позволяет решить вопрос как с трафиком, так и с проведением расчётов на месте. Проект компании Axiom Space, реализуемый совместно с компаниями Spacebilt, Microchip Technology, Phison Electronics и Skyloom, стал первым крупным шагом на пути к поставленной цели.

Модуль ЦОД и необходимые внутренние и внешние компоненты для его работы по оптическим каналам связи на борту МКС был доставлен на станцию в августе. Сегодня он формально приступил к работе. Это платформа AxDCU-1 в виде автономного сервера на платформе Red Hat Device Edge, специально разработанной для сред с ограниченными ресурсами. Непосредственно сервер создан компанией Spacebilt, которая использовала 64-разрядные процессоры Microchip PIC64-HPSC и накопители SSD Phison Pascari объёмом 128,88 Тбайт.

Для работы ЦОД в сети космической оптической связи компания Skyloom создала терминал. В дальнейшем он будет использоваться как коммерческими спутниками, так и государственными. Терминал способен обеспечить скорость связи с ЦОД на борту МКС до 2,5 Гбит/с. В будущем скорость обмена будет повышена до 100 Гбит/с.

«Мы закладываем фундамент оптической магистрали, которая однажды сделает космос таким же подключенным и богатым данными, как Земля, — сказал Эрик Мольцау (Eric Moltzau), коммерческий директор Skyloom. — Обеспечивая высокоскоростную оптическую связь с узлом AxODC, мы ускоряем будущее орбитальных облачных вычислений и принятия решений в космосе на основе искусственного интеллекта».

Облаку в космосе — быть, уверены в Axiom Space, запуская работу ЦОД на Международной космической станции.

OpenAI готова зарабатывать на создании ЦОД для клиентов

Стартап OpenAI, который долгое время специализировался на обучении больших языковых моделей и опирался главным образом на арендованные вычислительные мощности, всё чаще задумывается об усилении вертикальной интеграции бизнеса. Получив опыт в создании инфраструктуры, OpenAI готов зарабатывать на этом при реализации проектов для своих клиентов.

 Источник изображения: Unsplash, İsmail Enes Ayhan

Источник изображения: Unsplash, İsmail Enes Ayhan

Подобные заявления вчера прозвучали из уст финансового директора OpenAI Сары Фрайар (Sarah Friar) в интервью, на которое ссылается Bloomberg. Сама идея подобного источника дополнительного дохода возникла у руководства OpenAI в результате изучения опыта Amazon, чьё облачное подразделение AWS сдаёт в аренду собственные вычислительные мощности, которые в определённый период не загружены работой.

Впрочем, как подчеркнула Фрайар, именно сейчас OpenAI о подобных услугах не задумывается, поскольку сосредоточена на обеспечении собственных потребностей в вычислительных ресурсах. «Но я думаю об этом, как о бизнесе в определённой перспективе, безусловно», — отметила финансовый директор компании. За последние годы она обрела определённый опыт в создании вычислительной инфраструктуры, а потому готова зарабатывать на этом в будущем. Кроме того, OpenAI намерена меньше зависеть от подрядчиков в этой сфере, поскольку их привлечение подразумевает передачу ценной интеллектуальной собственности сторонним компаниям.

Десятки миллиардов долларов, которые OpenAI при участии партнёров типа SoftBank и Oracle готова тратить на расширение своих вычислительных мощностей, всё равно являются каплей в море, поскольку генеральный директор Сэм Альтман (Sam Altman) в этом месяце призвал общественность быть готовой к тому, что в не очень отдалённом будущем компания начнёт тратить на строительство ЦОД триллионы долларов США. Кроме того, OpenAI работает над созданием «весьма интересного финансового инструмента», который позволит обеспечивать подобную деятельность необходимыми средствами.

Как отметила финансовый директор OpenAI, теперь компания готова финансировать свою деятельность и за счёт заёмных средств, а не полагаться только на целевые инвестиции партнёров. Разрабатываются и новые финансовые инструменты, о которых говорил Альтман. Проблема заключается в том, что даже быстро наращивая выручку, OpenAI всё равно тратит больше, чем зарабатывает, поэтому кредиторы к её бизнес-модели вполне обоснованно могут относиться настороженно. В июле размер выручки OpenAI впервые превысил $1 млрд, как подчеркнула Фрайар. По слухам, компания также продолжает привлекать капитал через продажу собственных акций. Капитализация бизнеса может достичь $500 млрд по итогам очередного раунда финансирования, который позволит привлечь на нужды OpenAI до $41 млрд в совокупности. Количество желающих вложиться в компанию велико, по словам финансового директора, поэтому планы по привлечению капитала с лёгкостью перевыполняются.

Meta✴ временно поселила ИИ-серверы в палатки

Компания Meta✴ активно развивает технологии искусственного интеллекта и наращивает вычислительные мощности — в условиях дефицита площадей для размещения серверных стоек компания дошла до того, что временно размещает центры обработки данных в палатках.

 Источник изображения: Patrick Hendry / unsplash.com

Источник изображения: Patrick Hendry / unsplash.com

В гонке за созданием технологий передового искусственного интеллекта компания Meta✴ переманивает ведущих профильных специалистов из других компаний; кроме того, уже строится колоссальный 5-гигаваттный ЦОД под названием Hyperion. Компания настолько стремится нарастить свою вычислительную мощность, что буквально ставит палатки для временного размещения ЦОД, пока основные объекты ещё строятся.

Всё это указывает, что Meta✴, уступившая инициативу таким игрокам как OpenAI, xAI и Google, стремится наверстать упущенное, и глава компании Марк Цукерберг (Mark Zuckerberg) не готов ждать стандартных сроков строительства, чтобы сократить разрыв. «Этот проект отличают не красота или избыточность. Речь идёт о срочном запуске вычислительных ресурсов! От сборных энергетических и охлаждающих модулей до сверхлёгких конструкций — решающее значение имеет скорость, и резервных источников энергии (таких как дизельные генераторы) не предусматривается», — пишет SemiAnalysis.

Гигантский ЦОД Hyperion будет расположен в американском штате Луизиана; к 2030 году он выйдет на мощность 2 ГВт, передаёт TechCrunch со ссылкой на официального представителя Meta✴ Эшли Габриэль (Ashley Gabriel).

В России намерены запретить майнинг в ЦОД

Вскоре в Госдуме во втором чтении будет рассматриваться законопроект о ЦОД, в который правительство и депутаты внесли поправки о создании реестра дата-центров, их правовом определении и запрете на майнинг. Предполагается, что запрет на майнинг в ЦОД исключит возможность получения майнерами льгот в качестве участников рынка дата-центров, пишет РБК.

 Источник изображения: Dmytro Demidko/unsplash.com

Источник изображения: Dmytro Demidko/unsplash.com

В первом чтении законопроект с поправками в закон «О связи» был принят в 2022 году. Он был разработан по поручению президента России, данному в 2020 году, — обеспечить решение вопросов льготной поддержки ЦОД и компенсации издержек на электроэнергию.

Подготовленный ко второму чтению законопроект, в дополнение к закону «О связи», вносит изменения в законы «О концессионных соглашениях», «О государственно-частном партнёрстве» и «О цифровых финансовых активах».

В частности, предлагается отнести ЦОД к сооружениям связи с соответствующей корректировкой их определения. Также будет создан реестр ЦОД, который будет вести Минцифры. Владельцы дата-центров смогут включаться в него на добровольной основе. Для ЦОД, включённых в реестр, вводится запрет на размещение майнинговой инфраструктуры и осуществление майнинга.

Как отметил руководитель аппарата правительства Дмитрий Григоренко, для эффективной работы рынка ЦОД, а также увеличения количества и мощности дата-центров в условиях цифровизации и внедрения ИИ-технологий необходимо прозрачное и понятное регулирование. «В первую очередь мы законодательно закрепляем, что ЦОД — это объект связи, а не просто серверная. Чёткие правила создадут основу для дополнительных мер поддержки, привлечения частных инвестиций и развития технологий», — подчеркнул он. Создание реестра, как ожидается, устранит бюрократические проволочки, поскольку статус ЦОД можно будет подтвердить одной выпиской.

Без чёткого определения дата-центра всё труднее становится реализовывать новые проекты по их созданию, подключать энергомощности, получать меры поддержки, считает генеральный директор Координационного совета по ЦОД и облачным технологиям (АНО КС ЦОД) Дмитрий Бедердинов.

По словам источника РБК, запрет на майнинг был добавлен в законопроект в качестве превентивной меры — чтобы исключить возможность получения майнерами льгот, которые распространяются на объекты связи.

Создание реестра позволит государству более точно оценивать объёмы и распределение инфраструктуры, а участникам рынка — подтверждать свой статус и надёжность для клиентов и партнёров, поддержал инициативу технический директор Selectel Кирилл Малеванов.


window-new
Soft
Hard
Тренды 🔥
«Жидкое стекло» Apple можно будет заматировать: представлена нова бета iOS 26.1 12 мин.
Сервисы AWS упали второй раз за день — тысячи сайтов по всему миру снова недоступны 8 ч.
Fujitsu влила £280 млн в британское подразделение в преддверии выплат компенсаций жертвам багов в её ПО Horizon 8 ч.
Календарь релизов 20 – 26 октября: Ninja Gaiden 4, Painkiller, Dispatch и VTM – Bloodlines 2 8 ч.
В Windows сломалась аутентификация по смарт-картам после октябрьских обновлений — у Microsoft есть временное решение 9 ч.
Вместо Majesty 3: российские разработчики выпустили в Steam амбициозную фэнтезийную стратегию Lessaria: Fantasy Kingdom Sim 9 ч.
Слухи: Лана Дель Рей исполнит заглавную песню для «Джеймса Бонда», но не в кино, а в игре от создателей Hitman 10 ч.
Зов сердца: разработчики Dead Cells объяснили, почему вместо Dead Cells 2 выпустили Windblown 11 ч.
Adobe запустила фабрику ИИ-моделей, заточенных под конкретный бизнес 11 ч.
Китай обвинил США в кибератаках на Национальный центр службы времени — это угроза сетям связи, финансовым системам и не только 12 ч.
Президент США подписал соглашение с Австралией на поставку критически важных минералов на сумму $8,5 млрд 18 мин.
Новая статья: Обзор смартфона realme 15 Pro: светит, но не греется 5 ч.
Ещё одна альтернатива платформам NVIDIA — IBM объединила усилия с Groq 5 ч.
Учёные создали кибер-глаз, частично возвращающий зрение слепым людям 6 ч.
Samsung выпустила недорогой 27-дюймовый геймерский монитор Odyssey OLED G50SF c QD-OLED, 1440p и 180 Гц 6 ч.
Акции Apple обновили исторический максимум на новостях об отличных продажах iPhone 17 8 ч.
Представлен флагман iQOO 15 с чипом Snapdragon 8 Elite Gen 5 и батареей на 7000 мА·ч по цене меньше $600 9 ч.
Нечто из космоса врезалось в лобовое стекло самолёта Boeing 737 MAX компании United Airlines 10 ч.
Умные кольца Oura научатся выявлять признаки гипертонии, как последние Apple Watch 11 ч.
Дешёвая корейская термопаста оказалась вредна для процессоров и здоровья пользователей 11 ч.