Сегодня 02 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → цод
Быстрый переход

«Катастрофически плохая идея»: бывший инженер NASA разгромил идею космических дата-центров

Идея перенести ЦОД и ИИ в космос для решения ряда кардинальных проблем с потреблением, экологичностью и масштабированием более сложна в реализации, чем кажется на первый взгляд. На словах всё выглядит вполне реально, вопрос якобы заключается только в финансировании проектов. Бывший инженер NASA с учёной степенью объяснил, что это «ужасная, кошмарная, никуда не годная идея».

 Источник изображения: ИИ-генерация Grok 4.1/3DNews

Источник изображения: ИИ-генерация Grok 4.1/3DNews

На пути к ЦОД в космосе существует несколько барьеров, каждый из которых будет сопряжён с решением сложнейших инженерных задач. В конечном итоге все они могут быть решены до определённого уровня, но в том объёме, о котором мечтают занимающиеся искусственным интеллектом компании, этот уровень будет недостижим на современном этапе развития науки и техники человеческой цивилизации.

Начнём с питания. Согласно всем заявлениям адептов «зелёной» генерации, на орбите — бесконечный и непрерывный источник солнечной энергии, поскольку Солнце там никогда не заходит, а ослабляющей его лучи атмосферы нет. Для примера: солнечные панели МКС площадью 2500 м² в пике способны выработать 200 кВт энергии. Условный ускоритель Nvidia H200 с обвязкой потребляет 1 кВт. Этой энергии, батарея для сбора которой создавалась годами, хватит на питание примерно трёх стоек с ускорителями Nvidia H200. На Земле новые ЦОД с ускорителями Nvidia будут содержать десятки тысяч ускорителей. Питание ЦОД с 10 000 GPU Nvidia потребует вывода на орбиту 500 спутников с батареями как у МКС — а это лучшее, что у нас сегодня есть. Звучит нереально.

Как вариант, можно поговорить о ядерной установке на орбите. В настоящее время для подобного разрешено использовать радиоизотопные термоэлектрические генераторы (РИТЭГ), которые обычно вырабатывают от 50 до 150 Вт. Можно ещё пофантазировать о ядерном реакторе на орбите Земли. Аварийный или плановый сход всего этого «добра» в атмосферу приведёт к загрязнению планеты радиоактивными материалами, поскольку может разбросать их по значительной территории.

Охлаждение серверов в космосе — это ещё одна трудноразрешимая инженерная задача. Вопреки расхожему мнению, «космического холода» в буквальном смысле не существует. Средняя температура на спутнике будет такой же, как средняя температура на Земле, но только если спутник вращается как «курица на вертеле», по словам автора. В тени температура тел в вакууме будет понемногу снижаться за счёт инфракрасного излучения до уровня фонового излучения в галактике, что составит немногим больше абсолютного нуля. На солнечной стороне в это время будет нагрев до нескольких сотен градусов. Но это не вся проблема.

На Земле за счёт обдува радиаторов воздухом или охлаждения проточной водой за счёт конвекции тепло довольно легко передаётся в контур охлаждения. В вакууме таких условий нет, поэтому простые радиаторы там бесполезны. Решать придётся не проблему охлаждения, а проблему терморегуляции. На МКС это сложный контур с аммиаком в качестве теплоносителя и выносными панелями большой площади, которые за счёт естественного излучения сбрасывают тепло в пространство.

Система активного терморегулирования (ATCS) на МКС — пример такой системы отвода тепла. Предельная мощность рассеивания панелей на МКС составляет 16 кВт, то есть примерно 16 графических процессоров H200 — немного больше, чем четверть наземной стойки. Система тепловых радиаторов имеет размеры 13,6 × 3,12 м, то есть примерно 42,5 м². Если взять за основу 200 кВт и предположить, что вся эта мощность будет подаваться на графические процессоры, то нам понадобится система радиаторов в 12,5 раза больше, то есть примерно 531 м², или около 20 % от площади соответствующей солнечной батареи. Со всей этой обвязкой это будет очень большой спутник, площадь которого будет в разы больше площади МКС — и всё это ради трёх стандартных серверных стоек на Земле.

 «Крыло от Boeing» — терморегулирующая панель ядля сброса тепла от МКС

«Крыло от Boeing» — терморегулирующая панель для сброса тепла от МКС

Третья проблема — радиация. Солнечное и космическое излучение — это бесконечные потоки заряжённых частиц. Космические частицы могут обладать колоссальной энергией. Пролёт заряжённой частицы через чип может переключить состояние транзистора (ячейки) и даже полностью вывести его из строя. Деградация чипов будет идти быстро и неконтролируемо. Сегодня для космоса производят микросхемы по не самым новым техпроцессам (это делает их менее уязвимыми для радиации), а также с учётом особой архитектуры. В случае ускорителя Nvidia и всех остальных тоже ни одно, ни другое условие не соблюдено. Запускать такое в космос — это всё равно что выбросить.

Надёжное экранирование электроники в космосе невозможно. Во-первых, подъём лишней массы в космос на ракете будет по цене золота. Во-вторых, особенно сильные космические частицы, ударяясь в экран, создают лавину частиц с меньшими энергиями, которые вынесут электронику как выстрел из дробовика на близком расстоянии.

Наконец, связь. Каналы связи с космосом на пару порядков уже, чем оптические каналы связи внутри ЦОД. Для ИИ это может быть не так критично, но хорошего в слабых каналах связи мало. Это ухудшит процесс масштабирования, и с этой проблемой тоже придётся разбираться.

Автор резюмирует: «Полагаю, это вполне возможно, если вы действительно этого хотите, но, как я уже показал выше, добиться этого будет крайне сложно, это будет непропорционально дорого по сравнению с центрами обработки данных на Земле, а производительность в лучшем случае будет посредственной. Если вы всё ещё считаете, что это того стоит, удачи вам — космос это сложно. Лично я считаю, что это катастрофически плохая идея, но решать вам».

С нашей стороны можно добавить проблему уязвимости космических ЦОД для вмешательства третьих сторон. На Земле серверные залы хорошо охраняются, а особенно важные объекты строятся в специальных укрытиях. В космосе это невозможно. Для защиты космических ЦОД от атак придётся содержать флот. Наконец, космический ЦОД в случае нужды уничтожит мешок гаек на нужной орбите.

Пока вся эта история с центрами обработки данных в космосе больше похожа на раздувание пузыря вокруг ИИ. Руководство космических компаний и разработчиков аппаратных решений затруднительно назвать неучами или авантюристами. Остаётся заподозрить их в вольном или невольном стремлении лить воду на мельницу сомнительных коммерческих интересов. Так ли это? Остаётся только догадываться.

Главы технологических компаний наперебой заговорили о ЦОД в космосе

В последние месяцы главы технологических компаний всё чаще преподносят идею строить центры обработки данных на земной орбите, обращает внимание Business Insider. Там ЦОД обещают обходиться дешевле, чем на Земле.

 Источник изображения: NASA / unsplash.com

Источник изображения: NASA / unsplash.com

Сегодня эта идея может казаться «безумной», признался недавно в подкасте «ИИ Google: примечания к выпуску» гендиректор компании Сундар Пичаи (Sundar Pichai). Но «когда отступишь на шаг назад и представишь, сколько нам понадобится вычислительных мощностей, всё обретает смысл, и это уже вопрос времени». Так он прокомментировал новую программу Project Suncatcher, посвящённую строительству ЦОД для обучения ИИ на орбите, и выразил надежду, что первый тензорный процессор Google заработает в космосе уже в 2027 году. «Может, увидим Tesla Roadster», — пошутил он.

В 2018 году Илон Маск (Elon Musk) действительно отправил на ракете SpaceX электромобиль с манекеном в скафандре на водительском сиденье — в этом году астрономы приняли его за астероид. Маск тоже заинтересовался идеей запуска ЦОД в космос. «Starship должен быть способен каждый год выводить 300 ГВт, а то и 500 ГВт ИИ-спутников на солнечной энергии в год. Именно „в год“ — вот что важно», — написал он недавно в своей соцсети X. Для сравнения, сейчас мощность всех ЦОД на Земле составляет 59 ГВт, а к 2050 году мировой спрос на электроэнергию должен удвоиться, в том числе из-за ЦОД для ИИ.

Основатель Amazon Джефф Безос (Jeff Bezos) предсказал, что космические ЦОД начнут работать в ближайшие десять или двадцать лет. «Думаю, со временем большая часть мира будет покрыта ЦОД. Но не знаю, потому что мы, может, разместим их в космосе. Например, построим в солнечной системе большую сферу Дайсона и скажем: „А строить их на Земле на самом деле смысла нет“», — заявил летом в интервью глава OpenAI Сэм Альтман (Sam Altman).

Гендиректор Salesforce Марк Бениофф (Marc Benioff) отметил, что размещать ЦОД в космосе дешевле всего — там для питания и охлаждения «постоянно используется солнечная энергия, и батареи не нужны». «Земля получает примерно одну–две миллиардных доли солнечной энергии. Поэтому если хочешь нечто, где, скажем, в миллион раз больше энергии, чем может произвести Земля, нужно отправляться в космос. Вот здесь иметь космическую компанию очень удобно», — добавил Маск.

Китайские разработчики отправляют ИИ учиться за границу — там есть санкционные ускорители Nvidia

По информации Financial Times, введённое при Байдене ограничение на доступ китайских компаний к зарубежным ЦОД после прихода к власти Дональда Трампа (Donald Trump) было снято, и это позволило китайским разработчикам увеличить активность по обходу санкций в сфере использования ускорителей Nvidia для своих нужд.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Китайские разработчики, включая Alibaba и ByteDance, в последнее время всё чаще используют находящиеся в соседних странах Юго-Восточной Азии вычислительные центры, принадлежащие некитайским компаниям. Арендуя подобные вычислительные мощности для обучения своих больших языковых моделей, китайские компании получают доступ к передовому оборудованию Nvidia, которое недоступно им на родине в силу целого ряда причин. Напомним, что помимо собственно американских санкций, препятствием на этом пути являются и настойчивые рекомендации китайских властей по переводу китайских ЦОД на использование ускорителей местного происхождения.

На практике китайские компании применяют другой подход. Они проводят за пределами КНР в арендованных ЦОД, которые нередко находятся в Сингапуре или Малайзии, базовое обучение своих больших языковых моделей, а инференсом занимаются уже в Китае с использованием элементной базы китайского происхождения. Местные законы запрещают экспортировать персональные данные граждан, поэтому часть обучения китайские разработчики проводят на территории страны. DeepSeek на этом фоне выделяется «условным патриотизмом», поскольку свои языковые модели обучает на территории КНР, но при этом не брезгует запасаться импортными ускорителями Nvidia для собственных нужд.

Аренда зарубежных ЦОД для китайских компаний обретает актуальность и по причине необходимости обслуживания своих зарубежных клиентов. Пока эта экспансия носит ограниченный характер, но Alibaba и ByteDance настроены расширить свой охват мирового рынка. Китайские компании также ищут возможность получить доступ к центрам обработки данных, расположенным на Ближнем Востоке.

Маск пообещал дешёвые ИИ-серверы в космосе через пять лет — Хуанг назвал эти планы «мечтой»

Помимо стоимости оборудования, требования к электроснабжению и отведению тепла станут одними из основных ограничений для крупных ЦОД в ближайшие годы. Глава X, xAI, SpaceX и Tesla Илон Маск (Elon Musk) уверен, что вывод крупномасштабных систем ИИ на орбиту может стать гораздо более экономичным, чем реализация аналогичных ЦОД на Земле из-за доступной солнечной энергии и относительно простого охлаждения.

 Источник изображений: AST SpaceMobile

Источник изображений: AST SpaceMobile

«По моим оценкам, стоимость электроэнергии и экономическая эффективность ИИ и космических технологий будут значительно выше, чем у наземного ИИ, задолго до того, как будут исчерпаны потенциальные источники энергии на Земле, — заявил Маск на американо-саудовском инвестиционном форуме. — Думаю, даже через четыре-пять лет самым дешёвым способом проведения вычислений в области ИИ будут спутники с питанием от солнечных батарей. Я бы сказал, не раньше, чем через пять лет».

Маск подчеркнул, что по мере роста вычислительных кластеров совокупные требования к электроснабжению и охлаждению возрастают до такой степени, что наземная инфраструктура с трудом справляется с ними. Он утверждает, что достижение непрерывной выработки в диапазоне 200–300 ГВт в год потребует строительства огромных и дорогостоящих электростанций, поскольку типичная атомная электростанция вырабатывает около 1 ГВт. Между тем, США сегодня вырабатывают около 490 ГВт, поэтому использование львиной её доли для нужд ИИ невозможно.

Маск считает, что достижение тераваттного уровня мощности для питания наземных ЦОД нереально, зато космос представляет заманчивую альтернативу. По мнению Маска, благодаря постоянному солнечному излучению, аккумулирование энергии не требуется, солнечные панели не требуют защитного стекла или прочного каркаса, а охлаждение происходит за счёт излучения тепла.

Глава Nvidia Дженсен Хуанг (Jensen Huang) признал, что масса непосредственно вычислительного и коммуникационного оборудования внутри современных стоек Nvidia GB300 исчезающе мала по сравнению с их общей массой, поскольку почти вся конструкция — примерно 1,95 из 2 тонн — по сути, представляет собой систему охлаждения. Но, кроме веса оборудования, существуют и другие препятствия.

Теоретически космос — хорошее место как для выработки энергии, так и для охлаждения электроники, поскольку в тени температура может опускаться до -270 °C. Но под прямыми солнечными лучами она может достигать +125 °C. На околоземных орбитах перепады температур не столь экстремальны:

  • От –65 °C до +125 °C на низкой околоземной орбите.
  • От –100 °C до +120 °C на средней околоземной орбите.
  • От –20 °C до +80 °C на геостационарной орбите.
  • От –10 °C до +70 °C на высокой околоземной орбите.

Низкая и средняя околоземные орбиты не подходят для космических ЦОД из-за нестабильной освещённости, значительных перепадов температур, пересечения радиационных поясов и регулярных затмений. Геостационарная орбита лучше подходит для этой цели, но и там эксплуатация мощных вычислительных кластеров столкнётся с множеством проблем, главная из которых — охлаждение.

В космосе отвод тепла возможен только при помощи излучения, что потребует монтажа огромных радиаторов площадью в десятки тысяч квадратных метров на систему мощностью несколько гигаватт. Вывод на геостационарную орбиту такого количества оборудования потребует тысяч запусков тяжёлых ракет класса Starship.

Не менее важно, что ИИ-ускорители и сопутствующее оборудование в существующем виде не способны выдержать воздействие радиации на геостационарной орбите без мощной защиты или полной модернизации конструкции. Кроме того, высокоскоростное соединение с Землёй, автономное обслуживание, предотвращение столкновения с мусором и обслуживание робототехники пока находится в зачаточном состоянии, учитывая масштаб предлагаемых проектов. Так что скорее всего Хуанг прав, когда называет затею Маска «мечтой».

Мечтает о выводе масштабных вычислительных кластеров не только Маск. В октябре основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) в ходе мероприятия Italian Tech Week в Турине (Италия) поделился своим видением развития индустрии космических дата-центров. По его мнению, такие объекты обеспечат ряд значительных преимуществ по сравнению с наземными ЦОД.

В сентябре компания Axiom Space с партнёрами сообщила о создании первого орбитального дата-центра, который разместился на МКС. Этот ЦОД будет обслуживать не только станцию, но также любые спутники с оптическими терминалами на борту.

В мае Китай вывел на орбиту Земли 12 спутников будущей космической группировки Star-Compute Program, которая в перспективе будет состоять из 2800 спутников. Все они оснащены системами лазерной связи и несут мощные вычислительные платформы — по сути, это первый масштабный ЦОД с ИИ в космосе.

Компания Crusoe намерена развернуть свою облачную платформу на спутнике Starcloud запуск которого запланирован на конец 2026 года. Ограниченный доступ к ИИ-мощностям в космосе должен появиться к началу 2027 года

Google рассказала об инициативе Project Suncatcher, предусматривающей использование группировок спутников-ЦОД на основе фирменных ИИ-ускорителей. Спутники будут связаны оптическими каналами.

Google потратит на строительство трёх новых ЦОД в Техасе $40 млрд

Техас стал тем американским штатом, в котором крупные игроки облачного сегмента и амбициозные стартапы охотно возводят центры обработки данных, и в этом смысле Google не желает отставать от OpenAI, Anthropic или xAI. Интернет-гигант направит на строительство трёх новых ЦОД в Техасе $40 млрд, как сообщает Bloomberg.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Специализация этих вычислительных мощностей в условиях бума ИИ вполне предсказуемо, поскольку они будут задействованы под развитие соответствующей инфраструктуры. По информации самой Google, указанная сумма будет поэтапно инвестирована в строительство трёх новых ЦОД в Техасе до 2027 года включительно. Один из этих ЦОД расположится по соседству с энергетическим хабом, подразумевающим наличие большого количества солнечных панелей и батарей для стационарного хранения электроэнергии.

Проект позволит Google создать в Техасе тысячи новых рабочих мест, а также обучить специалистов в разных смежных областях. Кроме того, развитие сопутствующей инфраструктуры сделает электроэнергию более доступной для жителей Техаса и местного бизнеса, как отмечается в официальном заявлении компании. Google уже располагает двумя центрами обработки в Далласе, там же она провела церемонию, на которой объявила о своих планах по дальнейшему расширению вычислительных мощностей в этом штате.

Облачных гигантов в Техас привлекают содействие властей штата в реализации профильных проектов, большие участки земли и относительно дешёвая электроэнергия. Google выразила готовность активно содействовать развитию энергетики штата и субсидировать сопутствующие затраты. За счёт компании в штате будут получать специальное образование будущие сотрудники энергетических компаний.

Недавно конкурирующая Anthropic также объявила о намерениях потратить $50 млрд на строительство ЦОД в США, включая и территорию Техаса. В этом штате строится и первый ЦОД в рамках мегапроекта Stargate, который финансируется OpenAI, Oracle и SoftBank. Крупные вычислительные мощности возводит в этом штате и Meta✴ Platforms, а также корпорация Microsoft. Здесь планируется построить четыре ядерных реактора для питания окрестных ЦОД. Сама Google только в текущем году готова направить $90 млрд на капитальное строительство, так что проект в Техасе вполне укладывается в инвестиционную программу этой корпорации.

За прошедшие два месяца Google анонсировала сразу несколько проектов по развитию локальной вычислительной инфраструктуры в разных странах: $15 млрд планируется потратить в Индии, немецкая площадка может рассчитывать на получение $6,4 млрд, а Великобритания получит более $6,5 млрд.

Samsung повысила цены на память на 60 % с сентября — строительство ЦОД для ИИ душит поставки для обычных потребителей

Цены на электронные продукты, использующие флеш-память NAND, скорее всего, продолжат расти, поскольку Samsung повысила цены на отдельные чипы памяти на целых 60 % с сентября, пишет Reuters, ссылаясь на источники в индустрии. Этому предшествовали сообщения о том, что цены на чипы памяти DRAM для ПК выросли более чем на 170 % в годовом исчислении. Производители соблюдают осторожность и не планируют увеличивать свои мощности, опасаясь такого же резкого снижения спроса.

 Источник изображения: Samsung

Источник изображения: Samsung

Быстрое развитие инфраструктуры ИИ привело к нескольким случаям дефицита в ряде критически важных сегментах рынка в течение 2025 года. Сначала с дефицитом и как следствие ростом цен столкнулось новое поколением видеокарт, выпущенных в начале года. Резкий рост цен сменился постепенным снижением. Но начала расти стоимость электроэнергии, особенно в регионах, где происходит активное строительство новых центров обработки данных для ИИ. Как сообщает Tom’s Hardware, даже гигант Microsoft столкнулась с дефицитом генерирующих мощностей для приобретенных ИИ-ускорителей. А компания xAI американского миллиардера Илона Маска (Elon Musk) для выхода из ситуации начала скупить огромное количество газовых турбин и даже купила целую электростанцию.

Проблемы от взрывного развития ИИ становится всё шире и шире. В течение нескольких последних месяцев они сказываются на рынке чипов памяти, где наблюдается продолжающийся рост цен на микросхемы. И последние сообщения Reuters о том, что Samsung значительно повысила цены, явно не будут способствовать стабилизации. По данным издания, если в сентябре контрактная цена на 32 Гбайт памяти DDR5 составляла $149, то теперь она будет $239.

Хотя сильнее всего на себе этот эффект ощутят потребители, самостоятельно собирающие свои ПК, проблемы наблюдаются практически в каждом сегменте рынка. Серьёзный дефицит или значительный рост цен затрагивает практически всё: от смартфонов и ноутбуков до устройств Интернета вещей и умной техники.

Признаки дефицита спровоцировали панические покупки на некоторых рынках. В конце октября издание Reuters сообщило, что производители памяти получают в два-три раза больше заказов, поскольку компании начали запасаться микросхемами, чтобы компенсировать дефицит.

Дорожает и старая память. Например, чипы памяти DDR4 резко выросли в цене, поскольку производители передовых микросхем памяти, такие как Samsung, стали всё больше ориентироваться на выпуск высокопроизводительной памяти HBM, которая всё шире используется в новейших профессиональных графических ускорителях и стоечных серверах для центров обработки данных, поддерживающих ИИ.

Однако реальная проблема заключается в том, что это, возможно, только начало. Ожидается, что дефицит усилится в 2026 году, и, по мнению некоторых аналитиков, он может продлиться до десятилетия, поскольку отрасль делает ставку на ИИ и продолжает развиваться за счёт расширения серверной инфраструктуры, и производители микросхем памяти изо всех сил пытаются за ними угнаться.

На строительство ЦОД в этом году будет потрачено больше, чем на разведку новых месторождений нефти

Углеводородное топливо остаётся основным источником энергии для человечества, поэтому весьма символично, что относительно недавно зародившийся бум искусственного интеллекта в сжатые сроки позволил расходам на строительство центров обработки данных оказаться выше, чем затраты на поиск новых месторождений нефти.

 Источник изображения: Saudi Aramco

Источник изображения: Saudi Aramco

В общей сложности на строительство новых ЦОД в этом году будет потрачено $580 млрд, как отмечается в отчёте Международного энергетического агентства (IEA). На нужды разведки новых месторождений нефти при этом будет потрачено на $40 млрд меньше. К концу десятилетия энергопотребление ориентированных на ИИ центров обработки данных вырастет в пять раз, превысив текущее энергопотребление ЦОД всех типов в два раза. Последние также увеличат своё энергопотребление, но прирост не будет таким заметным.

По оценкам IEA, основной прирост энергопотребления придётся на США, которым достанется половина этой величины, остальное увеличение распределят между собой Европа и Китай. Основная часть новых ЦОД строится в непосредственной близости от городов с численностью населения более 1 млн человек. Половина из строящихся ЦОД рассчитана на потребление более 200 МВт, в основном новые ЦОД строятся рядом с уже имеющимися. Нехватка источников электроэнергии для подобных объектов ощущается во многих случаях. Очереди на присоединение к электросетям растягиваются на десять лет в некоторых случаях, как на севере американского штата Вирджиния. В ирландском Дублине квота на подключения распределена вплоть до 2028 года.

По данным агентства, компоненты для строительства энергетической инфраструктуры тоже становятся дефицитным товаром, замедляя процесс модернизации под нужды ИИ. Некоторые компании начали разработку твердотельных трансформаторов, которые лучшее соответствуют современным требованиям к энергетической инфраструктуре. Тем не менее, их массовое применение начнётся от силы через год или два.

По прогнозам IEA, уже к 2035 году возобновляемые источники электроэнергии начнут доминировать в структуре энергоснабжения новых ЦОД, независимо от изменений в политике «озеленения» энергетики большинства стран. В ближайшие десять лет возобновляемые источники обеспечат ЦОД примерно 400 ТВт·ч электроэнергии, тогда как на долю природного газа придётся только 220 ТВт·ч. Модульные ядерные реакторы в случае своей успешной экспансии обеспечат ещё 190 ТВт·ч электроэнергии для питания ЦОД.

Учёные придумали пассивный кулер на пористой мембране для самых мощных чипов — он эффективнее традиционных

Учёные Калифорнийского университета в Сан-Диего создали пассивную систему охлаждения, основанную на испарительной мембране, которая значительно улучшает отвод тепла от мощных чипов, что особенно актуально для современных ЦОД, пишет SciTechDaily. Новое решение не только предлагает эффективную и энергосберегающую альтернативу традиционным методам охлаждения, но и потенциально позволяет сократить расход воды, используемой во многих существующих системах.

 Источник изображений: SciTechDaily/Tianshi Feng

Источник изображений: SciTechDaily/Tianshi Feng

В настоящее время на системы охлаждения приходится до 40 % общего энергопотребления ЦОД. При сохранении текущего роста и развёртывании ИИ-технологий мировой спрос на энергию для охлаждения к 2030 году может увеличиться более чем вдвое.

В системе используется недорогая половолоконная мембрана с множеством взаимосвязанных микроскопических пор, которые втягивают охлаждающую жидкость за счёт капиллярного эффекта. Испаряясь, жидкость отводит тепло от расположенных ниже электронных компонентов без необходимости использования дополнительной энергии. Мембрана расположена над микроканалами, по которым поступает жидкость, что позволяет теплу эффективно рассеиваться от расположенного ниже оборудования.

«По сравнению с традиционным воздушным или жидкостным охлаждением испарение позволяет рассеивать больший тепловой поток при меньших затратах энергии», — отметил руководитель проекта Ренкун Чен (Renkun Chen), профессор кафедры машиностроения и аэрокосмической техники Инженерной школы Джейкобса Калифорнийского университета в Сан-Диего. По его словам, предыдущие попытки использования пористых мембран, обладающих большой площадью поверхности, идеально подходящей для испарения, не увенчались успехом из-за несоответствующего размера пор: они были либо слишком малы, что приводило к засорению, либо слишком велики, что вызывало нежелательное вскипание.

«Здесь мы используем пористые волокнистые мембраны с взаимосвязанными порами правильного размера», — сказал Чен. Такая конструкция обеспечивает эффективное испарение без этих недостатков.

Предложенная учёными конструкция мембраны при испытаниях в условиях переменных тепловых потоков выдержала тепловые нагрузки выше 800 Вт на квадратный сантиметр — один из самых высоких показателей, когда-либо зарегистрированных для подобных систем охлаждения. Также система продемонстрировала стабильность в течение нескольких часов работы.

Тем не менее, по словам учёного, достигнутые показатели пока значительно ниже теоретического предела технологии. Сейчас команда работает над усовершенствованием мембраны и оптимизацией её производительности. Следующие шаги включают интеграцию решения в прототипы охлаждающих пластин — плоских компонентов, которые крепятся к микросхемам, таким как центральные и графические процессоры, для рассеивания тепла. Команда также запускает стартап для коммерциализации технологии.

Google придумала дата-центр с неограниченным источником энергии, но придётся усыпать орбиту спутниками — представлен Project Suncatcher

Google предложила новый способ обойти ограничения, актуальные для энергоёмких центров обработки данных для систем искусственного интеллекта на Земле — размещать ИИ-ускорители на спутниках, которые работают на солнечной энергии. Этой идее посвящена новая программа компании, получившая название Project Suncatcher.

 Источник изображения: SpaceX / unsplash.com

Источник изображения: SpaceX / unsplash.com

Если технологический гигант начнёт реализацию этого проекта, на орбите появятся космические ЦОД — там солнечную энергию можно будет использовать круглосуточно. Google мечтает подключиться к практически неограниченному источнику чистой энергии, чтобы реализовать свои планы в области ИИ, не размениваясь на сопутствующие земным ЦОД сложности, такие как углеродные выбросы и высокие цены на энергоисточники. Солнечные батареи на спутниках с тензорными процессорами (TPU) Google обещают восьмикратно превзойти показатели земных.

Важнейшая задача для проекта — обеспечить надёжную связь между спутниками. Если они будут выступать аналогами земных ЦОД, то канал связи должен иметь ширину в десятки терабит в секунду, говорят в компании. Один из способов решить задачу — формировать плотные скопления аппаратов, чтобы они находились на расстоянии «не более километра» друг от друга. Это значительно ближе, чем расстояние между спутниками в теперешних группировках. Компания также убедилась, что её TPU способны выдерживать радиационное излучение, эквивалентное тому, что они получат за пять лет работы на орбите.

Пока отправка космических аппаратов на орбиту обходится дорого, но уже в середине будущего десятилетия, по оценкам инженеров Google, запуск и эксплуатация космических ЦОД будут сопоставимы с обслуживанием земных из расчёта на киловатты в год. Первые испытания оборудования на орбите намечены на 2027 год — партнёром Google выступит компания Planet. Подробности проекта Project Suncatcher инженеры Google привели в нерецензированной научной статье (PDF).

Microsoft вложит в развитие ИИ в ОАЭ около $15,2 млрд за четыре года

Едва вернувшись в Белый дом в качестве президента США, Дональд Трамп (Donald Trump) в этом году начал «торговать» новым американским преимуществом в виде ускорителей вычислений на международном рынке, и корпорация Microsoft только сейчас смогла заключить соглашение с ОАЭ на развитие локальной инфраструктуры ИИ на общую сумму $15,2 млрд, которая будет распределена на четыре года.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Подобный срок вполне предсказуем, поскольку определяется продолжительностью пребывания действующего президента США на своём посту. Microsoft одновременно получила право поставлять в ОАЭ передовые ускорители вычислений Nvidia, как отмечает TechCrunch, и в условиях экспортных ограничений это тоже своего рода достижение. Такие условия превращают ОАЭ в проводника политики США в регионе, учитывая растущее влияние искусственного интеллекта на геополитические процессы.

Ещё в мае этого года Дональд Трамп заключил с президентом ОАЭ Мохаммедом бин Зайд аль-Нахайяном соглашение о строительстве центров обработки данных в Абу-Даби. К реализации проекта его участники приступить не могли из-за длительной процедуры согласования поставок передовых компонентов американского происхождения в эту ближневосточную страну. В сентябре Microsoft стала первым обладателем экспортной лицензии, позволяющей начать эти поставки в ОАЭ.

Как подчеркнули представители Microsoft, была проделана большая работа по обеспечению требований экспортного контроля США, но в итоге корпорация получила возможность направить в ОАЭ ускорители Nvidia, по своей производительности эквивалентные 21 500 экземплярам A100, хотя в действительности в партию попали и более современные H100 и H200. Как и планировалось по итогам майских договорённостей, использовать локальные вычислительные мощности в ОАЭ будут американские компании: Microsoft, OpenAI и Anthropic.

Общая сумма в $15,2 млрд включает те средства, которые Microsoft уже потратила на развитие вычислительной инфраструктуры в ОАЭ, начиная с 2023 года. До конца текущего года за указанный период будет в общей сложности потрачено $7,3 млрд, включая вложенные в капитал арабской G42 полтора миллиарда долларов США, а также более $4,6 млрд на строительство центров обработки данных.

Следующий этап инвестиций подразумевает расходы со стороны Microsoft в размере $7,9 млрд с начала следующего года до конца 2029 года, из них $5,5 млрд будут направлены на капитальные затраты по строительству и расширению локальных центров обработки данных в ОАЭ. Подробнее об этих планах Microsoft собирается поведать на текущей неделе в ходе мероприятия в Абу-Даби. Американская корпорация будет часть своих инвестиций направлять на подготовку кадров для ИИ непосредственно в ОАЭ. К 2027 году обучение пройдёт миллион местных жителей, а ещё Microsoft развернёт в стране исследовательский центр, который будет заниматься разработкой больших языковых моделей. В тот же день Microsoft заключила контракт с Австралией на строительство центров обработки данных на сумму $9,7 млрд, поэтому Ближним Востоком активность этого облачного провайдера не ограничивается.

Qualcomm вернулась в большие вычисления: представлены ИИ-ускорители AI200 и AI250 для дата-центров

Компания Qualcomm анонсировала два ускорителя ИИ-инференса (запуска уже обученных больших языковых моделей) — AI200 и AI250, которые выйдут на рынок в 2026 и 2027 годах. Новинки должны составить конкуренцию стоечным решениям AMD и Nvidia, предложив повышенную эффективность и более низкие эксплуатационные расходы при выполнении масштабных задач генеративного ИИ.

 Источник изображений: Qualcomm

Источник изображений: Qualcomm

Оба ускорителя — Qualcomm AI200 и AI250 — основаны на нейронных процессорах (NPU) Qualcomm Hexagon, адаптированных для задач ИИ в центрах обработки данных. В последние годы компания постепенно совершенствовала свои нейропроцессоры Hexagon, поэтому последние версии чипов уже оснащены скалярными, векторными и тензорными ускорителями (в конфигурации 12+8+1). Они поддерживают такие форматы данных, как INT2, INT4, INT8, INT16, FP8, FP16, микротайловый вывод для сокращения трафика памяти, 64-битную адресацию памяти, виртуализацию и шифрование моделей Gen AI для дополнительной безопасности.

Ускорители AI200 представляют собой первую систему логического вывода для ЦОД от Qualcomm и предлагают до 768 Гбайт встроенной памяти LPDDR. Система будет использовать интерфейсы PCIe для вертикального масштабирования и Ethernet — для горизонтального. Расчётная мощность стойки с ускорителями Qualcomm AI200 составляет 160 кВт. Система предполагает использование прямого жидкостного охлаждения. Для Qualcomm AI200 также заявлена поддержка конфиденциальных вычислений для корпоративных развертываний. Решение станет доступно в 2026 году.

Qualcomm AI250, выпуск которого состоится годом позже дебютирует с новой архитектурой памяти, которая обеспечит увеличение пропускной способности более чем в 10 раз. Кроме того, система будет поддерживать возможность дезагрегированного логического вывода, что позволит динамически распределять ресурсы памяти между картами. Qualcomm позиционирует его как более эффективное решение с высокой пропускной способностью, оптимизированное для крупных ИИ-моделей трансформеров. При этом система сохранит те же характеристики теплопередачи, охлаждения, безопасности и масштабируемости, что и AI200.

Помимо разработки аппаратных платформ, Qualcomm также сообщила о разработке гипермасштабируемой сквозной программной платформы, оптимизированной для крупномасштабных задач логического вывода. Платформа поддерживает основные наборы инструментов машинного обучения и генеративного ИИ, включая PyTorch, ONNX, vLLM, LangChain и CrewAI, обеспечивая при этом беспроблемное развертывание моделей. Программный стек будет поддерживать дезагрегированное обслуживание, конфиденциальные вычисления и подключение предварительно обученных моделей «одним щелчком мыши», заявляет компания.

Китайцы встроили ЦОД в основание морского ветряка — получилось эффективно и экономично

В Китае завершено строительство первого в мире подводного центра обработки данных, работающего на энергии ветра. Пикантность ситуации в том, что ЦОД расположен в основании питающей его ветряной турбины и находится ниже уровня моря, что обеспечивает ему условно бесплатное охлаждение — колоссальную проблему всех современных дата-центров. Успех опытного проекта может привести к массовому «затоплению» множества ЦОД в Китае.

 Источник изображения: Shanghai Hailanyun Technology

Источник изображения: Shanghai Hailanyun Technology

Пилотный проект реализован компанией Shanghai Hailanyun Technology у побережья зоны свободной торговли Особого района Китая Линган (Шанхай). Стоимость проекта составляет около 1,6 млрд юаней ($226 млн) и знаменует собой смелый шаг в создании устойчивой и высокопроизводительной вычислительной инфраструктуры. Подобная комбинация вычислительных и генерирующих мощностей обеспечивает объекту более 95 % необходимой для работы энергии, экономит на расходах на охлаждение и не занимает дефицитной земли. В совокупности это позволяет отказаться от пресной воды в системе охлаждения ЦОД и ведёт примерно к 22,8 % сокращению энергопотребления объекта.

Крупные наземные дата-центры способны каждый день расходовать на охлаждение объём пресной воды, достаточный для удовлетворения нужд городка на 50 тыс. жителей. К тому же на охлаждение может уходить до 50 % и более энергопотребления ЦОД. Проект с морским ЦОД с питанием от ветряка обещает сократить энергобюджет на охлаждение до 10 % и менее. Заявленный показатель эффективности энергопотребления (PUE) для него должен быть не выше 1,15, тогда как для всех новых и модернизированных ЦОД в Китае PUE не должен превышать 1,25.

Ожидается, что «ЦОД в ветряке» будет поддерживать широкий спектр передовых приложений для цифровой экономики и вычислений, а не просто служить хранилищем данных. Согласно официальным источникам, объект будет обеспечивать рабочие нагрузки, связанные с искусственным интеллектом и обучением высокопроизводительных моделей, обеспечивать вычислительную инфраструктуру для сетей 5G, промышленного интернета вещей (IoT) и электронной коммерции, а также станет частью региональной магистрали для международных каналов передачи данных. По сути, этот ЦОД будет функционировать как экологичный, высокопроизводительный подводный вычислительный кластер.

Стоит отметить, что этот проект является лишь первым этапом грандиозного подводного строительства. На втором этапе этот демонстрационный объект мощностью 2,3 МВт будет расширен до 24 МВт, хотя сроки его запуска пока не объявлены и будут зависеть от результатов испытаний.

Добавим, что ранее в этом месяце в Китае начал работать первый в мире коммерческий подводный ЦОД. Первой в море ЦОД опустила компания Microsoft — это произошло около семи лет назад, но китайцы стали лидерами по выведению этой услуги на рынок. Если подводный ЦОД в основании морской ветряной турбины хорошо покажет себя на практике, то за пилотным проектом последуют коммерческие. Впрочем, разработчики проекта подчёркивают, что остаётся множество нерешённых проблем — от коррозии до обслуживания подводных центров — и перевод проекта на коммерческие рельсы может задержаться.

Первый в мире ИИ-спутник с ускорителем Nvidia H100 отправится в космос в ноябре

Компания Starcloud (ранее — Lumen Orbit), участница программы NVIDIA Inception, объявила о запуске первого в мире спутника с искусственным интеллектом на базе ускорителя NVIDIA H100. Запуск, запланированный на ноябрь, станет шагом к созданию орбитальных дата-центров, которые, по расчётам, смогут сократить энергопотребление и углеродные выбросы на порядок по сравнению с наземными аналогами.

 Источник изображений: Starcloud

Источник изображений: Starcloud

Starcloud-1 весит около 60 кг и по размерам сопоставим с небольшим холодильником. Аппарат будет обрабатывать данные, поступающие от спутников дистанционного зондирования Земли, и выполнять задачи вывода на базе ИИ (inference) прямо на орбите — без необходимости передавать большие объёмы информации на Землю. По словам главы компании Филипа Джонстона (Philip Johnston), использование H100 обеспечит «в сто раз большую вычислительную мощность», чем существующие космические вычислительные платформы.

Космос — идеальная среда для энергоэффективных ИИ-систем. Спутники могут получать почти неограниченную энергию от Солнца и охлаждаться естественным образом в вакууме за счёт инфракрасного излучения, без воды и громоздких систем вентиляции. Это позволяет не только экономить энергию, но и снижать углеродный след дата-центров примерно в десять раз на протяжении всего их жизненного цикла.

В долгосрочной перспективе Starcloud намерена построить орбитальный дата-центр мощностью до 5 ГВт с солнечными панелями и радиаторами длиной около четырёх километров. По замыслу компании, такие системы помогут разгрузить земные энергосети, обеспечат условно бесплатное охлаждение и снизят зависимость ИИ-инфраструктуры от традиционных энергетических ресурсов.

Основные сценарии применения — обработка данных наблюдения за Землёй в реальном времени: обнаружение пожаров, реагирование на сигналы бедствия, прогнозирование погоды. Например, синтетическая апертурная радиолокация (SAR) способна генерировать до 10 Гбайт данных в секунду, и выполнение анализа на орбите позволит получать результаты мгновенно, без задержек, связанных с передачей сырых данных на Землю.

Благодаря участию в программе NVIDIA Inception, стартап получил доступ к аппаратной базе NVIDIA и консультациям инженеров компании. Запуск Starcloud-1 с ускорителем H100 станет первым примером применения этой архитектуры в космосе. В дальнейшем планируется интеграция платформы NVIDIA Blackwell с десятикратным ростом производительности, а также тестирование работы открытой модели Gemma от Google прямо на борту спутника.

Проект Starcloud рассматривается как потенциальный прорыв в области устойчивых ИИ-вычислений: он сочетает возобновляемую энергию, отсутствие затрат на охлаждение и мгновенную обработку данных. Хотя эксперты указывают на высокие издержки запусков и технические риски, в компании уверены, что через десять лет большинство новых дата-центров будут строиться уже в космосе.

Точная дата запуска Starcloud-1 пока не объявлена. Известно лишь, что спутник должен полететь на ракете SpaceX Falcon 9 в рамках миссии Bandwagon-4 как попутная нагрузка. В числе основных заказчиков числятся военные ведомства Южной Кореи и США, поэтому о деталях миссии пока не распространяются.

Китай погрузит дата-центры под воду, чтобы Земля стала чище

Затраты на энергоснабжение мощных центров обработки данных велики ещё и по той причине, что им требуется серьёзное охлаждение, и в целом обеспечение таких объектов электроэнергией увеличивает углеродные выбросы в атмосферу. Китайские разработчики пытаются снизить это пагубное влияние за счёт создания подводных центров обработки данных.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Производитель различного морского оборудования Highlander в сотрудничестве со строительными компаниями в Шанхае пытается создать погружной центр обработки данных, который смог бы работать в море у берегов Шанхая. Его конструкция напоминает огромную жёлтую бочку с порталом для подключения необходимых коммуникаций. Подводные центры обработки данных, по мнению участников эксперимента, имеют важное преимущество, поскольку могут охлаждаться океанскими течениями.

Microsoft ещё в 2018 году испытала подобное решение у берегов Шотландии, но китайский проект, который будет запущен в середине этого месяца, готов работать на коммерческой основе. Клиентами подводного ЦОД в Шанхае готовы стать оператор связи China Telecom и одна из местных компаний ИИ-сектора с государственным участием. По словам вице-президента Highlander, подводные ЦОД позволяют сократить расходы энергии на своё охлаждение на величину до 90 %.

Highlander в 2022 году получила от властей Китая субсидии в размере $5,62 млн на реализацию схожего проекта в провинции Хайнань, который до сих пор функционирует. Как отмечают специалисты Highlander, с точки зрения технической реализации подобные проекты обычно таят больше трудностей, чем ожидается изначально. Высокая стоимость и потенциальное влияние на экологию моря являются факторами, которые пока сдерживают широкое распространение подводных центров обработки данных.

Шанхайский проект Highlander будет более 95 % электроэнергии, необходимой для своей работы, получать от ветряных источников генерации. При создании герметичной капсулы корпуса ЦОД важно обеспечить защиту от длительного воздействия солёной воды, которая вызывает коррозию. Highlander покрывает стальной корпус капсулы специальным составом на основе частиц стекла. На поверхности моря расположится шлюзовой отсек, который будет перемещать обслуживающий персонал до погружённой в море капсулы ЦОД при помощи специального лифта.

Примечательно, что японским учёным уже удалось найти специфические уязвимости подводных ЦОД с точки зрения информационной безопасности. Как выясняется, злоумышленники могут атаковать их при помощи звуковых волн, распространяемых в воде. Экологи озабочены тем, что выделяемое подводным ЦОД тепло может оказывать влияние на экосферу в окрестностях. Часть обитателей моря при изменении температурного режима может переселиться в более прохладные районы, тогда как теплолюбивые соседи займут их место. Конечный эффект подобной миграции морской фауны предугадать сложно. Влияние этого фактора на экологию заметно усилится по мере масштабирования вычислительных мощностей в конкретном районе акватории. Скорее всего, подводные ЦОД не заменят собой наземные полностью, а будут уживаться с ними, как считают эксперты.

На орбите появятся гигантские дата-центры для ИИ в течение десяти лет, уверен Джефф Безос

Выступая на технологической конференции в итальянском Турине на этой неделе, основатель и бывший руководитель Amazon Джефф Безос (Jeff Bezos) не только охарактеризовал состояние ИИ-отрасли и её ближайшее будущее, но и выразил уверенность, что в течение 10–20 лет станет возможным создание центров обработки данных в космосе.

 Источник изображения: AWS

Источник изображения: AWS

По мнению Безоса, доступ к непрерывным потокам солнечной энергии позволит таким центрам обработки данных превосходить по производительности те, что расположатся на Земле. По своей мощности они будут достигать гигаваттных масштабов, как убеждён миллиардер. «Гигантские обучающие кластеры, их лучше строить в космосе, поскольку мы имеем доступ к солнечной энергии в режиме 24/7. Там нет облачность и дождей, нет погоды. Мы сможем осилить расходы по созданию внеземных центров обработки данных в ближайшие пару десятилетий»,заявил Безос.

Смещение в сторону космической инфраструктуры, по его мнению, станет частью более масштабной инициативы по улучшению жизни на Земле благодаря освоению космоса. Как он отметил, это уже произошло с метеорологическими и телекоммуникационными спутниками. Следующим этапом станут центры обработки данных, а потом дело дойдёт до некоторых видов производственной деятельности. Говоря о перспективах распространения ИИ в целом, Безос добавил: «Мы должны быть предельно оптимистичны в том, что социальные блага, которые приносит ИИ, подобные тем, что наблюдались 25 лет по мере распространения интернета, реальны и останутся надолго». Он убеждён, что нужно отделять потенциальные «пузыри» и последствия от их схлопывания, которые могут как случиться, так и нет, от объективной реальности.


window-new
Soft
Hard
Тренды 🔥
Календарь релизов 1 – 7 декабря: Metroid Prime 4, Marvel Cosmic Invasion и «Зайчик» 9 ч.
«Так не хочется, чтобы эта игра заканчивалась»: первый тизер последнего дополнения к Atomic Heart заинтриговал и растрогал фанатов 9 ч.
Microsoft признала, что ИИ-агенты небезопасны, но всё равно заполонит ими Windows 11» 10 ч.
Грандиозное возвращение мастера скрытности Стикса откладывается на 2026 год — дата выхода и новый трейлер Styx: Blades of Greed 10 ч.
В первый день зимы биткоин упал ниже $85 000 — пример оказался заразительным 11 ч.
Создатели «Земского собора» по многочисленным просьбам доработали боевую систему и улучшили оптимизацию — подробности крупного обновления 1.1.0 12 ч.
Состоялся релиз Astra Automation 2.0 — новой версии корпоративной платформы автоматизации IT-операций 14 ч.
В России резко вырос спрос на специалистов по общению с нейросетями 15 ч.
«Пожирает всё твоё время на протяжении многих лет»: сооснователь Rockstar спустя пять лет объяснил причину ухода из студии 16 ч.
Возвращение блудного разработчика: бывший режиссёр ремейка Splinter Cell спустя три года вновь возглавил проект, но этого никто не заметил 17 ч.
Власти Индии потребовали от поставщиков смартфонов устанавливать неудаляемое приложение для кибербезопасности 26 мин.
Новая статья: Обзор смартфона IQOO 15: время, вперед 4 ч.
Новая статья: Обзор и тест процессорного кулера PCCooler R400: малыш и его «карлссон» 6 ч.
AMD и Intel символически нарастили долю на рынке видеокарт — Nvidia всё равно держит подавляющие 92 % 6 ч.
TeamGroup предупредила: дефицит DRAM и NAND только начинается — цены будут расти весь 2026 год 6 ч.
В России автомобили Porsche стали массово глохнуть и выдавать ошибки — умельцы уже нашли решение 7 ч.
Настольная ностальгия: Sega выпустила аркадные мини-автоматы с Sonic The Hedgehog 7 ч.
Первый iPhone SE официально признан устаревшим, вместе с рядом других устройств Apple 8 ч.
Техпроцесс TSMC A16 оказался никому не нужен кроме Nvidia — Apple сразу перескочит на 1,4 нм 8 ч.
Дефицит DRAM ударил по Raspberry Pi 5 — одноплатники подорожали, но появилась бюджетная версия с 1 Гбайт 9 ч.