|
Опрос
|
реклама
Быстрый переход
Google поглотит Intersect Power, чтобы справиться с энергетическими аппетитами ИИ
23.12.2025 [13:51],
Алексей Разин
Стратегическое сотрудничество Google и Intersect Power ведут с 2024 года, но только на этой неделе первая решила купить активы второй за $4,75 млрд без учёта долговых обязательств. Последняя компания специализируется на создании энергетической инфраструктуры для ЦОД, включая источники возобновляемой энергии. Помимо Google, она сотрудничает с Tesla и First Solar.
Источник изображения: Intersect Power Как отмечается на сайте Intersect Power, компания является одним из крупнейших покупателей систем стационарного хранения электроэнергии Tesla Megapack. Они требуются не только для организации бесперебойного снабжения крупных промышленных потребителей, но и в качестве буферного хранилища электроэнергии в составе ветряных и солнечных электростанций. Google при помощи Intersect Power намеревается быстрее строить новые центры обработки данных, не слишком полагаясь на локальных поставщиков, которые не всегда справляются с растущим на фоне бума ИИ спросом на энергетические мощности. С декабря прошлого года Google владеет небольшим пакетом акций Intersect Power. До конца десятилетия на развитие Intersect Power будет направлено до $20 млрд. Сделка с Google распространяется на будущие проекты Intersect Power, но уже существующие объекты в Калифорнии и Техасе будут проданы прочим инвесторам и отойдут под их независимое управление. Intersect Power специализировалась на строительстве технопарков, которые предлагали источники возобновляемой электроэнергии и прочую необходимую для работы ЦОД инфраструктуру. Первые новые площадки, построенные под крылом Google, появятся к 2027 году. Нынешняя сделка между компаниями должна быть закрыта в следующем полугодии. По её условиям, приоритет в доступе к ресурсам Intersect Power будет отдан Google, но при этом сторонние клиенты тоже смогут ими пользоваться. Специалисты Intersect Power помогут Google развивать ЦОД на территории Техаса, которые будут введены в строй в ближайшие два года. Samsung представила SOCAMM2 LPDDR5X для ИИ-дата-центров — быстрее и энергоэффективнее DDR5 RDIMM
20.12.2025 [01:53],
Николай Хижняк
Компания Samsung анонсировала модуль памяти SOCAMM2 на базе чипов LPDDR5X, разработанный специально для платформ центров обработки данных с поддержкой ИИ. Новый формат памяти призван обеспечить преимущества LPDDR5X в плане энергоэффективности и пропускной способности для серверов без необходимости постоянной пайки чипов памяти на несущую материнскую плату.
Источник изображений: Samsung Память SOCAMM2 ориентирована на определённый и растущий класс систем, где процессоры или суперчипы CPU–GPU работают в паре с большими пулами системной памяти, которые должны обеспечивать высокую пропускную способность при меньшем энергопотреблении, чем могут предложить обычные серверные модули DIMM, — и всё это в более компактном форм-факторе. По мере расширения рабочих нагрузок в области вывода данных и перехода ИИ-серверов к непрерывной работе в режиме постоянной доступности энергоэффективность памяти больше не может рассматриваться как второстепенная оптимизация, поскольку она вносит существенный вклад в эксплуатационные расходы на уровне стойки. SOCAMM2 является ответом на эти вызовы. Samsung отмечает, что, хотя серверные модули на базе чипов DRAM, такие как RDIMM (Registered Dual Inline Memory Module), по-прежнему служат основой для высокопроизводительных серверов общего назначения, SOCAMM2 предлагает дополнительную альтернативу, оптимизированную для серверов следующего поколения с ускорением ИИ, которым требуются как высокая скорость отклика, так и энергоэффективность. Память SOCAMM2 обеспечивает более чем в два раза большую пропускную способность по сравнению с традиционными модулями RDIMM, при этом потребляя более чем на 55 % меньше энергии и поддерживая стабильную высокую производительность при интенсивных ИИ-нагрузках, что делает это решение идеальным для энергоэффективных серверов ИИ, ориентированных на производительность. Кроме того, повышенная энергоэффективность SOCAMM2 упрощает задачу организации и управления охлаждением ИИ-систем, что является критически важным фактором для сред с высокой плотностью размещения вычислительных ИИ-мощностей. Samsung заявляет, что уже сотрудничает с компанией Nvidia по развитию инфраструктурных решений с использованием подобных модулей памяти, и позиционирует формат SOCAMM2 как естественный ответ на растущие затраты на электроэнергию, ограничения по плотности размещения и проблемы с ремонтопригодностью в крупномасштабных инстансах. Samsung также отмечает, что по мере роста масштабов и сложности рабочих нагрузок ИИ компания будет и дальше развивать свой портфель серверной памяти на основе LPDDR. «Строительный ажиотаж»: бум ИИ разогнал рынок ЦОД до рекордных $61 млрд
19.12.2025 [16:49],
Павел Котов
Мировой объём сделок в области центров обработки данных в этом году показал рост и поставил очередной рекорд, обращает внимание CNBC. Этому способствовало стремление игроков отрасли выстроить инфраструктуру, необходимую для энергоёмких нагрузок искусственного интеллекта.
Источник изображения: nvidia.com Положительной динамике не помешали опасения инвесторов по поводу завышенных оценок компаний в отрасли, хотя в ноябре мировые рынки из-за страха перед пузырём ИИ показали некоторое падение. На рынок ЦОД в этом году поступили $61 млрд — годом ранее этот показатель был $60,8 млрд, и в S&P Global ситуацию охарактеризовали как «строительный ажиотаж». Рекорду способствовал рост долгового финансирования — крупные компании предпочитают возводить объекты инфраструктуры не из своих, а из заёмных средств. Некоторые инвесторы уже начинают сомневаться в ценности передовых технологий, работу которых обеспечивают эти ЦОД. Ранее стало известно, что Blue Owl Capital отказалась финансировать для Oracle строительство ЦОД в Мичигане за $10 млрд, и акции последней упали на 5 %. Oracle опровергла это сообщение, но было уже поздно — вместе с её ценными бумагами подешевели Broadcom, Nvidia и AMD; высокотехнологичный индекс Nasdaq Composite снизился на 1,81 %, что стало худшим результатом почти за месяц. Аналитики, впрочем, сомневаются, что опасения рынка по поводу ИИ и Oracle будут долгими и серьёзными — едва ли они окажут «масштабное влияние» на строительство ЦОД, а также на сделки по слияниям и поглощениям. Есть мнение, что инвестиции останутся высокими и в 2026 году — этому будут способствовать новые достижения в области ИИ, а также поддержка отрасли со стороны государственного и частного сектора. С января по ноябрь в области ЦОД были заключены более сотни сделок, и их общая стоимость уже перекрыла показатели 2024 года. Большинство сделок пришлось на США, за которыми следует Азиатско-Тихоокеанский регион; Европа пока остаётся «за бортом» — инвестиции в США оказались впятеро выше. Отмечается рост активности на Ближнем Востоке: богатые государства Персидского залива стремятся обрести статус мирового центра ИИ. В 2025 году выпуск долговых обязательств почти удвоился и достиг $182 млрд — в прошлом году он составлял $92 млрд. Наиболее активными эмитентами оказались Google и Meta✴✴ — последняя с 2022 года привлекла $62 млрд, половину из которых — только в 2025 году. Google и Amazon привлекли $29 млрд и $15 млрд соответственно. Строительство и эксплуатация ЦОД обходятся настолько дорого, что гиперскейлеры часто не готовы оплачивать такие расходы самостоятельно, поэтому они привлекают лаборатории ИИ не просто как клиентов, а как партнёров в этих проектах. Ford придумала, куда девать ставшие лишними аккумуляторы для электромобилей — их «скормят» ИИ
16.12.2025 [13:00],
Алексей Разин
Американские автопроизводители при президенте Байдене живо бросились переводить ассортимент своих транспортных средств на электротягу, но при новой власти пришло отрезвление, субсидии исчезли, а затраты выросли. Ford на этом фоне решил не отказываться от планов по развитию производства батарей в США, но переориентировать его на поставки стационарных систем хранения электроэнергии.
Источник изображения: Ford Motor «Буферные хранилища» электроэнергии для центров обработки данных как раз хорошо собирать на основе батарей типа LFP, поскольку масса и плотность хранения заряда в этом случае не так важны, как дешевизна. Напомним, первоначально Ford Motor планировала наладить выпуск в Мичигане тяговых батарей типа LFP для своих электромобилей американской сборки, используя для этого технологии китайской CATL, которая является мировым лидером в этой сфере. Поскольку спрос на электромобили резко упал, компания предпочла переквалифицироваться в производителя систем стационарного хранения электроэнергии, не отказываясь от планов по расширению производства батарей в США. Системы стационарного хранения электроэнергии начнут выпускаться в 2027 году, со временем Ford рассчитывает увеличить объёмы их производства до 20 ГВт‧ч в год. Более того, компания готова будет предложить системы умеренной ёмкости для бытового применения. В ближайшие два года в развитие данного направления бизнеса Ford вложит около $2 млрд. Под новые задачи будет перепрофилировано существующее производство в штате Кентукки, строящийся в Мичигане комплекс тоже будет ориентирован на выпуск батарей для стационарных систем хранения электроэнергии. В строй данная площадка будет введена в 2026 году, причём она продолжит снабжать тяговыми батареями перспективные модели электромобилей этой марки. Ford станет далеко не единственным автопроизводителем, решившим выпускать подобные источники питания. Tesla уже давно развивает такой бизнес, корпорация General Motors также готова предлагать соответствующие решения как корпоративным, так и частным компаниям. Ford собирается отдавать приоритет промышленным потребителям, центры обработки данных окажутся на втором месте, а потребительский сегмент она будет обслуживать в третью очередь. LFP-батареи призматической компоновки, как пояснили представители Ford, естественным образом подходят для использования в составе стационарных систем хранения электроэнергии. Технопарк в Мичигане, который развивается под нужды выпуска LFP-батарей, уже несколько раз переживал изменения в планах Ford. В феврале 2023 года компания заявила о готовности вложить в его развитие $3,5 млрд. К сентябрю того же года компания приостановила строительство, а через два месяца после этого заявила о намерениях сократить объёмы выпуска тяговых батарей на будущем предприятии на 43 %. По-настоящему вечная память вышла за пределы лаборатории — 5D-кристаллы на 360 Тбайт попробуют применить в ЦОД
15.12.2025 [19:12],
Сергей Сурабекянц
SPhotonix сообщила, что вывела свою так называемую технологию «5D-кристаллов памяти» из лаборатории и планирует пилотное внедрение этих систем хранения холодных данных в ЦОД в течение следующих двух лет. «Кристаллы памяти» обеспечивают запись 360 Тбайт данных на 5-дюймовый стеклянный диск с помощью фемтосекундного лазера. Компания обещает до 13,8 млрд лет хранения информации, что примерно соответствует возрасту Вселенной.
Источник изображения: University of Southampton Британский стартап SPhotonix был создан в 2024 году на основе исследований, проведённых учёными из Университета Саутгемптона. Компания привлекла $4,5 млн инвестиций и сейчас работает над переходом с уровня технологической готовности (Technology Readiness Level, TRL) 5 на TRL 6, что обычно подразумевает проверку технологии в соответствующих операционных условиях, а не в лаборатории. По оценкам компании, первоначальная стоимость системы составит приблизительно $30 000 за устройство записи и $6 000 за устройство чтения, а развёртывание готового к использованию устройства чтения ожидается примерно через 18 месяцев. По данным SPhotonix, текущие прототипы достигают скорости записи около 4 Мбайт/с и скорости чтения примерно 30 Мбайт/с. Эти показатели значительно уступают существующим сегодня системам архивирования, но компания планирует достичь устойчивых скоростей чтения и записи в 500 Мбайт/с в течение трёх-четырёх лет. Носитель информации SPhotonix представляет собой пластину из кварцевого стекла, данные на которой записываются с помощью фемтосекундного лазера, кодирующего данные в наноструктурах. Информация хранится в пяти измерениях: трёх пространственных координатах (x, y, z), а также ориентации и интенсивности наноструктур, которые считываются оптически с помощью поляризованного света. Носитель не требует питания для хранения данных и подходит для архивов, где допустимы задержки доступа в 10 секунд и более. В июле 2025 года игровой сервис GOG использовал технологию SPhotonix для записи полного издания «Героев Меча и Магии III», тем самым увековечив легендарную игру. Эта кристальная монета выдерживает температуру до 1000 °C, космическую радиацию, прямые ударные нагрузки в 10 тонн на см2 и может хранить информацию на протяжении миллиардов лет.
Источник изображения: GOG SPhotonix не единственная компания, занимающаяся разработкой немагнитных носителей холодного хранения. Microsoft публично протестировала стеклянные носители в рамках своей программы Project Silica, в то время как другие стартапы, такие как Cerabyte, продвигают альтернативы на основе керамики, предназначенные для роботизированных библиотечных систем. Отличительной чертой подхода SPhotonix является ориентация на лицензирование носителя и оптической платформы для существующих архитектур ЦОД, а не на создание комплексной услуги хранения. От того, сможет ли SPhotonix перейти от впечатляющих демонстраций плотности записи к конкурентоспособной производительности на системном уровне, зависит, станут ли «кристаллы памяти» нишевым архивным носителем или жизнеспособным решением для хранения данных в современных ЦОД. Oracle затягивает со строительством некоторых ЦОД для OpenAI
13.12.2025 [07:11],
Алексей Разин
Основную часть своей истории компания Oracle просто была крупным поставщиком СУБД и не была особо известна за пределами этого специфического рынка, но на фоне бума ИИ принялась активно развивать вычислительную инфраструктуру, связавшись и OpenAI. Источники отмечают, что часть их совместных проектов будет реализована с задержкой относительно первоначального графика.
Источник изображения: Oracle По информации Bloomberg, компания Oracle перенесла сроки завершения строительства избранных центров обработки данных для OpenAI с 2027 на 2028 год, поскольку этому способствовал дефицит кадров и компонентов. Представители Oracle поспешили опровергнуть эту информацию, заявив, что все контрактные обязательства будут выполнены в срок, задержек не возникло, и в своей способности сделать это компания уверена. Выбор площадок для строительства ЦОД и график их возведения, по словам Oracle, осуществлялся по согласованию с OpenAI. Тем не менее, слухи о возможных задержках вызвали снижения курсовой стоимости акций Oracle на 3,4 % по итогам пятничных торгов в США. Bloomberg напоминает, что Oracle выступает подрядчиком OpenAI по строительству центров обработки данных для инфраструктуры ИИ на сумму $300 млрд. На этой неделе на квартальной отчётной конференции глава облачного бизнеса Oracle Клей Магуйрк (Clay Magouyrk) подчеркнул, что компания поставила перед собой амбициозные, но достижимые цели в части расширения вычислительных мощностей по всему миру. По его словам, первый из ЦОД, предназначенных для OpenAI, строится сейчас в Техасе, он позволит разместить более 96 000 ускорителей Nvidia. Microsoft хочет свой идеальный ИИ-чип: Broadcom подключат к разработке кастомных чипов для Azure
06.12.2025 [18:26],
Владимир Мироненко
Microsoft ведёт переговоры с Broadcom по поводу разработки кастомных чипов для облачной ИИ-инфраструктуры Azure, стремясь диверсифицировать усилия в этом направлении и повысить эффективность в условиях бума ИИ. В настоящее время Microsoft также сотрудничает с Marvell Technology в разработке ASIC для сетей и ускорения работы ЦОД. Как сообщает WebProNews, Microsoft проявляет интерес к сотрудничеству с Broadcom, поскольку та обладает опытом в разработке кастомных полупроводников для гиперскейлеров и может предоставить Microsoft более индивидуальные решения для повышения эффективности ее ЦОД. Такое развитие событий вписывается в общую картину агрессивного продвижения Microsoft на рынок проприетарного оборудования. За последние несколько лет компания представила собственные чипы, такие как ИИ-ускоритель Maia и процессор Cobalt, предназначенные для задач обучения и инференса ИИ без опоры исключительно на внешних поставщиков, таких как Nvidia. Партнёрство с Broadcom позволит Microsoft ускорить разработку решений, которые будут интегрированы с её программной экосистемой. Отказ от Marvell в пользу Broadcom может быть обусловлен потребностью в более высокой производительности или финансовыми соображениями. Marvell играет ключевую роль в поставке чипов для сетевого оборудования Microsoft, но более широкий портфель решений Broadcom, включая опыт в коммутации Ethernet и разработке ИИ-ускорителей, может обеспечить софтверному гиганту более комплексное преимущество. Отраслевые аналитики отмечают взрывной рост подразделения Broadcom по разработке кастомных чипов, прогнозируя при этом резкое увеличение выручки от продуктов, связанных с ИИ-технологиями. В 2024 году Microsoft заключила с Intel соглашение о производстве чипов на заказ с целью использования производственных возможностей Intel, но текущие переговоры с Broadcom позволяют предположить, что Microsoft расширяет свою деятельность, возможно, для снижения рисков, связанных с геополитической напряжённостью, планируя делегировать часть заказов TSMC. В настоящее время, когда ИИ-рынок развивается стремительными темпами, индивидуальные решения имеют решающее значение для сохранения конкурентных преимуществ в сфере облачных вычислений. Это отражает более широкую отраслевую тенденцию, когда гиперскейлеры всё чаще обращаются к кастомным решениям для оптимизации под конкретные рабочие нагрузки вместо использования чипов общего назначения.
Источник изображения: Igor Omilaev/unsplash.com Сотрудничество с Broadcom также позволит Microsoft усилить интеграцию с OpenAI, учитывая её значительные инвестиции в этот ИИ-стартап. В Bitcoin Ethereum News описывается, как Microsoft использует опыт OpenAI в области чипов для решения собственных проблем в аппаратном обеспечении. Это также может отразиться на глобальных цепочках поставок и производственных мощностях. Эксперты считают, что конструкторский потенциал Broadcom в сочетании с производственными мощностями TSMC создаёт мощный конвейер для производства кастомного оборудования для обработки ИИ-нагрузок, потенциально ускоряя его внедрение в ЦОД по всему миру. В отличие от Marvell, сосредоточенной на системах хранения данных и сетях, Broadcom предлагает более комплексный подход разработке чипов, включающий фотонику и беспроводные технологии, что будет способствовать развитию инфраструктуры Microsoft. В результате Microsoft добьётся более низких затрат и более высокой скорости для ИИ-сервисов, что обеспечит ей конкурентное преимущество перед компаниями, привязанными к экосистеме Nvidia. В перспективе партнёрство Microsoft и Broadcom может стимулировать инновации в области периферийных вычислений и гибридных облачных сред. С ростом сложности ИИ-моделей кастомные чипы позволяют добиться тонкой оптимизации, которую сложно обеспечить с помощью стандартных ускорителей, отметил WebProNews. В условиях растущего спроса на ИИ такие компании, как Broadcom, имеющие опыт в разработке решений на заказ, становятся ключевыми игроками рынка ИИ-технологий. Для Microsoft речь идёт не только о чипах, речь идёт о контроле над всем стеком — от кремния до программного обеспечения — для обеспечения бесперебойной работы ИИ-сервисов. Как отметил один из экспертов, это может стать катализатором следующего витка роста Microsoft. После появления в СМИ сообщений о переговорах Microsoft и Broadcom, акции последней пошли в рост в то время как у ценных бумаг Marvell было отмечено падение. «Катастрофически плохая идея»: бывший инженер NASA разгромил идею космических дата-центров
02.12.2025 [11:52],
Геннадий Детинич
Идея перенести ЦОД и ИИ в космос для решения ряда кардинальных проблем с потреблением, экологичностью и масштабированием более сложна в реализации, чем кажется на первый взгляд. На словах всё выглядит вполне реально, вопрос якобы заключается только в финансировании проектов. Бывший инженер NASA с учёной степенью объяснил, что это «ужасная, кошмарная, никуда не годная идея».
Источник изображения: ИИ-генерация Grok 4.1/3DNews На пути к ЦОД в космосе существует несколько барьеров, каждый из которых будет сопряжён с решением сложнейших инженерных задач. В конечном итоге все они могут быть решены до определённого уровня, но в том объёме, о котором мечтают занимающиеся искусственным интеллектом компании, этот уровень будет недостижим на современном этапе развития науки и техники человеческой цивилизации. Начнём с питания. Согласно всем заявлениям адептов «зелёной» генерации, на орбите — бесконечный и непрерывный источник солнечной энергии, поскольку Солнце там никогда не заходит, а ослабляющей его лучи атмосферы нет. Для примера: солнечные панели МКС площадью 2500 м² в пике способны выработать 200 кВт энергии. Условный ускоритель Nvidia H200 с обвязкой потребляет 1 кВт. Этой энергии, батарея для сбора которой создавалась годами, хватит на питание примерно трёх стоек с ускорителями Nvidia H200. На Земле новые ЦОД с ускорителями Nvidia будут содержать десятки тысяч ускорителей. Питание ЦОД с 10 000 GPU Nvidia потребует вывода на орбиту 500 спутников с батареями как у МКС — а это лучшее, что у нас сегодня есть. Звучит нереально. ![]() Как вариант, можно поговорить о ядерной установке на орбите. В настоящее время для подобного разрешено использовать радиоизотопные термоэлектрические генераторы (РИТЭГ), которые обычно вырабатывают от 50 до 150 Вт. Можно ещё пофантазировать о ядерном реакторе на орбите Земли. Аварийный или плановый сход всего этого «добра» в атмосферу приведёт к загрязнению планеты радиоактивными материалами, поскольку может разбросать их по значительной территории. Охлаждение серверов в космосе — это ещё одна трудноразрешимая инженерная задача. Вопреки расхожему мнению, «космического холода» в буквальном смысле не существует. Средняя температура на спутнике будет такой же, как средняя температура на Земле, но только если спутник вращается как «курица на вертеле», по словам автора. В тени температура тел в вакууме будет понемногу снижаться за счёт инфракрасного излучения до уровня фонового излучения в галактике, что составит немногим больше абсолютного нуля. На солнечной стороне в это время будет нагрев до нескольких сотен градусов. Но это не вся проблема. На Земле за счёт обдува радиаторов воздухом или охлаждения проточной водой за счёт конвекции тепло довольно легко передаётся в контур охлаждения. В вакууме таких условий нет, поэтому простые радиаторы там бесполезны. Решать придётся не проблему охлаждения, а проблему терморегуляции. На МКС это сложный контур с аммиаком в качестве теплоносителя и выносными панелями большой площади, которые за счёт естественного излучения сбрасывают тепло в пространство. Система активного терморегулирования (ATCS) на МКС — пример такой системы отвода тепла. Предельная мощность рассеивания панелей на МКС составляет 16 кВт, то есть примерно 16 графических процессоров H200 — немного больше, чем четверть наземной стойки. Система тепловых радиаторов имеет размеры 13,6 × 3,12 м, то есть примерно 42,5 м². Если взять за основу 200 кВт и предположить, что вся эта мощность будет подаваться на графические процессоры, то нам понадобится система радиаторов в 12,5 раза больше, то есть примерно 531 м², или около 20 % от площади соответствующей солнечной батареи. Со всей этой обвязкой это будет очень большой спутник, площадь которого будет в разы больше площади МКС — и всё это ради трёх стандартных серверных стоек на Земле.
«Крыло от Boeing» — терморегулирующая панель для сброса тепла от МКС Третья проблема — радиация. Солнечное и космическое излучение — это бесконечные потоки заряжённых частиц. Космические частицы могут обладать колоссальной энергией. Пролёт заряжённой частицы через чип может переключить состояние транзистора (ячейки) и даже полностью вывести его из строя. Деградация чипов будет идти быстро и неконтролируемо. Сегодня для космоса производят микросхемы по не самым новым техпроцессам (это делает их менее уязвимыми для радиации), а также с учётом особой архитектуры. В случае ускорителя Nvidia и всех остальных тоже ни одно, ни другое условие не соблюдено. Запускать такое в космос — это всё равно что выбросить. Надёжное экранирование электроники в космосе невозможно. Во-первых, подъём лишней массы в космос на ракете будет по цене золота. Во-вторых, особенно сильные космические частицы, ударяясь в экран, создают лавину частиц с меньшими энергиями, которые вынесут электронику как выстрел из дробовика на близком расстоянии. Наконец, связь. Каналы связи с космосом на пару порядков уже, чем оптические каналы связи внутри ЦОД. Для ИИ это может быть не так критично, но хорошего в слабых каналах связи мало. Это ухудшит процесс масштабирования, и с этой проблемой тоже придётся разбираться. Автор резюмирует: «Полагаю, это вполне возможно, если вы действительно этого хотите, но, как я уже показал выше, добиться этого будет крайне сложно, это будет непропорционально дорого по сравнению с центрами обработки данных на Земле, а производительность в лучшем случае будет посредственной. Если вы всё ещё считаете, что это того стоит, удачи вам — космос это сложно. Лично я считаю, что это катастрофически плохая идея, но решать вам». С нашей стороны можно добавить проблему уязвимости космических ЦОД для вмешательства третьих сторон. На Земле серверные залы хорошо охраняются, а особенно важные объекты строятся в специальных укрытиях. В космосе это невозможно. Для защиты космических ЦОД от атак придётся содержать флот. Наконец, космический ЦОД в случае нужды уничтожит мешок гаек на нужной орбите. Пока вся эта история с центрами обработки данных в космосе больше похожа на раздувание пузыря вокруг ИИ. Руководство космических компаний и разработчиков аппаратных решений затруднительно назвать неучами или авантюристами. Остаётся заподозрить их в вольном или невольном стремлении лить воду на мельницу сомнительных коммерческих интересов. Так ли это? Остаётся только догадываться. Главы технологических компаний наперебой заговорили о ЦОД в космосе
29.11.2025 [17:53],
Павел Котов
В последние месяцы главы технологических компаний всё чаще преподносят идею строить центры обработки данных на земной орбите, обращает внимание Business Insider. Там ЦОД обещают обходиться дешевле, чем на Земле.
Источник изображения: NASA / unsplash.com Сегодня эта идея может казаться «безумной», признался недавно в подкасте «ИИ Google: примечания к выпуску» гендиректор компании Сундар Пичаи (Sundar Pichai). Но «когда отступишь на шаг назад и представишь, сколько нам понадобится вычислительных мощностей, всё обретает смысл, и это уже вопрос времени». Так он прокомментировал новую программу Project Suncatcher, посвящённую строительству ЦОД для обучения ИИ на орбите, и выразил надежду, что первый тензорный процессор Google заработает в космосе уже в 2027 году. «Может, увидим Tesla Roadster», — пошутил он. В 2018 году Илон Маск (Elon Musk) действительно отправил на ракете SpaceX электромобиль с манекеном в скафандре на водительском сиденье — в этом году астрономы приняли его за астероид. Маск тоже заинтересовался идеей запуска ЦОД в космос. «Starship должен быть способен каждый год выводить 300 ГВт, а то и 500 ГВт ИИ-спутников на солнечной энергии в год. Именно „в год“ — вот что важно», — написал он недавно в своей соцсети X. Для сравнения, сейчас мощность всех ЦОД на Земле составляет 59 ГВт, а к 2050 году мировой спрос на электроэнергию должен удвоиться, в том числе из-за ЦОД для ИИ. Основатель Amazon Джефф Безос (Jeff Bezos) предсказал, что космические ЦОД начнут работать в ближайшие десять или двадцать лет. «Думаю, со временем большая часть мира будет покрыта ЦОД. Но не знаю, потому что мы, может, разместим их в космосе. Например, построим в солнечной системе большую сферу Дайсона и скажем: „А строить их на Земле на самом деле смысла нет“», — заявил летом в интервью глава OpenAI Сэм Альтман (Sam Altman). Гендиректор Salesforce Марк Бениофф (Marc Benioff) отметил, что размещать ЦОД в космосе дешевле всего — там для питания и охлаждения «постоянно используется солнечная энергия, и батареи не нужны». «Земля получает примерно одну–две миллиардных доли солнечной энергии. Поэтому если хочешь нечто, где, скажем, в миллион раз больше энергии, чем может произвести Земля, нужно отправляться в космос. Вот здесь иметь космическую компанию очень удобно», — добавил Маск. Китайские разработчики отправляют ИИ учиться за границу — там есть санкционные ускорители Nvidia
27.11.2025 [12:43],
Алексей Разин
По информации Financial Times, введённое при Байдене ограничение на доступ китайских компаний к зарубежным ЦОД после прихода к власти Дональда Трампа (Donald Trump) было снято, и это позволило китайским разработчикам увеличить активность по обходу санкций в сфере использования ускорителей Nvidia для своих нужд.
Источник изображения: Nvidia Китайские разработчики, включая Alibaba и ByteDance, в последнее время всё чаще используют находящиеся в соседних странах Юго-Восточной Азии вычислительные центры, принадлежащие некитайским компаниям. Арендуя подобные вычислительные мощности для обучения своих больших языковых моделей, китайские компании получают доступ к передовому оборудованию Nvidia, которое недоступно им на родине в силу целого ряда причин. Напомним, что помимо собственно американских санкций, препятствием на этом пути являются и настойчивые рекомендации китайских властей по переводу китайских ЦОД на использование ускорителей местного происхождения. На практике китайские компании применяют другой подход. Они проводят за пределами КНР в арендованных ЦОД, которые нередко находятся в Сингапуре или Малайзии, базовое обучение своих больших языковых моделей, а инференсом занимаются уже в Китае с использованием элементной базы китайского происхождения. Местные законы запрещают экспортировать персональные данные граждан, поэтому часть обучения китайские разработчики проводят на территории страны. DeepSeek на этом фоне выделяется «условным патриотизмом», поскольку свои языковые модели обучает на территории КНР, но при этом не брезгует запасаться импортными ускорителями Nvidia для собственных нужд. Аренда зарубежных ЦОД для китайских компаний обретает актуальность и по причине необходимости обслуживания своих зарубежных клиентов. Пока эта экспансия носит ограниченный характер, но Alibaba и ByteDance настроены расширить свой охват мирового рынка. Китайские компании также ищут возможность получить доступ к центрам обработки данных, расположенным на Ближнем Востоке. Маск пообещал дешёвые ИИ-серверы в космосе через пять лет — Хуанг назвал эти планы «мечтой»
21.11.2025 [18:29],
Сергей Сурабекянц
Помимо стоимости оборудования, требования к электроснабжению и отведению тепла станут одними из основных ограничений для крупных ЦОД в ближайшие годы. Глава X, xAI, SpaceX и Tesla Илон Маск (Elon Musk) уверен, что вывод крупномасштабных систем ИИ на орбиту может стать гораздо более экономичным, чем реализация аналогичных ЦОД на Земле из-за доступной солнечной энергии и относительно простого охлаждения.
Источник изображений: AST SpaceMobile «По моим оценкам, стоимость электроэнергии и экономическая эффективность ИИ и космических технологий будут значительно выше, чем у наземного ИИ, задолго до того, как будут исчерпаны потенциальные источники энергии на Земле, — заявил Маск на американо-саудовском инвестиционном форуме. — Думаю, даже через четыре-пять лет самым дешёвым способом проведения вычислений в области ИИ будут спутники с питанием от солнечных батарей. Я бы сказал, не раньше, чем через пять лет». Маск подчеркнул, что по мере роста вычислительных кластеров совокупные требования к электроснабжению и охлаждению возрастают до такой степени, что наземная инфраструктура с трудом справляется с ними. Он утверждает, что достижение непрерывной выработки в диапазоне 200–300 ГВт в год потребует строительства огромных и дорогостоящих электростанций, поскольку типичная атомная электростанция вырабатывает около 1 ГВт. Между тем, США сегодня вырабатывают около 490 ГВт, поэтому использование львиной её доли для нужд ИИ невозможно. Маск считает, что достижение тераваттного уровня мощности для питания наземных ЦОД нереально, зато космос представляет заманчивую альтернативу. По мнению Маска, благодаря постоянному солнечному излучению, аккумулирование энергии не требуется, солнечные панели не требуют защитного стекла или прочного каркаса, а охлаждение происходит за счёт излучения тепла. Глава Nvidia Дженсен Хуанг (Jensen Huang) признал, что масса непосредственно вычислительного и коммуникационного оборудования внутри современных стоек Nvidia GB300 исчезающе мала по сравнению с их общей массой, поскольку почти вся конструкция — примерно 1,95 из 2 тонн — по сути, представляет собой систему охлаждения. Но, кроме веса оборудования, существуют и другие препятствия. Теоретически космос — хорошее место как для выработки энергии, так и для охлаждения электроники, поскольку в тени температура может опускаться до -270 °C. Но под прямыми солнечными лучами она может достигать +125 °C. На околоземных орбитах перепады температур не столь экстремальны:
Низкая и средняя околоземные орбиты не подходят для космических ЦОД из-за нестабильной освещённости, значительных перепадов температур, пересечения радиационных поясов и регулярных затмений. Геостационарная орбита лучше подходит для этой цели, но и там эксплуатация мощных вычислительных кластеров столкнётся с множеством проблем, главная из которых — охлаждение. В космосе отвод тепла возможен только при помощи излучения, что потребует монтажа огромных радиаторов площадью в десятки тысяч квадратных метров на систему мощностью несколько гигаватт. Вывод на геостационарную орбиту такого количества оборудования потребует тысяч запусков тяжёлых ракет класса Starship. ![]() Не менее важно, что ИИ-ускорители и сопутствующее оборудование в существующем виде не способны выдержать воздействие радиации на геостационарной орбите без мощной защиты или полной модернизации конструкции. Кроме того, высокоскоростное соединение с Землёй, автономное обслуживание, предотвращение столкновения с мусором и обслуживание робототехники пока находится в зачаточном состоянии, учитывая масштаб предлагаемых проектов. Так что скорее всего Хуанг прав, когда называет затею Маска «мечтой». Мечтает о выводе масштабных вычислительных кластеров не только Маск. В октябре основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) в ходе мероприятия Italian Tech Week в Турине (Италия) поделился своим видением развития индустрии космических дата-центров. По его мнению, такие объекты обеспечат ряд значительных преимуществ по сравнению с наземными ЦОД. В сентябре компания Axiom Space с партнёрами сообщила о создании первого орбитального дата-центра, который разместился на МКС. Этот ЦОД будет обслуживать не только станцию, но также любые спутники с оптическими терминалами на борту. В мае Китай вывел на орбиту Земли 12 спутников будущей космической группировки Star-Compute Program, которая в перспективе будет состоять из 2800 спутников. Все они оснащены системами лазерной связи и несут мощные вычислительные платформы — по сути, это первый масштабный ЦОД с ИИ в космосе. Компания Crusoe намерена развернуть свою облачную платформу на спутнике Starcloud запуск которого запланирован на конец 2026 года. Ограниченный доступ к ИИ-мощностям в космосе должен появиться к началу 2027 года Google рассказала об инициативе Project Suncatcher, предусматривающей использование группировок спутников-ЦОД на основе фирменных ИИ-ускорителей. Спутники будут связаны оптическими каналами. Google потратит на строительство трёх новых ЦОД в Техасе $40 млрд
15.11.2025 [07:45],
Алексей Разин
Техас стал тем американским штатом, в котором крупные игроки облачного сегмента и амбициозные стартапы охотно возводят центры обработки данных, и в этом смысле Google не желает отставать от OpenAI, Anthropic или xAI. Интернет-гигант направит на строительство трёх новых ЦОД в Техасе $40 млрд, как сообщает Bloomberg.
Источник изображения: Nvidia Специализация этих вычислительных мощностей в условиях бума ИИ вполне предсказуемо, поскольку они будут задействованы под развитие соответствующей инфраструктуры. По информации самой Google, указанная сумма будет поэтапно инвестирована в строительство трёх новых ЦОД в Техасе до 2027 года включительно. Один из этих ЦОД расположится по соседству с энергетическим хабом, подразумевающим наличие большого количества солнечных панелей и батарей для стационарного хранения электроэнергии. Проект позволит Google создать в Техасе тысячи новых рабочих мест, а также обучить специалистов в разных смежных областях. Кроме того, развитие сопутствующей инфраструктуры сделает электроэнергию более доступной для жителей Техаса и местного бизнеса, как отмечается в официальном заявлении компании. Google уже располагает двумя центрами обработки в Далласе, там же она провела церемонию, на которой объявила о своих планах по дальнейшему расширению вычислительных мощностей в этом штате. Облачных гигантов в Техас привлекают содействие властей штата в реализации профильных проектов, большие участки земли и относительно дешёвая электроэнергия. Google выразила готовность активно содействовать развитию энергетики штата и субсидировать сопутствующие затраты. За счёт компании в штате будут получать специальное образование будущие сотрудники энергетических компаний. Недавно конкурирующая Anthropic также объявила о намерениях потратить $50 млрд на строительство ЦОД в США, включая и территорию Техаса. В этом штате строится и первый ЦОД в рамках мегапроекта Stargate, который финансируется OpenAI, Oracle и SoftBank. Крупные вычислительные мощности возводит в этом штате и Meta✴✴ Platforms, а также корпорация Microsoft. Здесь планируется построить четыре ядерных реактора для питания окрестных ЦОД. Сама Google только в текущем году готова направить $90 млрд на капитальное строительство, так что проект в Техасе вполне укладывается в инвестиционную программу этой корпорации. За прошедшие два месяца Google анонсировала сразу несколько проектов по развитию локальной вычислительной инфраструктуры в разных странах: $15 млрд планируется потратить в Индии, немецкая площадка может рассчитывать на получение $6,4 млрд, а Великобритания получит более $6,5 млрд. Samsung повысила цены на память на 60 % с сентября — строительство ЦОД для ИИ душит поставки для обычных потребителей
14.11.2025 [18:59],
Николай Хижняк
Цены на электронные продукты, использующие флеш-память NAND, скорее всего, продолжат расти, поскольку Samsung повысила цены на отдельные чипы памяти на целых 60 % с сентября, пишет Reuters, ссылаясь на источники в индустрии. Этому предшествовали сообщения о том, что цены на чипы памяти DRAM для ПК выросли более чем на 170 % в годовом исчислении. Производители соблюдают осторожность и не планируют увеличивать свои мощности, опасаясь такого же резкого снижения спроса.
Источник изображения: Samsung Быстрое развитие инфраструктуры ИИ привело к нескольким случаям дефицита в ряде критически важных сегментах рынка в течение 2025 года. Сначала с дефицитом и как следствие ростом цен столкнулось новое поколением видеокарт, выпущенных в начале года. Резкий рост цен сменился постепенным снижением. Но начала расти стоимость электроэнергии, особенно в регионах, где происходит активное строительство новых центров обработки данных для ИИ. Как сообщает Tom’s Hardware, даже гигант Microsoft столкнулась с дефицитом генерирующих мощностей для приобретенных ИИ-ускорителей. А компания xAI американского миллиардера Илона Маска (Elon Musk) для выхода из ситуации начала скупить огромное количество газовых турбин и даже купила целую электростанцию. Проблемы от взрывного развития ИИ становится всё шире и шире. В течение нескольких последних месяцев они сказываются на рынке чипов памяти, где наблюдается продолжающийся рост цен на микросхемы. И последние сообщения Reuters о том, что Samsung значительно повысила цены, явно не будут способствовать стабилизации. По данным издания, если в сентябре контрактная цена на 32 Гбайт памяти DDR5 составляла $149, то теперь она будет $239. Хотя сильнее всего на себе этот эффект ощутят потребители, самостоятельно собирающие свои ПК, проблемы наблюдаются практически в каждом сегменте рынка. Серьёзный дефицит или значительный рост цен затрагивает практически всё: от смартфонов и ноутбуков до устройств Интернета вещей и умной техники. Признаки дефицита спровоцировали панические покупки на некоторых рынках. В конце октября издание Reuters сообщило, что производители памяти получают в два-три раза больше заказов, поскольку компании начали запасаться микросхемами, чтобы компенсировать дефицит. Дорожает и старая память. Например, чипы памяти DDR4 резко выросли в цене, поскольку производители передовых микросхем памяти, такие как Samsung, стали всё больше ориентироваться на выпуск высокопроизводительной памяти HBM, которая всё шире используется в новейших профессиональных графических ускорителях и стоечных серверах для центров обработки данных, поддерживающих ИИ. Однако реальная проблема заключается в том, что это, возможно, только начало. Ожидается, что дефицит усилится в 2026 году, и, по мнению некоторых аналитиков, он может продлиться до десятилетия, поскольку отрасль делает ставку на ИИ и продолжает развиваться за счёт расширения серверной инфраструктуры, и производители микросхем памяти изо всех сил пытаются за ними угнаться. На строительство ЦОД в этом году будет потрачено больше, чем на разведку новых месторождений нефти
13.11.2025 [04:49],
Алексей Разин
Углеводородное топливо остаётся основным источником энергии для человечества, поэтому весьма символично, что относительно недавно зародившийся бум искусственного интеллекта в сжатые сроки позволил расходам на строительство центров обработки данных оказаться выше, чем затраты на поиск новых месторождений нефти.
Источник изображения: Saudi Aramco В общей сложности на строительство новых ЦОД в этом году будет потрачено $580 млрд, как отмечается в отчёте Международного энергетического агентства (IEA). На нужды разведки новых месторождений нефти при этом будет потрачено на $40 млрд меньше. К концу десятилетия энергопотребление ориентированных на ИИ центров обработки данных вырастет в пять раз, превысив текущее энергопотребление ЦОД всех типов в два раза. Последние также увеличат своё энергопотребление, но прирост не будет таким заметным. По оценкам IEA, основной прирост энергопотребления придётся на США, которым достанется половина этой величины, остальное увеличение распределят между собой Европа и Китай. Основная часть новых ЦОД строится в непосредственной близости от городов с численностью населения более 1 млн человек. Половина из строящихся ЦОД рассчитана на потребление более 200 МВт, в основном новые ЦОД строятся рядом с уже имеющимися. Нехватка источников электроэнергии для подобных объектов ощущается во многих случаях. Очереди на присоединение к электросетям растягиваются на десять лет в некоторых случаях, как на севере американского штата Вирджиния. В ирландском Дублине квота на подключения распределена вплоть до 2028 года. По данным агентства, компоненты для строительства энергетической инфраструктуры тоже становятся дефицитным товаром, замедляя процесс модернизации под нужды ИИ. Некоторые компании начали разработку твердотельных трансформаторов, которые лучшее соответствуют современным требованиям к энергетической инфраструктуре. Тем не менее, их массовое применение начнётся от силы через год или два. По прогнозам IEA, уже к 2035 году возобновляемые источники электроэнергии начнут доминировать в структуре энергоснабжения новых ЦОД, независимо от изменений в политике «озеленения» энергетики большинства стран. В ближайшие десять лет возобновляемые источники обеспечат ЦОД примерно 400 ТВт·ч электроэнергии, тогда как на долю природного газа придётся только 220 ТВт·ч. Модульные ядерные реакторы в случае своей успешной экспансии обеспечат ещё 190 ТВт·ч электроэнергии для питания ЦОД. Учёные придумали пассивный кулер на пористой мембране для самых мощных чипов — он эффективнее традиционных
07.11.2025 [15:26],
Владимир Мироненко
Учёные Калифорнийского университета в Сан-Диего создали пассивную систему охлаждения, основанную на испарительной мембране, которая значительно улучшает отвод тепла от мощных чипов, что особенно актуально для современных ЦОД, пишет SciTechDaily. Новое решение не только предлагает эффективную и энергосберегающую альтернативу традиционным методам охлаждения, но и потенциально позволяет сократить расход воды, используемой во многих существующих системах.
Источник изображений: SciTechDaily/Tianshi Feng В настоящее время на системы охлаждения приходится до 40 % общего энергопотребления ЦОД. При сохранении текущего роста и развёртывании ИИ-технологий мировой спрос на энергию для охлаждения к 2030 году может увеличиться более чем вдвое. В системе используется недорогая половолоконная мембрана с множеством взаимосвязанных микроскопических пор, которые втягивают охлаждающую жидкость за счёт капиллярного эффекта. Испаряясь, жидкость отводит тепло от расположенных ниже электронных компонентов без необходимости использования дополнительной энергии. Мембрана расположена над микроканалами, по которым поступает жидкость, что позволяет теплу эффективно рассеиваться от расположенного ниже оборудования. «По сравнению с традиционным воздушным или жидкостным охлаждением испарение позволяет рассеивать больший тепловой поток при меньших затратах энергии», — отметил руководитель проекта Ренкун Чен (Renkun Chen), профессор кафедры машиностроения и аэрокосмической техники Инженерной школы Джейкобса Калифорнийского университета в Сан-Диего. По его словам, предыдущие попытки использования пористых мембран, обладающих большой площадью поверхности, идеально подходящей для испарения, не увенчались успехом из-за несоответствующего размера пор: они были либо слишком малы, что приводило к засорению, либо слишком велики, что вызывало нежелательное вскипание. «Здесь мы используем пористые волокнистые мембраны с взаимосвязанными порами правильного размера», — сказал Чен. Такая конструкция обеспечивает эффективное испарение без этих недостатков. Предложенная учёными конструкция мембраны при испытаниях в условиях переменных тепловых потоков выдержала тепловые нагрузки выше 800 Вт на квадратный сантиметр — один из самых высоких показателей, когда-либо зарегистрированных для подобных систем охлаждения. Также система продемонстрировала стабильность в течение нескольких часов работы. Тем не менее, по словам учёного, достигнутые показатели пока значительно ниже теоретического предела технологии. Сейчас команда работает над усовершенствованием мембраны и оптимизацией её производительности. Следующие шаги включают интеграцию решения в прототипы охлаждающих пластин — плоских компонентов, которые крепятся к микросхемам, таким как центральные и графические процессоры, для рассеивания тепла. Команда также запускает стартап для коммерциализации технологии. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |