Сегодня 02 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Сэм Альтман: к концу года ChatGPT будет работать на миллионе GPU, а в будущем — на ста миллионах

Глава OpenAI Сэм Альтман (Sam Altman) сообщил, что к концу 2025 года компания задействует более 1 миллиона ускорителей вычислений на базе GPU, а в перспективе рассматривает увеличение этого числа в 100 раз. Для сравнения, текущая инфраструктура xAI Илона Маска (Elon Musk), обеспечивающая работу модели Grok 4, использует около 200 тысяч чипов Nvidia H100 — в пять раз меньше, чем планирует развернуть OpenAI до конца года.

 Источник изображения: Levart_Photographer/Unsplash

Источник изображения: Levart_Photographer/Unsplash

Альтман отметил в своём посте в X, что гордится своей командой, но теперь стоит новая задача — найти способ увеличить вычислительные мощности в 100 раз. Хотя его комментарий сопровождался шутливым «лол», в OpenAI явно настроены серьёзно. Как пишет Tom's Hardware, ещё в феврале компания была вынуждена замедлить выпуск GPT-4.5 из-за нехватки GPU, и с тех пор масштабирование инфраструктуры стало одним из главных приоритетов. Достижение отметки в 1 миллион GPU сделает OpenAI крупнейшим потребителем вычислительных ресурсов для ИИ в мире.

 Источник изображения: TechCrunch/wikimedia.org (CC BY 2.0)

Источник изображения: TechCrunch/wikimedia.org (CC BY 2.0)

Стоимость реализации 100-кратного увеличения мощностей (при средней цене одного GPU в $30 000) оценивается примерно в 3 триллиона долларов — почти как ВВП Великобритании. И это без учёта затрат на электроэнергию и строительство дата-центров. Кроме того, Nvidia в ближайшие годы не сможет произвести такое количество GPU, не говоря уже о необходимости обеспечить их электропитанием. Однако, судя по всему, для Альтмана это не просто цифры, а часть стратегии по созданию искусственного общего интеллекта (AGI), который потребует принципиально новых решений — включая разработку собственных чипов и новых архитектур.

Ярким примером масштабного мышления OpenAI может служить их дата-центр в Техасе, уже ставший крупнейшим в мире. Сейчас он потребляет около 300 МВт, а к середине 2026 года этот показатель достигнет 1 ГВт. Однако такие «аппетиты» вызывают обеспокоенность у местных энергетиков: поддержание стабильного напряжения для объекта такого масштаба требует дорогостоящей модернизации сетей, с которой не всегда справляются даже государственные компании.

Чтобы диверсифицировать вычислительные мощности, OpenAI, помимо использования облачной платформы Microsoft Azure, строит собственные дата-центры совместно с Oracle и, по слухам, тестирует TPU от Google. Всё это, как отмечает Tom's Hardware, является частью технологической гонки, в которой также участвуют Meta, Amazon и другие крупные игроки.

По мнению экспертов, идея о 100 миллионах GPU на сегодняшний день выглядит нереалистичной, поскольку требует прорывов в области производства и энергоэффективности. Однако Альтман ориентируется не на текущие возможности, а на то, что может стать реальностью завтра.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
7 из 10 человек теперь заходят в интернет через Google Chrome — Edge и Safari сильно отстают 14 мин.
YouTube начал блокировать семейные Premium-подписки, если их участники не живут вместе 18 мин.
Capcom объяснила резкое падение продаж Monster Hunter Wilds дороговизной PS5 31 мин.
В стандартной клавиатуре для Android появилась настройка размера шрифта 2 ч.
«Абсолютная ложь»: Google прокомментировала слухи о серьёзной дыре в безопасности Gmail 2 ч.
Неудачные соблазнения, похороны и разводы: Paradox раскрыла статистику игроков Crusader Kings 3 за последний год 2 ч.
Google обновит аккаунты в Play Games — они станут похожими на профили в Steam 2 ч.
«Сделано ИИ»: DeepSeek добавила обязательную маркировку ИИ-контента и запретила её удалять 3 ч.
«Рэйман в надёжных руках»: Ubisoft обратилась к игрокам по случаю 30-летия Rayman 3 ч.
MWS Cloud в 1,5 раза увеличила мощности GPU-облака для искусственного интеллекта 13 ч.