Сегодня 12 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → tpu

Google выпустила Arm-процессоры Axion и тензорный ускоритель Ironwood для обучения и запуска огромных ИИ-моделей

Сегодня Google представила новые процессоры Axion и тензорные ускорители Ironwood — TPU седьмого поколения. По словам компании, чипы Axion на 50 % производительнее и на 60 % энергоэффективнее современных x86-процессоров, а TPU Ironwood — самый производительный и масштабируемый настраиваемый ИИ-ускоритель на сегодняшний день и первый среди чипов Google, разработанный специально для запуска обученных ИИ-моделей (инференса).

 Источник изображений: Google

Источник изображений: Google

TPU Ironwood будет поставляться в системах в двух конфигурациях: с 256 или с 9216 чипами. Один ускоритель обладает пиковой вычислительной мощностью 4614 Тфлопс (FP8), а кластер из 9216 чипов при энергопотреблении порядка 10 МВт выдаёт в общей сложности 42,5 Эфлопс. Эти показатели значительно превосходят возможности системы Nvidia GB300 NVL72, которая составляет 0,36 Эфлопс с операциях FP8.

Ironwood оснащён усовершенствованным блоком SparseCore, предназначенным для ускорения работы с ИИ-моделями, которые используются в системах ранжирования и рекомендаций. Расширенная реализация SparseCore в Ironwood позволяет ускорить более широкий спектр рабочих нагрузок, выйдя за рамки традиционной области ИИ в финансовые и научные сферы.

Модули объединяются между собой с помощью фирменной сети Inter-Chip Interconnect со скоростью 9,6 Тбит/с и содержат около 1,77 Пбайт памяти HBM3E, что также превосходит возможности конкурирующей платформы Nvidia. Они могут быть объединены в кластеры из сотен тысяч TPU.

Это интегрированная суперкомпьютерная платформа, которую Google называет «ИИ-гиперкомпьютер» объединяет вычисления, хранение данных и сетевые функции под одним уровнем управления. Для повышения надёжности, Google использует реконфигурируемую матрицу Optical Circuit Switching, которая мгновенно обходит любые аппаратные сбои для поддержания непрерывной работы.

По данным IDC, этот «гиперкомпьютер ИИ» обеспечивает среднюю окупаемость инвестиций (ROI) в течение трёх лет на уровне 353 %, снижение расходов на ИТ на 28 % и повышение операционной эффективности на 55 %. Несколько компаний уже внедряют эту платформу Google. Anthropic планирует использовать до миллиона TPU для работы и расширения семейства моделей Claude, ссылаясь на значительный выигрыш в соотношении цены и производительности. Lightricks начала развёртывание Ironwood для обучения и обслуживания своей мультимодальной системы LTX-2.

Полные спецификации универсальных процессоров Axion пока не опубликованы, в частности, не раскрыты тактовые частоты и использованный техпроцесс. Сообщается, что процессоры располагают 2 Мбайт кэша второго уровня на ядро, 80 Мбайт кэша третьего уровня, поддерживают память DDR5-5600 МТ/с и технологию Uniform Memory Access (UMA).

Известно, что Axion построен на платформе Arm Neoverse v2 и должен обеспечить до 50 % более высокую производительность и до 60 % более высокую энергоэффективность по сравнению с современными процессорами x86. По словам Google, он также на 30 % быстрее, чем «самые быстрые универсальные экземпляры на базе Arm, доступные сегодня в облаке».

Процессоры Axion могут использоваться как в серверах искусственного интеллекта, так и в серверах общего назначения для решения различных задач. На данный момент Google предлагает три конфигурации Axion: C4A, N4A и C4A Metal.

C4A обеспечивает до 72 виртуальных процессоров, 576 Гбайт памяти DDR5 и сетевое подключение со скоростью 100 Гбит/с в сочетании с локальным хранилищем Titanium SSD объёмом до 6 Тбайт. Экземпляр оптимизирован для стабильно высокой производительности в различных приложениях. Это единственный чип, который доступен уже сегодня.

N4A предназначен для общих рабочих нагрузок, таких как обработка данных, веб-сервисы и среды разработки, но масштабируется до 64 виртуальных ЦП, 512 Гбайт оперативной памяти DDR5 и сетевой пропускной способности 50 Гбит/с.

C4A Metal предоставляет клиентам полный аппаратный стек Axion: до 96 виртуальных ЦП, 768 Гбайт памяти DDR5 и сетевую пропускную способность 100 Гбит/с. Экземпляр предназначен для специализированных или ограниченных по лицензии приложений, а также для разработки на базе ARM.

Процессор Axion дополняет портфолио специализированных чипов компании, а TPU Ironwood закладывает основу для конкуренции с лучшими ускорителями ИИ на рынке. Серверы на базе Axion и Ironwood оснащены фирменными контроллерами Titanium, которые разгружают процессор от сетевых задач, задач безопасности и обработки ввода-вывода, обеспечивая более эффективное управление и, как следствие, более высокую производительность.

ИИ-чипы Google TPU обрели популярность спустя 10 лет после дебюта — Anthropic арендовала 1 млн ускорителей

Дефицит вычислительных мощностей, возникающий из-за стремительного развития систем искусственного интеллекта, выставляет в выгодном свете даже те платформы, которые на протяжении многих лет не пользовались популярностью. Процессоры TPU собственной разработки Google, например, оказались в большом количестве задействованы компанией Anthropic PBC при развитии вычислительной инфраструктуры.

 Источник изображения: Google

Источник изображения: Google

Как поясняет Bloomberg, недавно Anthropic PBC заключила контракт с Google на использование более чем 1 ГВт вычислительной мощности, сделка оценивается десятками миллиардов долларов США. По её условиям, Anthropic получит доступ к 1 млн процессоров TPU собственной разработки Google, которые эксплуатируются в облачной инфраструктуре интернет-гиганта. До сих пор основным потребителем таких процессоров оставалась сама Google, хотя первые процессоры этого семейства были разработаны ею более десяти лет назад. Это уже не первый контракт такого рода между Google и Anthropic, но расширение сотрудничества между компаниями указывает на заинтересованность последней в использовании указанных процессоров.

Не исключено, что пример Anthropic вдохновит и прочие ИИ-стартапы арендовать у Google вычислительные мощности, основанные на TPU. Разработку этих довольно узко специализированных процессоров Google начала в 2013 году, но первые модели представила только двумя годами позже. Первоначально они применялись для ускорения работы собственного поискового сервиса Google. В облачную инфраструктуру компания начала внедрять TPU в 2018 году, тем самым открыв доступ к данной платформе для сторонних клиентов. Со временем Google начала использовать TPU для работы фирменных ИИ-сервисов. Процессоры дорабатывались с учётом опыта, полученного при развитии соответствующих сервисов Google. В этом процессе были задействованы и специалисты DeepMind, также принадлежащей интернет-гиганту.

Чипы Nvidia в этой сфере считаются более универсальными и производительными, но они отличаются и высоким энергопотреблением, а также стоимостью и остаются в дефиците. TPU в процессе своей эволюции тоже неплохо приспособились к вычислительным нагрузкам, характерным для сферы ИИ. При этом они доступнее, потребляют меньше электроэнергии и не требуют столь серьёзного охлаждения. Помимо Anthropic, инфраструктуру Google на базе TPU для своих нужд используют Salesforce, Midjourney и стартап SSI одного из основателей OpenAI Ильи Суцкевера. Скорее всего, процессоры TPU со временем начнут применяться и за пределами облачной инфраструктуры самой Google.

При этом Google продолжит оставаться одним из крупнейших клиентов Nvidia, поскольку чипы последней лучше приспособлены к изменениям в характере вычислительных нагрузок. Собственные процессоры Google в этом отношении хуже адаптируются к изменениям без сопутствующих аппаратных преобразований. Новейшее поколение TPU под обозначением Ironwood было представлено в апреле, оно заточено под инференс и рассчитано на использование жидкостного охлаждения. В одном кластере может быть объединено либо 256 таких чипов, либо 9216 штук. Специалисты, которые стояли у истоков TPU, сейчас во многих случаях нашли себе работу в ИИ-стартапах. Они опосредованно поддерживают степень влияния Google в отрасли.

OpenAI пока не готова активно использовать ускорители Google в своей инфраструктуре

В минувшую субботу стало известно об экспериментах OpenAI по использованию ускорителей Google серии TPU для вычислений, связанных с формированием логических выводов, тогда как исторически для этого применялись в основном изделия Nvidia. Представители OpenAI поспешили заверить Reuters, что планов по масштабному внедрению TPU у этого стартапа пока нет.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

При этом, как отмечает Reuters, представители OpenAI не отрицают, что начали экспериментировать с ускорителями Google, но тестирование находится на ранней стадии и не подразумевает скорого и активного масштабирования. На этом пути способны возникнуть серьёзные барьеры в виде длительной адаптации программного обеспечения под особенности архитектуры конкретных вычислительных компонентов. Основная часть вычислений и далее будет производиться OpenAI с использованием ускорителей AMD и Nvidia. Более того, ранее сообщалось, что OpenAI занимается разработкой собственных чипов для ускорителей ИИ, и уже в этом году рассчитывает получить готовый к массовому производству цифровой проект.

В тоже время, готовность Google предлагать свои ускорители сторонним клиентам говорит о смене вектора в политике компании. К ним уже присоединились Apple, а также стартапы Anthropic и Safe Superintelligence. Два последних были основаны выходцами из OpenAI, поэтому тенденция может считаться достаточно распространённой. Другое дело, что непосредственно OpenAI существенных надежд с применением ускорителей Google пока не связывает.

Монополия Nvidia пошатнулась: OpenAI начала использовать чипы Google

OpenAI начала использовать ИИ-ускорители TPU компании Google для поддержки работы ИИ-чат-бота ChatGPT и связанных с ним сервисов. Это стало её первым значительным шагом в направлении отказа от исключительного использования чипов Nvidia в рамках стратегии по снижению зависимости от инфраструктуры, управляемой Microsoft, сообщил The Information.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

OpenAI арендует у Google Cloud тензорные процессоры (TPU) с целью сокращения расходов, связанных с вычислениями инференса — процесса использования ИИ-модели для генерации результатов в ответ на запросы после завершения её обучения. Решение OpenAI использовать TPU от Google может означать повышение их статуса в качестве экономически эффективной альтернативы широко используемым GPU компании Nvidia, которая доминирует на рынке ИИ-ускорителей, отметил ресурс investing.com.

Ранее OpenAI для обучения и развёртывания своих ИИ-моделей использовала оборудование на базе чипов Nvidia, в основном через партнёрство с Microsoft и Oracle. Новый партнёр, Google, хотя и предоставляет OpenAI некоторые вычислительные мощности на базе TPU, не предлагает ей самые мощные версии своих ускорителей, сообщают источники The Information.

Следовательно, самые продвинутые версии TPU Google зарезервировала для внутреннего использования, включая работу над собственными большими языковыми моделями в рамках проекта Gemini. Тем не менее, для OpenAI доступ даже к более ранним версиям TPU представляет собой шаг в направлении диверсификации вычислительной инфраструктуры на фоне растущего спроса на ИИ-чипы в отрасли.

На данный момент неясно, будет ли OpenAI использовать TPU Google для обучения моделей или ограничится только применением для инференса. По мере роста конкуренции и углубления ограничений ресурсов гибридная инфраструктура может обеспечить компании больше гибкости в использовании вычислительных мощностей для масштабирования.

Google показала системы с собственными TPU, на которых обучаются ИИ-модели Gemini и Apple Intelligence

В большой лаборатории в штаб-квартире Google в калифорнийском Маунтин-Вью работают сотни серверных стоек, выполняя задачи, отличные от поисковой системы или рабочих нагрузок Google Cloud. Здесь тестируются тензорные процессоры (Tensor Processing Units —TPU), разработанные самой Google. Журналистам CNBC удалось заглянуть внутрь этой лаборатории.

 Источник изображения: alban / unsplash.com

Источник изображения: alban / unsplash.com

TPU от Google появились в 2015 и стали доступны облачным клиентам в 2018 году — они используются, в частности, для обучения моделей Apple Intelligence и Google Gemini. Google была первым поставщиком облачных услуг, который построил собственные чипы для ИИ — Amazon анонсировала свои Inferentia лишь три года спустя, а Microsoft представила Maia лишь в конце 2023 года. Но это первенство не помогло Google стать лидером в гонке генеративного ИИ: Gemini вышла более чем через год после OpenAI ChatGPT. При этом предложения в области ИИ помогли Google Cloud набрать обороты: этот сегмент в компании показал рост на 29 %, а квартальная выручка впервые превысила $10 млрд, гласит последний квартальный отчёт Alphabet.

В Google пришли к мысли о создании собственного чипа, когда в 2014 году задумались, какими должны быть ресурсы, чтобы все пользователи сервисов компании смогли пользоваться голосовым интерфейсом хотя бы 30 секунд в день. Как выяснилось, число компьютеров в центрах обработки данных было необходимо удвоить. Google TPU помог поднять эффективность при выполнении некоторых задач в 100 раз. В компании до сих пор используют и традиционные центральные процессоры, и графические процессоры Nvidia. Но Google TPU — это интегральная схема специального назначения (ASIC), предназначенная только для конкретного типа задач. В распоряжении компании есть ещё один такой чип — Video Coding Unit, и используется он для обработки видео.

 Источник изображения: Alex Dudar / unsplash.com

Собственные чипы Google по примеру Apple стала использовать и в устройствах своей разработки: в смартфонах Pixel 9 это процессор четвёртого поколения Tensor G4, а в наушниках Pixel Buds Pro 2 — Tensor A1. Но важной отличительной чертой Google является серверный TPU — сейчас он занимает 58 % рынка среди облачных ускорителей ИИ собственной разработки. Графические процессоры Nvidia более гибкие, но и более дорогие и дефицитные в сегодняшних условиях, когда бум ИИ взвинтил акции компании до небес, и теперь она соперничает за звание самой дорогой публичной компании в мире с Apple и Microsoft. Настоящее испытание Google TPU ждёт, когда платформа Apple Intelligence в следующем году начнёт в полную силу работать на iPhone и Mac.

Разработка альтернативы ускорителям Nvidia — почти подвиг. Процесс настолько сложен и дорог, что даже Google не под силу сделать это в одиночку. С момента появления первого TPU компания заручилась поддержкой чипмейкера Broadcom, который помогает Meta✴ в решении той же задачи. Проект полностью разработанного чипа отправляется к полупроводниковому подрядчику — в его роли выступает TSMC, выпускающая 92 % передовой полупроводниковой продукции в мире.

 Источник изображения: CNBC/Marc Ganley

Trillium. Источник изображения: CNBC/Marc Ganley

В этом году у Google выйдет шестое поколение TPU Trillium; кроме того, в минувшем апреле компания анонсировала и Axion — свой первый центральный процессор, который появится в конце года. И здесь Google уже не первая: Amazon выпустила свой Graviton в 2018 году, китайская Alibaba последовала её примеру в 2021 году, а Microsoft представила чип Cobalt 100 в ноябре прошлого года. Все они основаны на архитектуре Arm, более гибкой и энергоэффективной, чем x86, которой привержены Intel и AMD.

 Источник изображения: CNBC/Marc Ganley

Axion CPU. Источник изображения: CNBC/Marc Ganley

Эффективность является важнейшим аспектом: если верить прогнозам, к 2027 году серверы ИИ будут потреблять столько же энергии в год, сколько Аргентина. Последний экологический отчёт Google показал, что выбросы компании с 2019 по 2023 гг. выросли на 50 % — отчасти из-за роста числа ЦОД для ИИ. Для охлаждения серверов для обучения и работы ИИ требуются огромные объёмы воды, поэтому с третьего поколения Google TPU охлаждение производится непосредственно на чипе — к такой же схеме прибегла и Nvidia с новейшими Blackwell. И, несмотря на сопутствующие трудности, оборудование Google для ИИ продолжает пользоваться большим спросом, и его ослабления в компании пока не отмечают.

Google представила мощнейший серверный ИИ-процессор Trillium — почти в пять раз быстрее предшественника

В рамках конференции Google I/O компания Google представила шестое поколение своего фирменного тензорного процессора (Tensor Processing Unit) с кодовым названием Trillium. Он предназначен для центров обработки данных, ориентированных на работу с искусственным интеллектом. По словам компании, новый чип почти в пять раз производительнее предшественника.

 Источник изображения: The Verge

Источник изображения: The Verge

«Промышленный спрос на компьютеры для машинного обучения вырос в миллион раз за последние шесть лет и каждый год продолжает увеличиться в десять раз. Я думаю, что Google была создана для этого момента. Мы являемся новаторами в разработке чипов для искусственного интеллекта уже более десяти лет», — заявил генеральный директор Alphabet Сундар Пичаи (Sundar Pichai) в разговоре с журналистами.

Разрабатываемые Alphabet, материнской компанией Google, специализированные чипы для центров обработки данных, ориентированных на ИИ, представляют собой одну из немногих жизнеспособных альтернатив решениям компании Nvidia. Вместе с программным обеспечением, оптимизированным для работы с тензорными процессорами Google (TPU), эти решения позволили компании занять значительную долю на рынке.

По данным издания Reuters, Nvidia по-прежнему доминирует на рынке чипов для ИИ-дата-центров с долей 80 %. Значительная часть от оставшихся 20 % приходятся на различные версии TPU от Google. В отличие от Nvidia, компания Google не продаёт свои процессоры, а использует их сами и сдаёт в аренду облачные вычислительные платформы, которые на них работают.

Для шестого поколения TPU под названием Trillium компания заявляет прибавку вычислительной производительности в 4,7 раза по сравнению с TPU v5e в задачах, связанных с генерацией теста и медиаконтента с помощью больших языковых моделей ИИ (LLM). При этом Trillium на 67 % энергоэффективнее, чем TPU v5e, отмечают в компании. Как пишет портал TechCrunch, значительного увеличения производительности у Trillium компания смогла добиться благодаря увеличения количества используемых матричных умножителей (MXU), а также повышения тактовой частоты чипа. Кроме того, компания удвоила для Trillium пропускную способность памяти. Более конкретных технических деталей Trillium не приводится.

Вычислительные мощности нового процессора станут доступны для клиентов облачных сервисов Google к «концу 2024 года», отмечают в компании.

Однако от решений Nvidia компания Google не отказывается. В рамках конференции Google I/O также было заявлено, Google станет одним из первых облачных провайдеров, который с начала будущего года будет предлагать облачные услуги на базе специализированных ИИ-ускорителей нового поколения Nvidia Blackwell.


window-new
Soft
Hard
Тренды 🔥
Nintendo показала первый трейлер фильма «Галактика Супер Марио в кино» — фанаты в восторге 7 мин.
Google подала в суд на китайскую киберпреступную группировку — она обманула более миллиона человек в 120 странах 25 мин.
Большинство людей оказалось неспособно различить музыку, созданную ИИ и человеком 33 мин.
Утечка подтвердила научно-фантастический соревновательный шутер Project Scout от Ubisoft — первые скриншоты и подробности 2 ч.
Google ответит в суде за тайную слежку за пользователями через ИИ-помощника Gemini 3 ч.
Основатели Fireflies.ai целый год выдавали себя за ИИ — теперь стартап стоит $1 млрд 4 ч.
«Взломали пространство и время»: CD Projekt Red раскрыла секрет появления в The Witcher 3: Wild Hunt звезды «Игры престолов» 5 ч.
Ведущие разработчики ИИ продолжают публиковать секретные данные на GitHub 6 ч.
ChatGPT не имел права цитировать немецкие песни, решил немецкий суд 6 ч.
Школьный экшен Agefield High: Rock the School в духе Bully позволит вновь почувствовать себя старшеклассником — новый трейлер и подробности 6 ч.
Криптопроект Сэма Альтмана забуксовал — отсканировано всего 2,5 % глаз из запланированного миллиарда 3 мин.
AMD подтвердила, что в новых Radeon сосредоточится на трассировке лучей и ИИ 19 мин.
В 2026 году по улицам Москвы побегут роботакси — но с подстраховкой 25 мин.
Китайцы первыми в мире добыли редкоземельные металлы из растений 28 мин.
AMD представила Ryzen 5 7500X3D — шестиядерник с расширенным кешем за $269 для бюджетных геймерских ПК 35 мин.
Конкуренция на рынке аккумуляторных энергохранилищ США скажется на ЦОД — у КНР более дешёвые и качественные АКБ 2 ч.
Их топят, роняют и разбивают о стену: Honor выяснила, как россияне чаще всего ломают смартфоны 4 ч.
ГК Key Point построит коммерческие дата-центры в Санкт-Петербурге и Дагестане 4 ч.
«Земля уходит из-под ног» — производителей аккумуляторов накрыл кризис перепроизводства 4 ч.
Sony представила 27-дюймовый монитор для PS5 с зарядным крюком для контроллера DualSense 4 ч.