Сегодня 21 сентября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии-чип
Быстрый переход

Intel объявила о выделении производства чипов в независимую компанию и других шагах по выходу из кризиса

Компания Intel объявила о стратегических изменениях, направленных на укрепление своего финансового положения и технологического потенциала, включая выделение бизнеса по производству чипов в самостоятельную компанию и сделку с Amazon по производству ИИ-чипов. Компания нацелена на сокращение расходов и пересмотр инвестиций в производство, а также повышении эффективности капитальных вложений.

Intel объявила о масштабной реструктуризации бизнеса, которая затронет практически все аспекты деятельности компании, начиная от производства и заканчивая продуктовым портфелем. Генеральный директор Intel Пэт Гелсингер (Pat Gelsinger) в своём обращении к сотрудникам 16 сентября 2024 года подчеркнул, что целью преобразований является повышение эффективности, оптимизация расходов и усиление фокуса на ключевых направлениях, таких как разработка x86-совместимых процессоров и бизнес по производству чипов (Intel Foundry). «Мы должны действовать быстро, чтобы создать более конкурентоспособную структуру затрат и достичь целевого показателя экономии в $10 млрд», — заявил Гелсингер.

Одним из ключевых шагов станет превращение Intel Foundry в независимую дочернюю компанию внутри Intel. «Такая структура обеспечит нашим клиентам и поставщикам Foundry большую прозрачность и независимость от остального Intel, — пояснил Гелсингер. — Это также позволит Intel Foundry активнее привлекать внешнее финансирование и оптимизировать свою капитальную структуру для ускорения роста ».

Компания также пересматривает свои инвестиции в производство, стремясь к большей эффективности капитальных вложений, в том числе приостанавливает проекты по строительству новых фабрик в Польше и Германии на два года, ориентируясь на текущий рыночный спрос. Что касается запуска производственного центра в Малайзии, то он будет достроен, но его ввод в эксплуатацию будет синхронизирован с рыночными условиями и загрузкой существующих мощностей. При этом Intel подтверждает свою приверженность инвестициям в производство в США и продолжает реализацию проектов в Аризоне, Орегоне, Нью-Мексико и Огайо. Вместе с тем, компания намерена сместить акцент с агрессивного наращивания производственных мощностей на более гибкое и эффективное планирование, соответствующее темпам развития технологий.

 Источник изображения: Intel

Источник изображения: Intel

Одновременно с этим объявлено о расширении стратегического партнёрства с Amazon Web Services (AWS). AWS выбрала Intel Foundry для производства нового ИИ-чипа на базе передовой технологии Intel 18A, а также специализированного процессора Xeon 6 на базе Intel 3.

В рамках реструктуризации Intel также оптимизирует свой портфель продуктов, стремясь к большей интеграции и фокусировке на ключевых направлениях. «Наш главный приоритет — максимизировать ценность франшизы x86 на рынках клиентских устройств, периферийных вычислений и центров обработки данных, — подчеркнул генеральный директор. — Компания продолжит инвестировать в развитие ИИ-технологий, включая лидерство в категории ПК с искусственным интеллектом и укрепление позиций в центрах обработки данных». При этом для повышения эффективности ряд подразделений будут реорганизованы. В частности, Edge и Automotive будут объединены с CCG, а Integrated Photonics Solutions перейдёт в DCAI.

Гелсингер в своём обращении также отметил, что для достижения намеченного целевого показателя экономии в $10 млрд Intel продолжит сокращать расходы. Для этого уже предприняты определённые действия: сокращено по программе добровольного увольнения более половины штата сотрудников (примерно 15 000), планируется отказаться от примерно двух третей недвижимости по всему миру к концу года, а также продать часть доли в Altera для получения дополнительных средств. «Нам предстоит принять ещё ряд сложных решений, — признал Гелсингер. — Но все эти меры направлены на то, чтобы превратить Intel в более гибкую, простую и эффективную систему, способную успешно конкурировать на рынке и обеспечивать долгосрочный рост».

Стоит отметить, что недавно Intel получила около $3 млрд прямого финансирования в рамках федерального «Закона о чипах и науке» (CHIPS and Science Act) подписанного президентом Джо Байденом (Joe Biden) США в 2022 году.

ИИ будет главным двигателем полупроводниковой отрасли в ближайшие несколько лет

По мере роста котировок акций многих компаний, так или иначе связанных со сферой искусственного интеллекта, растёт и некоторый скептицизм в среде инвесторов, которые считают, что высокие вложения в эту область экономики не смогут себя оправдать в сжатые сроки. Один из поставщиков TSMC выражает уверенность, что многолетний цикл роста в полупроводниковой отрасли сейчас находится в самом начале.

 Источник изображения: TSMC

Источник изображения: TSMC

В интервью телеканалу Bloomberg Сюй Мин Чи (Hsu Ming-chi), генеральный директор компании Scientech, которая снабжает своей продукцией крупнейшего контрактного производителя TSMC, назвал спрос на компоненты для систем искусственного интеллекта главной движущей силой в развитии полупроводниковой отрасли на ближайшие несколько лет. По его словам, за предыдущие 20 лет рынок полупроводниковой продукции рос буквально на 8 % в год, но в сфере компонентов для систем ИИ темпы роста в дальнейшем будут гораздо выше.

«Этот бум в отрасли ИИ только начался», — пояснил Сюй Мин Чи. Крупнейший получатель выпускаемого Scientech оборудования, как он добавил, нарастил объёмы закупок за год почти в два или три раза. Во втором полугодии выручка данной компании должна последовательно увеличиться, как считает руководитель. В дальнейшем стабильность роста спроса в сегменте будет обеспечиваться появлением новых приложений, использующих искусственный интеллект. Scientech поставляет TSMC оборудование, которое компания использует при упаковке чипов по методу CoWoS. Он сейчас весьма востребован в связи с ажиотажным спросом на ускорители вычислений Nvidia, при производстве которых также применяется. По оценкам самой TSMC, тайваньская компания принимает участие в выпуске 99 % ускорителей вычислений для сферы ИИ, производимых во всём мире. В случае с Scientech причастность к этим процессам способствовала росту котировок акций на 80 % с начала текущего года.

OpenAI забронировала 1,6-нм мощности TSMC для выпуска передовых ИИ-чипов

Многие источники не раз упоминали о наличии у стартапа OpenAI амбиций по организации если не производства чипов для ускорителей вычислений, то хотя бы их разработки. По данным тайваньских СМИ, среди клиентов TSMC на передовой 1,6-нм техпроцесс A16 как раз может оказаться компания OpenAI, которая к моменту его освоения надеется располагать готовым проектом собственного чипа.

 Источник изображения: Intel

Источник изображения: Intel

Во всяком случае, об этом сообщает издание Economic Daily News. Основным заказчиком выпускаемых TSMC по технологии A16 чипов должна оказаться всё же Apple, по уже сложившейся практике и благодаря наличию у последней потребности в совершенствовании собственных мобильных процессоров. Освоить техпроцесс A16 компания TSMC рассчитывает в 2026 году, но обсуждать свои взаимоотношения с заказчиками публично она традиционно отказывается.

По данным тайваньских источников, OpenAI активно обсуждала с TSMC возможность создания специализированной фабрики исключительно под её нужды. Однако после оценки потенциальных преимуществ план создания специализированного предприятия был отложен. Разработку чипов для OpenAI ведут такие американские компании, как Broadcom и Marvell Technology, в случае с первой из них OpenAI даже может оказаться в числе её четырёх крупнейших клиентов. К слову, первые чипы OpenAI могут выпускаться TSMC по более зрелому 3-нм техпроцессу, а выбор технологии A16 уже сделан для последующих поколений.

Как отмечала TSMC ранее, 1,6-нм техпроцесс A16 по сравнению с ближайшим предшественником 2-нм N2P обеспечивает увеличение скорости переключения транзисторов на 8–10 % при неизменном напряжении, либо снижает энергопотребление на 15–20 % при том же уровне быстродействия. Плотность размещения транзисторов при этом удаётся увеличить на 10 %.

Южнокорейский ускоритель вычислений Rebellions получит четыре 12-ярусных стека памяти HBM3E общим объёмом 144 Гбайт

На этой неделе, как сообщает Business Korea, технический директор южнокорейского стартапа Rebellions О Чжин Ук (Oh Jin-wook) признался в намерениях ускорить вывод на рынок ускорителя вычислений Rebel Quad, который будет сочетать четыре стека памяти Samsung HBM3E с 12 ярусами в каждом. Ускоритель выйдет на рынок до конца года и будет почти полностью производиться Samsung Electronics.

 Источник изображения: Rebellions

Источник изображения: Rebellions

Корейская компания пытается составить конкуренцию ускорителям Nvidia и AMD, её решения также могут использоваться в системах искусственного интеллекта. Примечательно, что первое поколение ускорителей Atom компании Rebellions использовало микросхемы памяти типа GDDR6 совокупным объёмом 16 Гбайт, и новинка Rebel Quad будет первенцем марки с памятью типа HBM. Четыре стека HBM3E в 12-ярусном исполнении обеспечат совокупный объём памяти 144 Гбайт, и это позволяет изделию южнокорейского стартапа сравниться с ускорителями Nvidia семейства Blackwell.

Непосредственно чип ускорителя Rebel Quad будет выпускаться компанией Samsung по 4-нм технологии, она же займётся и упаковкой, поэтому в этом отношении подрядчик предложит Rebellions комплексные услуги. Представители стартапа подчеркнули, что сейчас не рассматривают возможность сотрудничества с TSMC. Примечательно, что недавно Rebellions поглотила конкурирующую южнокорейскую компанию Sapeon, которая использует в своих ускорителях память типа SK hynix. Впрочем, схема сотрудничества с Samsung вряд ли оставляет Rebellions возможность присматриваться к другим поставщикам памяти.

Китай обходит санкции США на ИИ-ускорители с помощью облака Amazon

Китайские компании нашли «дыру» в законодательстве США, получая доступ к передовым американским технологиям ИИ через облачные сервисы, такие как Amazon Web Services (AWS). Расследование Reuters показало, что минимум 11 китайских компаний, связанных с государственными структурами, обходят санкции, покупая доступ к запрещённым чипам и моделям ИИ через AWS.

 Источник изображения: Copilot

Источник изображения: Copilot

Согласно недавно опубликованным тендерным документам, китайские организации используют облачные сервисы Amazon и сервисы других компаний для доступа к передовым американским чипам и возможностям искусственного интеллекта, которые они не могут приобрести иным способом. Известно, что правительство США ограничило экспорт передовых ИИ-чипов в Китай. Однако предоставление доступа к таким чипам или продвинутым ИИ-моделям через облако не является нарушением американских правил.

Выяснилось, что по меньшей мере 11 китайских организаций, включая Шэньчжэньский университет и исследовательский институт Zhejiang Lab, стремились получить доступ к облачным сервисам, предоставляющим запрещённые чипы Nvidia. В одном из тендеров указано, что Шэньчжэньский университет потратил 200 000 юаней ($27 996) за аккаунт AWS для получения доступа к облачным серверам на базе чипов Nvidia A100 и H100 для неуточнённого проекта, получив эту услугу через посредника, компанию Yunda Technology. Институт Zhejiang Lab, разрабатывающий собственную модель ИИ GeoGPT, заявил в тендере в апреле о намерении потратить 184 000 юаней ($25 782) на услуги облачных вычислений AWS, так как его ИИ-модель не получала достаточной вычислительной мощности от местного поставщика услуг Alibaba.

 Источник изображения: aboutamazon.com

Источник изображения: aboutamazon.com

Правительство США в настоящее время пытается ужесточить правила, чтобы ограничить доступ через облако. «Эта лазейка беспокоит меня уже много лет, и нам давно пора её устранить», — заявил Майкл Маккол (Michael McCaul), председатель Комитета по иностранным делам Палаты представителей США. При этом, в настоящий момент AWS не нарушает правил, установленных правительством США. «AWS соблюдает все применимые законы США, включая торговые законы, в отношении предоставления услуг AWS внутри и за пределами Китая», — заявил представитель облачного подразделения Amazon.

Расследование Reuters также выявило, что Китай обходит ограничения США, закупая доступ к облачным сервисам Microsoft и OpenAI. В частности, Сычуаньский университет приобрёл 40 миллионов токенов Azure OpenAI, а Сучжоуский институт передовых исследований при Научно-техническом университете Китая (USTC) арендовал 500 облачных серверов, оснащённых чипами Nvidia A100. Несмотря на то, что Microsoft и OpenAI официально не поддерживают свои сервисы в Китае, а USTC находится в чёрном списке Минторга США, китайские компании получают доступ к технологиям через их облако.

Также выяснилось, что Amazon не только предоставляет организациям из Поднебесной доступ к передовым чипам для ИИ, но и открывает возможность использования ИИ-моделей, таких как Claude от Anthropic. Для этого компания активно продвигает свои облачные сервисы на китайском рынке, подчёркивая доступность «лучших в мире моделей ИИ» для клиентов в регионе.

В Индии анонсирован первый ИИ-чип, разработанный местной компанией

Компания Ola Electric, один из крупнейших производителей электрических двухколёсных транспортных средств в Индии, объявила о запуске своих собственных ИИ-чипов. Ожидается, что первые три чипа появятся на рынке в 2026 году, а четвёртый — Bodhi 2, будет запущен в 2028 году. Эти чипы станут первыми чипами для моделей искусственного интеллекта, разработанными в Индии, и на них уже наблюдается спрос на местном рынке.

 Источник изображения: Ola Electric/YouTube

Источник изображения: Ola Electric/YouTube

Как сообщает издание Tom's Hardware, первоначально Ola Electric представила три чипа — Bodhi 1, Ojas и Sarv 1. Чип Bodhi 1 предназначен для ИИ и подходит для работы с большими языковыми моделями (LLM) и визуальными моделями. Компания утверждает, что Bodhi 1 обеспечивает «лучшую в своём классе производительность», что является одним из важнейших факторов обработки данных в области искусственного интеллекта. Sarv 1 и Ojas предназначен для работы в дата-центрах.

Также разработан чип Ojas Edge для специфических приложений, который может быть адаптирован под различные сферы, включая автомобильную, мобильную и IoT-технологии (Интернет вещей). Ola планирует внедрить Ojas Edge в свои новые электрические транспортные средства для управления системой зарядки и помощи водителю (ADAS).

На презентации компания показала, что все прототипы этих чипов обеспечивают более высокую производительность и энергоэффективность по сравнению с GPU от Nvidia. Однако какой именно графический процессор использовался и точные параметры сравнения не раскрываются.

Эксперты отмечают, что этот шаг отражает стремление Индии включиться в глобальную гонку ИИ-технологий, в которой сейчас лидируют США и Китай. С учётом того, что Индия, как самая густонаселённая страна в мире, обладает огромным потенциалом талантов и технических специалистов, которых она может использовать для развития своих ИИ-технологий, её участие в мировом процессе в этом направлении вряд ли может вызвать сомнения.

Intel и Softbank обсуждали проект ИИ-ускорителя для конкуренции с Nvidia, но так и не договорились

Как выясняется, среди вероятных партнёров Intel то и дело находились инициативные компании, готовые поручить ей выпуск передовых ускорителей для систем искусственного интеллекта. Помимо упущенной возможности сотрудничать с OpenAI в этой сфере, Intel также не стала сближаться с японской корпорацией SoftBank, которой принадлежит британский разработчик процессорных архитектур Arm.

 Источник изображения: Intel

Источник изображения: Intel

Издание Financial Times выяснило, что в течение нескольких предыдущих месяцев SoftBank пыталась договориться с Intel о выпуске специализированных ИИ-чипов, разработанных выходцами из купленной ею компании Graphcore. В данной ситуации Intel должна была выступать в роли контрактного производителя чипов. После того, как переговоры с Intel привели к неудовлетворительному результату, SoftBank решила сосредоточиться на переговорах с TSMC.

Если бы сотрудничество с Intel состоялось, как продолжают источники, SoftBank смогла бы претендовать на часть американских субсидий по так называемому «Закону о чипах», поскольку выпуск соответствующих компонентов для её нужд осуществлялся бы на территории США. Как утверждает источник, переговоры SoftBank с Intel развалились по вине последней из сторон. По крайней мере, на этом настаивает первая из них. Заказчика не устраивали возможности Intel в части скорости выпуска чипов и объёма их производства. Тем не менее, учитывая высокую загруженность TSMC подобными заказами, Intel с точки зрения SoftBank всё ещё не списывается со счетов.

Руководство SoftBank рассчитывало привлечь к финансированию данной инициативы потенциальных покупателей подобных ускорителей, созданных с использованием разработок Graphcore. Выход SoftBank в этот сегмент рынка мог бы навредить отношениям Arm и Nvidia, поскольку последняя является крупным клиентом этого британского холдинга. Впрочем, сейчас рынок компонентов для ИИ является лакомым кусочком для многих компаний, и потенциальная выгода могла бы компенсировать подобный риск. SoftBank не теряет надежды создать прототипы собственного ускорителя в ближайшие месяцы, но рассчитывать на возможности TSMC в этой сфере затруднительно из-за высокой нагрузки на эту тайваньскую компанию. Intel была бы полезна SoftBank в этом случае и своими компетенциями в разработке чипов, а не только как контрактный производитель. Проект, финансирование которого потребовало бы многих десятков миллиардов долларов США, планировалось реализовать с участием арабских инвесторов. Недавно стало известно, что Intel избавилась от купленных в прошлом году акций Arm, чтобы максимально мобилизовать собственные финансовые ресурсы.

Nvidia не торопится начинать поставки ускорителей B20 в Китай из-за опасений по поводу новых санкций США

По всей видимости, готовность Nvidia играть в «регуляторную чехарду» с американскими властями, которые регулярно усиливают экспортные ограничения на поставку ускорителей вычислений в Китай, имеет свои разумные пределы. Подготовленные для этой страны ускорители B20 с архитектурой Blackwell могут задержаться на пути к китайским клиентам из-за опасения новых санкций США.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Когда власти США в октябре 2022 года ввели ограничения на экспорт в Китай ускорителей вычислений определённого уровня производительности, Nvidia достаточно оперативно предложила своим китайским клиентам адаптированные под эти требования ускорители A800 и H800, основанные на архитектуре Ampere и Hopper соответственно. Годом позже они тоже попали под новую волную санкций США, и тогда компания предложила китайским клиентам адаптированные уже под новые требования ускорители H20, L20 и L2. Желая предоставить китайским клиентам доступ к новейшей архитектуре Blackwell, она, как утверждают слухи, сейчас готовит к анонсу ускорители B20, но из-за неопределённости с дальнейшей политикой США в сфере экспортного контроля не торопится начинать их поставки в Китай.

Об этом на текущей неделе сообщило издание South China Morning Post со ссылкой на собственные источники. Первоначально Nvidia планировала начать поставки ускорителей B20 китайским клиентам в четвёртом квартале текущего года, но теперь не спешит это делать из-за опасений по поводу введения новых санкций, которые поставят под сомнение саму возможность таких поставок. Даже ограниченные на уровне удельной производительности каждого ускорителя B20 сохраняют привлекательность для китайских клиентов, поскольку позволяют эффективно масштабировать быстродействие путём объединения множества ускорителей на уровне кластера.

Издание The Information попутно сообщило о подготовке компанией Nvidia адаптированного для Китая ускорителя GB20, который базируется на усечённом GB200. Помимо собственно графических процессоров, такие ускорители используют и разработанные Nvidia центральные процессоры семейства Grace, основанные на Arm-совместимой архитектуре.

Amazon тайно разрабатывает собственные ИИ-ускорители, которые будут лучше Nvidia

В 2015 году Amazon поглотила компанию Annapurna Labs, силами выходцев из которой сейчас разрабатывает собственные ускорители вычислений для систем искусственного интеллекта. Об этом стало известно на этой неделе со слов руководителя профильного подразделения AWS во время визита журналистов в лабораторию в Техасе.

 Источник изображения: AWS

Источник изображения: AWS

Как отмечает Reuters, работой над созданием специализированных чипов для нужд Amazon в данном исследовательском центре занимается около шести инженеров. Их работа тщательно засекречена, но AWS уже располагает прототипами данных ускорителей, которые работают в серверной стойке, расположенной в лаборатории. Руководит этой деятельностью Рами Синно (Rami Sinno), который обладает опытом работы в Arm, Calxeda, Freescale Semiconductor, Marvell и Intel.

Amazon намеревается снизить степень своей зависимости от Nvidia, которая фактически монополизировала рынок ускорителей вычислений, и для крупного игрока облачного сегмента, коим является AWS, подобная инициатива может сэкономить какое-то количество средств в конечном итоге. Принято считать, что Microsoft и Alphabet (Google) тоже создают свои ускорители вычислений. По словам Рами Синно, клиенты AWS всё чаще требуют более дешёвых альтернатив решениям Nvidia.

По словам вице-президента AWS по вычислениям и сетевым решениям Дэвида Брауна (David Brown), компания верит, что можно добиться улучшения соотношения цены и быстродействия вычислительных компонентов на 40–50 % относительно предложений Nvidia. Сейчас AWS контролирует почти треть рынка облачных услуг, на долю Microsoft Azure приходится примерно 25 %. Amazon уже внедрила в своей инфраструктуре 80 000 чипов собственной разработки для ускорения ИИ. Сопутствующие процессоры Graviton сейчас эксплуатируются в количестве 250 000 штук, но они не имеют специализированных функций для ускорения работы систем искусственного интеллекта.

Nvidia пыталась выбить у TSMC выделенную линию по 3D-упаковке ИИ-чипов, но не вышло

В плане своей способности поставлять клиентам ускорители вычислений Nvidia зависит от TSMC не только с точки зрения обработки кремниевых пластин, но и на этапе компоновки чипов с использованием уникального метода пространственной упаковки CoWoS. Попытки руководства первой из компаний получить для этих нужд выделенные производственные мощности TSMC не увенчались успехом, если верить слухам.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Данную информацию публикует ресурс Mirror Media, ссылаясь на подробности о программе визита основателя Nvidia Дженсена Хуанга (Jensen Huang) на Тайвань в июне этого года. По данным источников, тогда у него состоялась встреча не только с отошедшим от дел основателем TSMC Моррисом Чаном (Morris Chang), но и действующим руководителем компании Си-Си Вэем (C.C. Wei). Глава Nvidia в тот момент, если верить слухам, попросил у TSMC выделить под нужды его компании отдельную производственную линию, на которой будут упаковываться ИИ-чипы этой марки, но получил отказ от представителей тайваньского подрядчика. Исход переговоров создал некоторую напряжённость в отношениях между компаниями, как отмечают источники, но нынешний председатель совета директоров Си-Си Вэй сделал всё возможное, чтобы загладить последствия.

На недавней квартальной конференции руководство TSMC признало, что компания не сможет удовлетворить спрос на выпуск компонентов для систем искусственного интеллекта как минимум до 2026 года. При этом тайваньский производитель до сих пор не может найти баланс спроса и предложения, но старается рационально определять размер необходимых капитальных затрат. По всей видимости, вложения в производственную линию для упаковки чипов Nvidia на данном этапе кажутся руководству TSMC нерациональными. Тем более, что норма прибыли в этой сфере услуг приближается к средней по компании, не обеспечивая каких-то впечатляющих преимуществ. Как отмечается, отказ TSMC был мотивирован возможными последствиями для отношений компании с другими клиентами, которые также захотели бы добиться определённых привилегий. Сохраняя равные для всех клиентов условия, TSMC может обеспечить более предсказуемую ситуацию с масштабированием производственных мощностей.

В прошлом, как отмечают знакомые с практикой дел TSMC источники, эта компания предоставляла крупным клиентам определённые привилегии. Например, Apple в своё время попросила предоставить ей выделенные линии по выпуску чипов, и TSMC пошла на это, но в тот период тайваньский производитель сильно зависел от заказов Apple и не мог пренебрегать такой возможностью оптимальным образом загрузить свой конвейер. В случае с Nvidia ситуация заметно отличается. Как ожидается, TSMC не сможет покрыть потребности рынка в мощностях по упаковке чипов по методу CoWoS даже к концу следующего года, поскольку спрос будет расти опережающими темпами. Подобное положение на рынке, близкое к монопольному, позволяет TSMC более жёстко отстаивать свои интересы в переговорах с заказчиками. Это заметно даже по высказываниям Си-Си Вэя, который недавно признался, что хотел бы брать с той же Nvidia больше денег за услуги TSMC.

OpenAI вела переговоры с Broadcom о разработке ИИ-ускорителя

Амбиции руководства OpenAI в сфере разработки и производства собственных ускорителей для систем искусственного интеллекта не являются секретом, и накануне издание The Information сообщило, что компания вела переговоры о разработке соответствующего чипа с Broadcom. Акции последней на этом фоне успели вырасти в цене на 3 %.

 Источник изображения: Shutterstock

Источник изображения: Shutterstock

Как отмечает источник, Broadcom была лишь одним из разработчиков, с которыми вела переговоры OpenAI. Среди вовлечённых в процесс оказались и выходцы из Google, имеющие опыт разработки процессоров семейства Tensor. Некоторых из них OpenAI успела нанять для реализации соответствующих собственных замыслов. Перед специалистами ставилась задача по разработке ускорителей серверного класса для систем искусственного интеллекта.

Глава OpenAI Сэм Альтман (Sam Altman) не раз жаловался на нехватку аппаратной инфраструктуры для подобающего его планам развития систем искусственного интеллекта. Его компания могла бы оказать содействие партнёрам в строительстве не только центров обработки данных, но и предприятий по выпуску компонентов, а также электростанций. В составе Broadcom имеется подразделение, разрабатывающее чипы с учётом пожеланий конкретных заказчиков.

Если бы проект OpenAI удалось реализовать, то процессор Broadcom начал выпускаться не ранее 2026 года в лучшем случае. Попутно руководству OpenAI пришлось вести переговоры с Samsung и SK hynix по поводу оснащения соответствующих ускорителей памятью типа HBM. Выпускать чип OpenAI планировала на мощностях компании TSMC, причём Альтман вёл с последней переговоры и об увеличении объёмов выпуска чипов Nvidia, которые OpenAI также активно использует.

JEDEC определилась с предварительным стандартом памяти HBM4

Ассоциация JEDEC опубликовала предварительную спецификацию памяти HBM4 четвёртого поколения, которая обещает значительное увеличение объёма и пропускной способности для систем искусственного интеллекта и высокопроизводительных вычислений.

 Источник изображения: AMD

Источник изображения: AMD

JEDEC представила спецификацию памяти HBM4 (High-Bandwidth Memory) нового поколения, приближаясь к завершению разработки нового стандарта DRAM, сообщает Tom's Hardware. Согласно опубликованным данным, HBM4 будет поддерживать 2048-битный интерфейс на стек, хотя и с более низкой скоростью передачи данных по сравнению с HBM3E. Кроме того, новый стандарт предусматривает более широкий диапазон слоёв памяти, что позволит лучше адаптировать её для различных типов приложений.

Новый стандарт HBM4 будет поддерживать стеки объёмом 24 Гбайт и 32 Гбайт, а также предложит конфигурации для 4-, 8-, 12- и 16-слойных стеков с вертикальными межсоединениями TSV. Комитет JEDEC предварительно согласовал скоростные режимы до 6,4 Гт/с, но при этом ведутся дискуссии о возможности достижения ещё более высокой скорости передачи данных.

16-слойный стек на основе 32-гигабитных чипов сможет обеспечить ёмкость 64 Гбайт, то есть в этом случае процессор с четырьмя модулями памяти сможет поддерживать 256 Гбайт памяти с пиковой пропускной способностью 6,56 Тбайт/с при использовании 8192-битного интерфейса.

Несмотря на то, что HBM4 будет иметь удвоенное количество каналов на стек по сравнению с HBM3 и больший физический размер для обеспечения совместимости, один контроллер сможет работать как с HBM3, так и с HBM4. Однако для размещения различных формфакторов потребуются разные подложки. Интересно, что JEDEC не упомянула о возможности интеграции памяти HBM4 непосредственно в процессоры, что, пожалуй, является наиболее интригующим аспектом нового типа памяти.

Ранее компании SK hynix и TSMC объявили о сотрудничестве в разработке базовых кристаллов HBM4, а несколько позднее на Европейском симпозиуме 2024, TSMC подтвердила, что будет использовать свои технологические процессы 12FFC+ (12-нм класс) и N5 (5-нм класс) для производства этих кристаллов.

Процесс N5 от TSMC позволяет интегрировать больше логики и функций, с шагом межсоединений от 9 до 6 микрон, что критически важно для интеграции на кристалле. Процесс 12FFC+, основанный на 16-нм FinFET-технологии TSMC, обеспечит производство экономически эффективных базовых кристаллов, соединяющих память с хост-процессорами с помощью кремниевых подложек.

Отметим, что HBM4 в первую очередь разработана для потребностей генеративного искусственного интеллекта и высокопроизводительных вычислений, которые требуют обработки очень больших объёмов данных и выполнения сложных вычислений. Поэтому маловероятно, что мы увидим HBM4 в клиентских приложениях, таких как GPU. Компания SK hynix рассчитывает наладить выпуск HBM4 в 2026 году.

AMD купила крупнейшую частную ИИ-лабораторию Европы — это поможет в борьбе с Nvidia

Компания AMD объявила о соглашении по приобретению финской компании Silo AI, ведущего европейского разработчика специализированных систем искусственного интеллекта. Сумма сделки составила 665 млн долларов. Это приобретение укрепит позиции AMD на быстрорастущем рынке специализированного ПО и сервисов, связанных с ИИ, и поможет сократить отставание от лидера отрасли в лице Nvidia.

 Источник изображения: Timothy Dykes / Unsplash

Источник изображения: Timothy Dykes / Unsplash

По сообщению Bloomberg, базирующаяся в Хельсинки Silo AI позиционирует себя как крупнейшая частная лаборатория ИИ в Европе. При этом компания специализируется на создании ИИ-моделей и систем, адаптированных под конкретные потребности заказчиков, среди которых такие гиганты как Allianz SE, Unilever Plc и подразделение BMW Rolls-Royce. Согласно заявлению AMD, генеральный директор Silo AI Питер Сарлин (Peter Sarlin) продолжит руководить своей командой, которая войдёт в состав группы искусственного интеллекта AMD.

AMD рассматривается как ближайший потенциальный конкурент Nvidia на быстрорастущем рынке оборудования для систем ИИ. Графические процессоры, на которых специализируются обе компании, оказались наиболее эффективным средством для обучения больших языковых моделей (LLM), лежащих в основе таких сервисов, как ChatGPT от OpenAI и Copilot от Microsoft.

Старший вице-президент AMD Вамси Боппана (Vamsi Boppana) подчеркнул, что опыт команды Silo AI в разработке передовых ИИ-моделей и решений, включая современные языковые модели, работающие на платформах AMD, ускорит реализацию ИИ-стратегии компании и внедрение ИИ-решений для глобальных клиентов.

Важно отметить, что AMD относительно недавно вышла на рынок специализированных систем ИИ и стремительно наращивает свой аппаратный и программный потенциал. Под руководством генерального директора Лизы Су (Lisa Su) компания недавно представила линейку ускорителей MI300 и прогнозирует выручку от ИИ-ускорителей в размере около $4 млрд в этом году. Для сравнения, Nvidia ожидает получить более 100 миллиардов долларов в текущем году только от производства чипов для центров обработки данных.

Относительно финансовых показателей Bloomberg пишет, что с начала 2024 года акции AMD выросли примерно на 20 %, отставая от 38-% роста индекса полупроводников Филадельфийской фондовой биржи и 165-% роста Nvidia. Несмотря на это, рыночная капитализация AMD в $286 млрд близка к историческому максимуму.

Разработчики ИИ стали переходить на компактные ИИ-модели — они дешевле и экономичнее

Технологические гиганты и стартапы переходят на более компактные и эффективные модели искусственного интеллекта, стремясь сократить расходы и повысить производительность. Эти модели, в отличие от своих «старших братьев», таких как GPT-4, могут обучаться на меньшем объёме данных и специализируются на решении конкретных задач.

 Источник изображения: Copilot

Источник изображения: Copilot

Microsoft, Google, Apple и стартапы, такие как Mistral, Anthropic и Cohere, всё чаще обращаются к малым и средним языковым моделям искусственного интеллекта. В отличие от больших моделей (LLM), таких как GPT-4 от OpenAI, которые используют более одного триллиона параметров и их разработка оценивается далеко за 100 миллионов долларов, компактные модели обучаются на более узких наборах данных и могут стоить менее 10 миллионов долларов, при этом используя менее 10 миллиардов параметров.

Компания Microsoft, один из лидеров в области ИИ, представила семейство небольших моделей под названием Phi. По словам генерального директора компании Сатьи Наделлы (Satya Nadella), эти модели в 100 раз меньше бесплатной версии ChatGPT, но при этом справляются со многими задачами почти так же эффективно. Юсуф Мехди (Yusuf Mehdi), коммерческий директор Microsoft, отметил, что компания быстро осознала, что эксплуатация крупных моделей ИИ обходится дороже, чем предполагалось изначально, что побудило Microsoft искать более экономичные решения.

Другие технологические гиганты также не остались в стороне. Google, Apple, а также Mistral, Anthropic и Cohere выпустили свои версии малых и средних моделей. Apple, в частности, планирует использовать такие модели для запуска ИИ локально, непосредственно на смартфонах, что должно повысить скорость работы и безопасность. При этом потребление ресурсов на смартфонах будет минимальным.

Эксперты отмечают, что для многих задач, таких как обобщение документов или создание изображений, большие модели вообще могут оказаться избыточными. Илья Полосухин, один из авторов основополагающей статьи Google в 2017 году, касающейся искусственного интеллекта, образно сравнил использование больших моделей для простых задач с поездкой в магазин за продуктами на танке. «Для вычисления 2 + 2 не должны требоваться квадриллионы операций», — подчеркнул он.

Компании и потребители также ищут способы снизить затраты на эксплуатацию генеративных технологий ИИ. По словам Йоава Шохама (Yoav Shoham), соучредителя ИИ-компании AI21 Labs из Тель-Авива, небольшие модели могут отвечать на вопросы, если перевести всё в деньги, всего за одну шестую стоимости больших языковых моделей.

Интересно, что ключевым преимуществом малых моделей является возможность их тонкой настройки под конкретные задачи и наборы данных. Это позволяет им эффективно работать в специализированных областях при меньших затратах, например, только в юридической отрасли.

Однако эксперты отмечают, что компании не собираются полностью отказываться от LLM. Например, Apple объявила об интеграции ChatGPT в Siri для выполнения сложных задач, а Microsoft планирует использовать последнюю модель OpenAI в новой версии Windows. А такие компании как Experian из Ирландии и Salesforce из США, уже перешли на использование компактных моделей ИИ для чат-ботов и обнаружили, что они обеспечивают такую же производительность, как и большие модели, но при значительно меньших затратах и с меньшими задержками обработки данных.

Переход к малым моделям происходит на фоне замедления прогресса в области больших публично доступных моделей искусственного интеллекта. Эксперты связывают это с нехваткой высококачественных новых данных для обучения, и в целом, указывают на новый и важный этап эволюции индустрии.

Huawei с китайскими партнёрами начала разработку памяти HBM для антисанкционных ИИ-ускорителей

В стремлении снизить зависимость от зарубежных поставщиков и обойти ограничения, наложенные США, компания Huawei совместно с другими китайскими производителями микросхем начала работу над созданием передовой памяти с высокой пропускной способностью, более известной как HBM.

Huawei заключил партнёрское соглашение с местным производителем чипов Wuhan Xinxin Semiconductor Manufacturing для разработки стеков памяти HBM. Память данного типа стала критически важным компонентом вычислительной инфраструктуры, используемой в проектах искусственного интеллекта (ИИ).

По данным китайского издания South China Morning Post, в проекте также участвуют компании Jiangsu Changjiang Electronics Tech и Tongfu Microelectronics, специализирующиеся на упаковке чипов. Они начнут разработку передовой технологии Chip on Wafer on Substrate, позволяющую объединять различные типы полупроводников, таких как графические процессоры и чипы HBM, в одном корпусе.

Выход Huawei на рынок чипов HBM является очередной попыткой компании обойти технологические санкции Вашингтона. И хотя Китай все ещё находится на ранней стадии разработки чипов HBM, аналитики и отраслевые источники ожидают пристального внимания к прогрессу страны в этой сфере. Интересно, что в августе прошлого года Huawei удивила рынок, выпустив смартфон 5G на базе 7-нанометрового процессора, несмотря на существующие ограничения на доступ к технологиям — по задумке США, возможности выпускать такие чипы у Huawei быть не должно было вовсе.

В мае источники сообщали, что ChangXin Memory Technologies, крупнейший в Китае производитель DRAM, разработал образцы чипов HBM в партнёрстве с Tongfu Microelectronics. В апреле также появилась информация о планах группы китайских фирм во главе с Huawei нарастить внутреннее производство чипов HBM к 2026 году. Одновременно Wuhan Xinxin, ключевой партнёр Huawei в этом проекте, в марте объявила тендер на строительство передового производственного объекта для выпуска памяти HBM с мощностью для обработки 3 тыс. 300-мм пластин в месяц, а двумя месяцами позже компания подала заявку на публичное размещение своих акций.

Все эти события происходят на фоне растущих инвестиций Китая в полупроводниковую промышленность. Так, недавно дочерняя компания ведущего китайского производителя микросхем флэш-памяти Yangtze Memory Technologies увеличила свою капитализацию на 46 % до 8,5 млрд юаней (1,2 млрд долларов США) благодаря новым инвесторам, включая поддерживаемый государством Китайский фонд интернет-инвестиций.

Huawei и Wuhan Xinxin пока не прокомментировали информацию о сотрудничестве, но эксперты ожидают, что развитие событий в этой области может существенно повлиять на глобальный рынок полупроводников и технологий искусственного интеллекта.


window-new
Soft
Hard
Тренды 🔥