Китайская компания DeepSeek изначально продемонстрировала впечатляющие успехи в обучении своих языковых моделей с использованием ограниченных вычислительных ресурсов, но санкции США помешали ей двигаться уверенным темпом в своём развитии. Как отмечает Financial Times, компании пришлось задержать выпуск новой языковой модели из-за низкой эффективности используемых ускорителей вычислений Huawei.

Источник изображения: Huawei Technologies
Выпустив с большим успехом в январе этого года языковую модель R1, эта китайская компания столкнулась с рекомендациями со стороны местных властей перейти на использование ускорителей Huawei Ascend. Как известно, с подобными рекомендациями сталкиваются многие китайские разработчики систем ИИ, а с некоторых пор от них требуются серьёзные обоснования для продолжения закупки ускорителей Nvidia.
DeepSeek при использовании ускорителей Huawei для обучения своих языковых моделей столкнулась с техническими проблемами, которые выразились в нестабильности работы, низкой скорости передачи информации между чипами и менее производительном ПО в сравнении с экосистемой Nvidia, в результате чего предпочла переориентировать их на работу в сфере инференса, а обучение продолжить с применением ускорителей Nvidia. Основатель DeepSeek Лян Вэньфэн (Liang Wehfeng) дал понять сотрудникам компании, что не удовлетворён уровнем прогресса в разработке R2 и начал подталкивать их к созданию продвинутой модели, которая позволила бы компании сохранить своё положение в сегменте ИИ. Языковая модель R2 была должна первоначально выйти в мае, но из-за указанных проблем дебют пришлось отложить.
Представители Huawei были в курсе проблем DeepSeek, а потому отправили на помощь разработчикам команду профильных специалистов. Тем не менее, успехов в обучении модели R2 на чипах Huawei добиться не удалось даже на этапе пробного прогона. Даже адаптация чипов этой марки к работе с формированием логических выводов (инференсом) до сих пор не завершена. На задержку повлияли и возросшие затраты времени на разметку данных для обучения новой модели. Тем не менее, некоторые источники рассчитывают на скорый выход R2.
Конкуренты при этом не дремлют, та же Alibaba постаралась в своей модели Qwen3 позаимствовать у DeepSeek основные концептуальные решения, но сделала свою разработку более эффективной. Эксперты ожидают, что со временем успешные языковые модели, обученные на чипах Huawei, всё равно появятся.
Источник: