Сегодня 12 мая 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Китайцы обучили аналог GPT-4 всего на 2000 чипов и в 33 раза дешевле, чем OpenAI

Китайская компания 01.ai разработала конкурентоспособную ИИ-модель Yi-Lightning, которая, как утверждается, по своим возможностям аналогична GPT-4. Но что удивительно, для этого потребовалось всего 2000 графических процессоров (GPU), а затраты составили всего $3 млн, в то время как OpenAI потратила около $100 млн на обучение своей модели, сообщает Tom's Hardware.

 Источник изображения: Copilot

Источник изображения: Copilot

Достижение 01.ai особенно примечательно на фоне ограниченного доступа китайских компаний к передовым графическим процессорам Nvidia. Основатель и глава компании Кай-Фу Ли (Kai-Fu Lee) подчёркивает, что несмотря на то, что китайские компании практически не имеют доступ к GPU Nvidia из-за нормативных актов США, ИИ-модель Yi-Lightning заняла шестое место в рейтинге производительности моделей по версии LMSIS Калифорнийского университета в Беркли.

 Источник изображения: Nvidia

Источник изображения: Nvidia

«Моих друзей в Кремниевой долине шокирует не только наша производительность, но и то, что мы обучили модель всего за $3 млн, — сказал Кай-Фу Ли. — По слухам, в обучение GPT-5 уже вложен примерно 1 миллиард долларов». Он также добавил, что из-за санкций США, компании в Китае вынуждены искать более эффективные и экономичные решения, чего и удалось достичь 01.ai благодаря оптимизации ресурсов и инженерных идей, получив при этом аналогичные GPT-4 результаты при значительно меньших затратах.

Вместо того, чтобы наращивать вычислительные мощности, как это делают конкуренты, компания сосредоточилась на оптимизации алгоритмов и сокращении узких мест в процессе обработки информации. «Когда у нас есть только 2000 графических процессоров, мы должны придумать, как их использовать [эффективно] », — сказал Ли.

В результате затраты на вывод модели составили всего 10 центов за миллион токенов, что примерно в 30 раз меньше, чем у аналогичных моделей. «Мы превратили вычислительную проблему в проблему памяти, построив многоуровневый кеш, создав специальный механизм вывода и так далее», — поделился подробностями Ли.

Несмотря на заявления о низкой стоимости обучения модели Yi-Lightning, остаются вопросы относительно типа и количества используемых GPU. Глава 01.ai утверждает, что у компании достаточно ресурсов для реализации своих планов на полтора года, но простой подсчёт показывает, что 2000 современных GPU Nvidia H100 по текущей цене в $30 000 за единицу обошлись бы в $6 млн, что вдвое превышает заявленные затраты. Это несоответствие вызывает вопросы и требует дальнейших разъяснений. Тем не менее, достижение компании уже привлекло внимание мировой общественности и показало, что инновации в сфере ИИ могут рождаться даже в условиях ограниченных вычислительных ресурсов.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В Москве заканчиваются свободные мощности ЦОД, а стоимость колокейшн-услуг быстро растёт 2 ч.
В России предложено штрафовать провайдеров хостинга, ведущих деятельность без включения в реестр 2 ч.
MSI представила мини-компьютер MS-C927 на базе Intel Arrow Lake-U для периферийных вычислений 2 ч.
Учёные взаправду превратили свинец в золото — но очень мало и совсем ненадолго 2 ч.
Передышка в торговой войне: США и Китай договорились отказаться от сверхвысоких пошлин на 90 дней 2 ч.
Представлено сверхтонкое и сверхпрочное стекло Gorilla Glass Ceramic 2 для смартфонов 3 ч.
Sharp не выдержала конкуренции китайских производителей и продаст один из заводов ЖК-дисплеев 3 ч.
Сверхпрочный смартфон Blackview BL7000 с поддержкой ИИ поступил в продажу 4 ч.
Mercedes-Benz показала 1000-сильный электрический спорткар AMG в камуфляже 5 ч.
Uptime Institute: человеческие ошибки и сбои в электроснабжении — причина большинства отключений ЦОД 5 ч.