Сегодня 13 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Учёные нашли способ запускать большие ИИ-модели на системах мощностью 13 Вт, вместо 700 Вт

Исследователи из Калифорнийского университета в Санта-Круз разработали метод, позволяющий запускать большие языковые модели искусственного интеллекта (LLM) с миллиардами параметров при значительно меньшем потреблении энергии, чем у современных систем.

 Источник изображения: Stefan Steinbauer/Unsplash

Источник изображения: Stefan Steinbauer/Unsplash

Новый метод позволил запустить LLV с миллиардами параметров при энергопотреблении системы всего в 13 Вт, что эквивалентно потреблению бытовой светодиодной лампы. Это достижение особенно впечатляет на фоне текущих показателей энергопотребления ИИ-ускорителей. Современные графические процессоры для центров обработки данных, такие как Nvidia H100 и H200, потребляют около 700 Вт, а грядущий Blackwell B200 вообще может использовать до 1200 Вт на один GPU. Таким образом, новый метод оказывается в 50 раз эффективнее популярных сегодня решений, пишет Tom's Hardware.

Ключом к успеху стало устранение матричного умножения (MatMul) из процессов обучения. Исследователи применили два метода. Первый — это перевод системы счисления в троичную, использующую значения -1, 0 и 1, что позволило заменить умножение на простое суммирование чисел. Второй метод основан на внедрении временных вычислений, при котором сеть получила эффективную «память», позволившую работать быстрее, но с меньшим количеством выполняемых операций. Работа проводилась на специализированной системе с FPGA, но исследователи подчёркивают, что большинство их методов повышения эффективности можно применить с помощью открытого программного обеспечения и настройки уже существующих на сегодня систем.

Исследование было вдохновлено работой Microsoft по использованию троичных чисел в нейронных сетях, а в качестве эталонной большой модели учёные использовали LLaMa от Meta. Рюдзи Чжу (Rui-Jie Zhu), один из аспирантов, работавших над проектом, объяснил суть достижения в замене дорогостоящих операций на более дешёвые. Хотя пока неясно, можно ли применить этот подход ко всем системам в области ИИ и языковых моделей в качестве универсального, потенциально он может радикально изменить ландшафт ИИ.

Немаловажно, что учёные открыли исходный код своей разработки, что позволит крупным игрокам рынка ИИ, таким как Meta, OpenAI, Google, Nvidia и другим беспрепятственно воспользоваться новым достижением для обработки рабочих нагрузок и создания более быстрых и энергоэффективных систем искусственного интеллекта. В конечном итоге это приведёт к тому, что ИИ сможет полнофункционально работать на персональных компьютерах и мобильных устройствах, и приблизится к уровню функциональности человеческого мозга.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Google объявила, что Android-смартфоны массово научатся передавать файлы на iPhone через AirDrop 54 мин.
«Быстро, жестоко и бескомпромиссно олдскульно»: анонсирован ретрошутер Nailcrown в эстетике тёмного фэнтези 2 ч.
Роскомнадзор уже третий раз за полгода опроверг слухи о блокировке Minecraft в России 3 ч.
OpenAI вооружила европейские компании ИИ-моделью GPT-5.5-Cyber для защиты от хакеров 3 ч.
Анонсирован необычный кооперативный роглайт Kingfish, в котором смешались экшен и градостроительная стратегия 4 ч.
Бывший босс Tekken ушёл из Bandai Namco для создания «по-настоящему великих» игр в новой студии 5 ч.
Как у Маска: в Threads внедрят ИИ-бота, который сможет участвовать в обсуждениях и проверять информацию 6 ч.
Обновление Dell SupportAssist вызвало массовые «синие экраны смерти» и бесконечные перезагрузки ноутбуков 7 ч.
TikTok бросила вызов Booking: теперь можно бронировать путешествия и отели прямо из видео 7 ч.
Nvidia выпустила драйвер с поддержкой Forza Horizon 6, Directive 8020 и Subnautica 2 7 ч.
Новая статья: Обзор планшета HUAWEI MatePad Mini: заполняющий пустоту 27 мин.
Google ведёт переговоры со SpaceX о запуске орбитальных дата-центров в рамках собственной программы Suncatcher 2 ч.
Google анонсировала ноутбуки Googlebook — эволюция Chromebook с россыпью ИИ и гибридом Android и ChromeOS 2 ч.
США готовят запрет китайских сотовых модулей — это больно ударит по смарт-устройствам 4 ч.
Google вот-вот представит Googlebook — замену хромбукам с глубокой интеграцией ИИ Gemini 6 ч.
Garmin представила «простые в использовании» смарт-часы Forerunner 70 и Forerunner 170 по цене от £220 7 ч.
FSP показала 2000-ваттный блок питания — хватит даже для систем с несколькими GPU и CPU 7 ч.
Машины научили «жаловаться» на ямы на дорогах — ИИ передаёт данные дорожным службам 7 ч.
Дата-центры всё чаще строят вне городов — там меньше протестов и бюрократии 8 ч.
Алжир и Оман договорились совместно строить дата-центры 8 ч.