Сегодня 26 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Google сократила потребление памяти ИИ-моделями в шесть раз без потери точности — с алгоритмом TurboQuant

Исследовательский отдел Google Research опубликовал работу о технологии TurboQuant — алгоритме квантизации, который сокращает разрядность KV-кеша больших языковых моделей до 3 битов без потери точности в ответах и без потребности в дополнительном обучении. В тестах на ускорителях искусственного интеллекта Nvidia H100 4-битный алгоритм TurboQuant (с четвёртым битом на коррекцию ошибок) помог восьмикратно повысить производительность при вычислении логитов внимания в сравнении с неквантованными 32-битными ключами; при этом объём KV-кеша сократился в шесть раз.

 Источник изображения: and machines / unsplash.com

Источник изображения: and machines / unsplash.com

В KV-кеше хранятся ранее вычисленные данные механизма внимания, чтобы модели не приходилось пересчитывать их на каждом шаге генерации токенов. По мере роста контекстного окна этот кеш существенно разрастается; традиционные методы квантования помогают уменьшить размер кеша, но за это приходится «расплачиваться» несколькими дополнительными битами на значение из-за констант квантования, которые хранятся вместе со сжатыми данными — это своего рода аналог словаря из традиционных алгоритмов архивирования данных ZIP и RAR. При большом размере контекстного окна эти накладные расходы всё равно оказываются значительными.

TurboQuant помогает устранить эти накладные расходы в двухэтапном процессе, то есть обходится вообще без словаря. На первом этапе срабатывает метод PolarQuant — преобразование векторов данных из декартовых в полярные координаты. Каждому вектору присваивается значение радиуса (длины) и угла (направления). Угловые распределения предсказуемы и сконцентрированы, поэтому PolarQuant обходится без ресурсоёмкого этапа нормализации каждого блока, который неизбежен с традиционными квантизаторами. На выходе получается сжатие высокого качества без накладных расходов на хранение констант внимания — словарей.

 Источник изображения: Conny Schneider / unsplash.com

Источник изображения: Conny Schneider / unsplash.com

На втором этапе применяется 1-битный слой коррекции ошибок с использованием квантованного алгоритма Джонсона-Линденштрауса. Остаточная ошибка квантования проецируется в пространство меньшей размерности, каждое значение сводится к одному знаковому биту, устраняя тем самым систематическую погрешность в вычислениях оценки внимания с незначительными дополнительными издержками.

Google протестировала две составляющих алгоритма TurboQuant в отдельности и их совместную работу в бенчмарках с длинным контекстом LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval на открытых моделях Gemma и Mistral. TurboQuant показал идеальные результаты в задачах класса поиска «иголки в стоге сена» добившись сжатия KV-кеша минимум в шесть раз. В группе тестов LongBench, включающей ответы на вопросы, генерацию кода и создание сводок, TurboQuant оказался не хуже, а то и лучше базового алгоритма сжатия KIVI по всем задачам.

TurboQuant показал эффективность не только в работе с большими языковыми моделями, но и в векторном поиске — его протестировали в сравнении с известными алгоритмами сжатия Product Quantization и RabbiQ на наборе данных GloVe. Даже без обучения и оптимизации разработанный в Google алгоритм показал более качественные результаты, чем его соперники, настроенные специально для работы с этим набором данных. TurboQuant вообще не требует ни обучения, ни тонкой настройки, а его выполнение сопровождается незначительными накладными расходами — он готов для развёртывания даже в условиях повышенной нагрузки.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Мультиплеерный социальный детектив 4 Penny Coffins отправит игроков в викторианский Лондон искать Джека-потрошителя 5 мин.
ИИ поможет обнаруживать ошибки в коде проектов на GitHub 8 мин.
МТС Exolve представила сервис для централизованной работы с клиентскими чатами 19 мин.
Цифровые версии эксклюзивов Nintendo Switch 2 в США скоро станут дешевле розничных 37 мин.
В американских вузах стали возвращаться к устным экзаменам — из-за ИИ студенты перестали думать сами 47 мин.
Samsung Browser вышел за пределы смартфонов и теперь доступен на ПК с Windows 54 мин.
Google сократила потребление памяти ИИ-моделями в шесть раз без потери точности — с алгоритмом TurboQuant 2 ч.
Закрытие OpenAI ИИ-генератора видео Sora обрушило миллиардную сделку с Walt Disney 3 ч.
Разработчики Lords of the Fallen 2 показали, как прокачали царство мёртвых после критики игроков — новый геймплейный тизер 4 ч.
Суд в США впервые обязал Google и Meta выплатить $6 млн пользователю по делу о зависимости от соцсетей 6 ч.
Игровой ноутбук Razer Blade 16 2026 получил чип Intel Core Ultra 9 386H, быструю память и порт Thunderbolt 5 9 мин.
Бизнес-компьютер Dell Pro 5 Micro в литровом корпусе получил чип Intel Panther Lake с ИИ-быстродействием 50 TOPS 2 ч.
HP представила рабочую станцию Z8 Fury G6i с поддержкой четырёх ускорителей NVIDIA RTX Pro 6000 Blackwell Max-Q Workstation Edition 2 ч.
ИИ помог открыть неизвестные ранее экзопланеты в архивах телескопа-охотника TESS 2 ч.
Samsung Galaxy Z Fold8 Wide показался на изображениях — он станет ответом на первый складной iPhone 3 ч.
Китай может занять до 42 % рынка массовых чипов к 2028 году благодаря ИИ 3 ч.
Половина компаний, заменивших людей ИИ-ботами, вернётся к найму персонала в следующем году 4 ч.
Дорожает всё: вслед за памятью и CPU подорожают даже «простые» чипы 5 ч.
Потребительское подразделение Sennheiser снова выставили на продажу 7 ч.
В Meta новая волна увольнений — всё ради искусственного интеллекта 7 ч.