Сегодня 05 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Google сократила потребление памяти ИИ-моделями в шесть раз без потери точности — с алгоритмом TurboQuant

Исследовательский отдел Google Research опубликовал работу о технологии TurboQuant — алгоритме квантизации, который сокращает разрядность KV-кеша больших языковых моделей до 3 битов без потери точности в ответах и без потребности в дополнительном обучении. В тестах на ускорителях искусственного интеллекта Nvidia H100 4-битный алгоритм TurboQuant (с четвёртым битом на коррекцию ошибок) помог восьмикратно повысить производительность при вычислении логитов внимания в сравнении с неквантованными 32-битными ключами; при этом объём KV-кеша сократился в шесть раз.

 Источник изображения: and machines / unsplash.com

Источник изображения: and machines / unsplash.com

В KV-кеше хранятся ранее вычисленные данные механизма внимания, чтобы модели не приходилось пересчитывать их на каждом шаге генерации токенов. По мере роста контекстного окна этот кеш существенно разрастается; традиционные методы квантования помогают уменьшить размер кеша, но за это приходится «расплачиваться» несколькими дополнительными битами на значение из-за констант квантования, которые хранятся вместе со сжатыми данными — это своего рода аналог словаря из традиционных алгоритмов архивирования данных ZIP и RAR. При большом размере контекстного окна эти накладные расходы всё равно оказываются значительными.

TurboQuant помогает устранить эти накладные расходы в двухэтапном процессе, то есть обходится вообще без словаря. На первом этапе срабатывает метод PolarQuant — преобразование векторов данных из декартовых в полярные координаты. Каждому вектору присваивается значение радиуса (длины) и угла (направления). Угловые распределения предсказуемы и сконцентрированы, поэтому PolarQuant обходится без ресурсоёмкого этапа нормализации каждого блока, который неизбежен с традиционными квантизаторами. На выходе получается сжатие высокого качества без накладных расходов на хранение констант внимания — словарей.

 Источник изображения: Conny Schneider / unsplash.com

Источник изображения: Conny Schneider / unsplash.com

На втором этапе применяется 1-битный слой коррекции ошибок с использованием квантованного алгоритма Джонсона-Линденштрауса. Остаточная ошибка квантования проецируется в пространство меньшей размерности, каждое значение сводится к одному знаковому биту, устраняя тем самым систематическую погрешность в вычислениях оценки внимания с незначительными дополнительными издержками.

Google протестировала две составляющих алгоритма TurboQuant в отдельности и их совместную работу в бенчмарках с длинным контекстом LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval на открытых моделях Gemma и Mistral. TurboQuant показал идеальные результаты в задачах класса поиска «иголки в стоге сена» добившись сжатия KV-кеша минимум в шесть раз. В группе тестов LongBench, включающей ответы на вопросы, генерацию кода и создание сводок, TurboQuant оказался не хуже, а то и лучше базового алгоритма сжатия KIVI по всем задачам.

TurboQuant показал эффективность не только в работе с большими языковыми моделями, но и в векторном поиске — его протестировали в сравнении с известными алгоритмами сжатия Product Quantization и RabbiQ на наборе данных GloVe. Даже без обучения и оптимизации разработанный в Google алгоритм показал более качественные результаты, чем его соперники, настроенные специально для работы с этим набором данных. TurboQuant вообще не требует ни обучения, ни тонкой настройки, а его выполнение сопровождается незначительными накладными расходами — он готов для развёртывания даже в условиях повышенной нагрузки.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Прочувствуй Kingdom Come: Deliverance 2 по-новому: Warhorse выпустила духи с запахом Индржиха 2 ч.
Anthropic представила ИИ-агентов для решения финансовых задач и работы с отчётностью 3 ч.
Классическую Diablo едва не загубила налоговая — как Blizzard спасла легендарную экшен-RPG 3 ч.
«Яндекс» потратит до 50 млрд рублей на выкуп акций — ради мотивации сотрудников 5 ч.
ИИ-бот Claude удалось «разговорить» до вредоносного кода и рецептов взрывчатки — хотя напрямую о них даже не спрашивали 5 ч.
Microsoft, xAI и Google согласились отдавать ИИ-модели властям США на проверку безопасности 6 ч.
Google повысила вознаграждение за обнаружение эксплойтов в Android до $1,5 млн 6 ч.
Google внедрит «аналог блокчейна» для проверки подлинности приложений и модулей Android 6 ч.
Суд в Москве оштрафовал Telegram на 7 млн, а Google — на 15,2 млн рублей 6 ч.
«Это не распознавание лиц»: в Facebook и Instagram встроили ИИ, который выявляет детей по росту и строению скелета 6 ч.
Micron выпустила первый SSD ёмкостью 245 Тбайт — Micron 6600 ION для центров обработки данных 19 мин.
В Китае установили крупнейший в мире плавучий морской ветряк — с ротором площадью в семь футбольных полей 27 мин.
Актёр засветил грядущие наушники Sony WH-1000XX — премиальная модель обойдётся в $649 3 ч.
PlayStation 5 с Linux показала почти нативную производительность в играх из Steam 3 ч.
Bose представила линейку домашней акустики Lifestyle Ultra Collection — от $299 за колонку до $1099 за саундбар 4 ч.
Глава Nvidia: Китай не должен получать передовые ИИ-чипы Blackwell и Rubin — всё лучшее должно быть у США 5 ч.
По бумагам всё чисто: Малайзия стремительно становится хабом ИИ ЦОД, благодаря доступности чипов NVIDIA и лояльности к клиентам из Китая 6 ч.
Adata выпустила память с «бесконечным зеркалом» — XPG Novakey RGB DDR5 объёмом до 32 Гбайт и скоростью до 6400 МТ/с 6 ч.
Анонсирован смартфон Honor Play 80 Plus с батареей на 7500 мА·ч и Snapdragon 4 Gen 4 по цене от $249 6 ч.
Be quiet! выпустила кулеры Dark Rock 6 и Dark Rock Pro 6 весом больше килограмма для процессоров с TDP до 300 Вт 6 ч.