Сегодня 13 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Сфера ИИ заинтересовалась малыми языковыми моделями — они дешевле и эффективнее больших в конкретных задачах

На рынке ИИ сейчас наблюдается тренд на использование малых языковых моделей (SLM), которые имеют меньше параметров, чем большие языковые модели (LLM), и лучше подходят для более узкого круга задач, пишет журнал Wired.

 Источник изображения: Luke Jones/unsplash.com

Источник изображения: Luke Jones/unsplash.com

Новейшие версии LLM компаний OpenAI, Meta и DeepSeek имеют сотни миллиардов параметров, благодаря чему могут лучше определять закономерности и связи, что делает их более мощными и точными. Однако их обучение и использование требуют огромных вычислительных и финансовых ресурсов. Например, обучение модели Gemini 1.0 Ultra обошлось Google в 191 миллион долларов. По данным Института исследований электроэнергетики, выполнение одного запроса в ChatGPT требует примерно в 10 раз больше энергии, чем один поиск в Google.

IBM, Google, Microsoft и OpenAI недавно выпустили SLM, имеющие всего несколько миллиардов параметров. Их нельзя использовать в качестве универсальных инструментов, как LLM, но они отлично справляются с более узко определёнными задачами, такими как подведение итогов разговоров, ответы на вопросы пациентов в качестве чат-бота по вопросам здравоохранения и сбор данных на интеллектуальных устройствах. «Они также могут работать на ноутбуке или мобильном телефоне, а не в огромном ЦОД», — отметил Зико Колтер (Zico Kolter), учёный-компьютерщик из Университета Карнеги — Меллона.

Для обучения малых моделей исследователи используют несколько методов, например дистилляцию знаний, при которой LLM генерирует высококачественный набор данных, передавая знания SLM, как учитель даёт уроки ученику. Также малые модели создаются из больших путём «обрезки» — удаления ненужных или неэффективных частей нейронной сети.

Поскольку у SLM меньше параметров, чем у больших моделей, их рассуждения могут быть более прозрачными. Небольшая целевая модель будет работать так же хорошо, как большая, при выполнении конкретных задач, но её будет проще разрабатывать и обучать. «Эти эффективные модели могут сэкономить деньги, время и вычислительные ресурсы», — сообщил Лешем Чошен (Leshem Choshen), научный сотрудник лаборатории искусственного интеллекта MIT-IBM Watson.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
OpenAI выпустила GPT-5.3-Codex-Spark — свою первую ИИ-модель, работающую без чипов Nvidia 8 ч.
Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку 9 ч.
Несмотря на 10 месяцев молчания, мультиплеерный боевик The Duskbloods от создателей Bloodborne и Elden Ring всё ещё запланирован на 2026 год 10 ч.
«Те же щи, да пожиже»: 19 минут геймплея шпионской ролевой игры Zero Parades: For Dead Spies в духе Disco Elysium не впечатлили фанатов 11 ч.
Амбициозный симулятор выживания Blackfrost: The Long Dark 2 не выйдет в 2026 году — разработчики несут потери 12 ч.
Google научит Chrome запускаться вместе с Windows — сразу с открытым окном 13 ч.
Илон Маск сообщил о скором запуске X Money — сервиса, «где будут храниться все деньги» пользователей X 13 ч.
Сайт-двойник 7-Zip десять дней заражал пользователей — вредонос подменял ссылки с задержкой 13 ч.
В Steam вышла демоверсия «Былины» — грандиозной экшен-RPG в мире славянских мифов 14 ч.
Владелец TikTok выпустил ИИ-модель Seedance 2.0 для генерации видео — она стала вирусной 14 ч.