Сегодня 02 мая 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → малые языковые модели

Microsoft представила три новые малые ИИ-модели семейства Phi-4

Microsoft выпустила три новые малые языковые модели (SLM) с открытой лицензией: Phi-4-mini-reasoning, Phi-4-reasoning и Phi-4-reasoning-plus. Каждая из моделей относится к классу рассуждающих (reasoning) моделей, ориентированных на логическую верификацию решений и тщательную проработку сложных задач. Эти ИИ-модели стали продолжением инициативы Microsoft по разработке компактных ИИ-систем — семейства Phi, впервые представленного год назад как фундамент для приложений, работающих на устройствах с ограниченными вычислительными возможностями.

 Источник изображения: Jackson Sophat / Unsplash

Источник изображения: Jackson Sophat / Unsplash

Наиболее производительной из представленных является ИИ-модель Phi-4-reasoning-plus. Она представляет собой адаптацию ранее выпущенной Phi-4 под задачи логического вывода. По утверждению Microsoft, её качество ответов близко к DeepSeek R1, несмотря на существенную разницу в объёме параметров: у DeepSeek R1 — 671 млрд, тогда как у Phi-4-reasoning-plus их значительно меньше. Согласно внутреннему тестированию Microsoft, эта модель показала результаты, соответствующие ИИ-модели OpenAI o3-mini в рамках бенчмарка OmniMath, оценивающего математические способности ИИ.

 Модели Phi-4-reasoning и Phi-4-reasoning-plus (14 млрд параметров) демонстрируют превосходство над базовой Phi-4 и уверенно конкурируют с более крупными системами, включая DeepSeek-R1 Distill (70 млрд параметров) и OpenAI o3-mini, в задачах математического и логического мышления (AIME, HMMT, OmniMath, GPQA). Источник изображения: Microsoft

Модели Phi-4-reasoning и Phi-4-reasoning-plus (14 млрд параметров) демонстрируют превосходство над базовой Phi-4 и уверенно конкурируют с более крупными системами, включая DeepSeek-R1 Distill (70 млрд параметров) и OpenAI o3-mini, в задачах математического и логического мышления (AIME, HMMT, OmniMath, GPQA). Источник изображения: Microsoft

Модель Phi-4-reasoning содержит 14 млрд параметров и обучалась на основе «качественных» данных из интернета, а также на отобранных демонстрационных примерах из o3-mini. Она оптимизирована для задач в области математики, естественных наук и программирования. Таким образом, Phi-4 reasoning ориентирована на высокоточные вычисления и аналитическую интерпретацию данных, оставаясь при этом относительно компактной и доступной для использования на локальных вычислительных платформах.

 На универсальных тестах, включая FlenQA, IFEval, HumanEvalPlus, MMLUPro, ToxiGen и PhiBench, модели Phi-4-reasoning-plus демонстрируют точность, сопоставимую с GPT-4o и o3-mini, несмотря на меньший объём параметров (14 млрд параметров), особенно в задачах программирования, логики и безопасности. Источник изображения: Microsoft

На универсальных тестах, включая FlenQA, IFEval, HumanEvalPlus, MMLUPro, ToxiGen и PhiBench, модели Phi-4-reasoning-plus демонстрируют точность, сопоставимую с GPT-4o и o3-mini, несмотря на меньший объём параметров (14 млрд параметров), особенно в задачах программирования, логики и безопасности. Источник изображения: Microsoft

Phi-4-mini-reasoning — самая малогабаритная из представленных SLM. Её размер составляет около 3,8 млрд параметров. Она обучалась на основе приблизительно 1 млн синтетических математических задач, сгенерированных ИИ-моделью R1 китайского стартапа DeepSeek. Microsoft позиционирует её как ИИ-модель для образовательных сценариев, включая «встроенное обучение» на маломощных и мобильных устройствах. Благодаря компактности и точности, эта ИИ-модель может применяться в интерактивных обучающих системах, где приоритетом являются скорость отклика и ограниченность вычислительных ресурсов.

 Phi-4-mini-reasoning (3,8 млрд параметров) значительно превосходит свою базовую версию и модели с вдвое большим размером на бенчмарках AIME 24, MATH-500 и GPQA Diamond, а также сопоставима или превосходит OpenAI o1-mini по точности генерации длинных математических ответов. Источник изображения: Microsoft

Phi-4-mini-reasoning (3,8 млрд параметров) значительно превосходит свою базовую версию и модели с вдвое большим размером на бенчмарках AIME 24, MATH-500 и GPQA Diamond, а также сопоставима или превосходит OpenAI o1-mini по точности генерации длинных математических ответов. Источник изображения: Microsoft

Все три ИИ-модели доступны на платформе Hugging Face и распространяются под открытой лицензией. По словам Microsoft, при их обучении использовались дистилляция, обучение с подкреплением и высококачественные обучающие данные. Эти методы позволили сбалансировать размер SLM и их вычислительную производительность. ИИ-модели достаточно компактны, чтобы использоваться в средах с низкой задержкой, но при этом способны решать задачи, требующие строгости логического построения и достоверности результата. Ранее такие задачи были характерны лишь для гораздо более крупных ИИ.


window-new
Soft
Hard
Тренды 🔥
Тим Кук: Apple добилась прогресса в разработке поумневшей Siri, пусть и с опозданием 13 мин.
Грандиозный AAA-боевик The Age of Bhaarat отправит игроков в мифический мир Древней Индии — геймплейный трейлер и подробности 2 ч.
Epic Games пообещала 0 % комиссии с продаж для разработчиков с доходом до $1 млн 9 ч.
Посчитали — прослезились: только 6 % паролей уникальны, а остальное — сплошные «qwerty» и «1234» 11 ч.
Новая статья: Студенту на заметку: веб-сервисы и приложения для подготовки к сессии 11 ч.
Облако и ИИ подстегнули рост выручки Microsoft — компания продолжает инвестировать в инфраструктуру 11 ч.
«Очень трудно доказывать то, чего ты не делал»: глава «Леста Игры» прокомментировал арест активов и ответил на обвинения в экстремизме 12 ч.
Alibaba выпустила ИИ-модель Qwen2.5-Omni-3B — её можно запустить на ПК или ноутбуке 12 ч.
ИИ-стартапы начали показывать рекламу Google в переписке с чат-ботами 14 ч.
Дорожное приключение Keep Driving получило первое крупное обновление и порадовало создателей продажами — поддержка русского языка на подходе 15 ч.
NASA не теряет надежды спасти зонд Lunar Trailblazer, но тот пока играет в молчанку 8 мин.
AirJoule «превратит» тепло дата-центров в дистиллированую воду 41 мин.
Ультразвуковые твердотельные кулеры xMEMS начнут охлаждать серверные компоненты, которые трудно охладить иначе 2 ч.
Новая статья: Обзор блока питания Ocypus Delta P850 9 ч.
Акции Microsoft подорожали на 9 %, и сегодня — лучший день для компании за последние 5 лет 11 ч.
TikTok намерена потратить €1 млрд на дата-центр в Финляндии 11 ч.
Тысячи гектар земли и гигаватты энергии: Microsoft готовилась к самому масштабному строительству ЦОД за всю свою историю, но затем передумала 12 ч.
Российские и немецкие учёные разогнали оптический транзистор до 240 ГГц 13 ч.
Asus представила Radeon RX 9070 GRE в исполнении ATS Megalodon 15 ч.
Учёные разработали первую в мире экологически чистую технологию нанесения серебра в электронике 15 ч.