Сегодня 26 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Microsoft представила три новые малые ИИ-модели семейства Phi-4

Microsoft выпустила три новые малые языковые модели (SLM) с открытой лицензией: Phi-4-mini-reasoning, Phi-4-reasoning и Phi-4-reasoning-plus. Каждая из моделей относится к классу рассуждающих (reasoning) моделей, ориентированных на логическую верификацию решений и тщательную проработку сложных задач. Эти ИИ-модели стали продолжением инициативы Microsoft по разработке компактных ИИ-систем — семейства Phi, впервые представленного год назад как фундамент для приложений, работающих на устройствах с ограниченными вычислительными возможностями.

 Источник изображения: Jackson Sophat / Unsplash

Источник изображения: Jackson Sophat / Unsplash

Наиболее производительной из представленных является ИИ-модель Phi-4-reasoning-plus. Она представляет собой адаптацию ранее выпущенной Phi-4 под задачи логического вывода. По утверждению Microsoft, её качество ответов близко к DeepSeek R1, несмотря на существенную разницу в объёме параметров: у DeepSeek R1 — 671 млрд, тогда как у Phi-4-reasoning-plus их значительно меньше. Согласно внутреннему тестированию Microsoft, эта модель показала результаты, соответствующие ИИ-модели OpenAI o3-mini в рамках бенчмарка OmniMath, оценивающего математические способности ИИ.

 Модели Phi-4-reasoning и Phi-4-reasoning-plus (14 млрд параметров) демонстрируют превосходство над базовой Phi-4 и уверенно конкурируют с более крупными системами, включая DeepSeek-R1 Distill (70 млрд параметров) и OpenAI o3-mini, в задачах математического и логического мышления (AIME, HMMT, OmniMath, GPQA). Источник изображения: Microsoft

Модели Phi-4-reasoning и Phi-4-reasoning-plus (14 млрд параметров) демонстрируют превосходство над базовой Phi-4 и уверенно конкурируют с более крупными системами, включая DeepSeek-R1 Distill (70 млрд параметров) и OpenAI o3-mini, в задачах математического и логического мышления (AIME, HMMT, OmniMath, GPQA). Источник изображения: Microsoft

Модель Phi-4-reasoning содержит 14 млрд параметров и обучалась на основе «качественных» данных из интернета, а также на отобранных демонстрационных примерах из o3-mini. Она оптимизирована для задач в области математики, естественных наук и программирования. Таким образом, Phi-4 reasoning ориентирована на высокоточные вычисления и аналитическую интерпретацию данных, оставаясь при этом относительно компактной и доступной для использования на локальных вычислительных платформах.

 На универсальных тестах, включая FlenQA, IFEval, HumanEvalPlus, MMLUPro, ToxiGen и PhiBench, модели Phi-4-reasoning-plus демонстрируют точность, сопоставимую с GPT-4o и o3-mini, несмотря на меньший объём параметров (14 млрд параметров), особенно в задачах программирования, логики и безопасности. Источник изображения: Microsoft

На универсальных тестах, включая FlenQA, IFEval, HumanEvalPlus, MMLUPro, ToxiGen и PhiBench, модели Phi-4-reasoning-plus демонстрируют точность, сопоставимую с GPT-4o и o3-mini, несмотря на меньший объём параметров (14 млрд параметров), особенно в задачах программирования, логики и безопасности. Источник изображения: Microsoft

Phi-4-mini-reasoning — самая малогабаритная из представленных SLM. Её размер составляет около 3,8 млрд параметров. Она обучалась на основе приблизительно 1 млн синтетических математических задач, сгенерированных ИИ-моделью R1 китайского стартапа DeepSeek. Microsoft позиционирует её как ИИ-модель для образовательных сценариев, включая «встроенное обучение» на маломощных и мобильных устройствах. Благодаря компактности и точности, эта ИИ-модель может применяться в интерактивных обучающих системах, где приоритетом являются скорость отклика и ограниченность вычислительных ресурсов.

 Phi-4-mini-reasoning (3,8 млрд параметров) значительно превосходит свою базовую версию и модели с вдвое большим размером на бенчмарках AIME 24, MATH-500 и GPQA Diamond, а также сопоставима или превосходит OpenAI o1-mini по точности генерации длинных математических ответов. Источник изображения: Microsoft

Phi-4-mini-reasoning (3,8 млрд параметров) значительно превосходит свою базовую версию и модели с вдвое большим размером на бенчмарках AIME 24, MATH-500 и GPQA Diamond, а также сопоставима или превосходит OpenAI o1-mini по точности генерации длинных математических ответов. Источник изображения: Microsoft

Все три ИИ-модели доступны на платформе Hugging Face и распространяются под открытой лицензией. По словам Microsoft, при их обучении использовались дистилляция, обучение с подкреплением и высококачественные обучающие данные. Эти методы позволили сбалансировать размер SLM и их вычислительную производительность. ИИ-модели достаточно компактны, чтобы использоваться в средах с низкой задержкой, но при этом способны решать задачи, требующие строгости логического построения и достоверности результата. Ранее такие задачи были характерны лишь для гораздо более крупных ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
GPT-5 обещает серьёзный прогресс в практическом программировании и разработке ПО 49 мин.
Microsoft назвала Windows 11 24H2 самой стабильной за всю историю, что бы это ни значило 2 ч.
Новая статья: Tony Hawk’s Pro Skater 3 + 4 — кажется, вы что-то забыли. Рецензия 2 ч.
ВТБ провёл крупнейшее в России импортозамещение системы управления знаниями 2 ч.
Plants vs. Zombies Replanted скоро выйдет из тени — инсайдер раскрыл дату выхода переиздания культовой игры о противостоянии растений и зомби 2 ч.
Вышел релиз обновлённого «Кибер Хранилища» с массой оптимизаций для работы с кластерами S3 4 ч.
Microsoft рассказала, что ждёт Copilot в будущем: ИИ будет «жить», «стареть» и получит собственную комнату 4 ч.
«История про убийство нацистов всегда в моде»: Amazon запустила в производство сериал по Wolfenstein 5 ч.
Как много чемпионов: Bethesda похвасталась новыми успехами The Elder Scrolls IV: Oblivion Remastered 6 ч.
Google представила экспериментальный ИИ-генератор веб-приложений Opal 6 ч.
Проект Tesla Optimus сталкивается с проблемами и отстаёт от графика, но Маск и инвесторы сохраняют оптимизм 14 мин.
Несмотря на запреты США в Китай «просочились» передовые ускорители NVIDIA на $1 млрд 19 мин.
Смарт-часы под брендом Pebble снова появятся на рынке 40 мин.
DJI готовится к выходу на рынок роботов-пылесосов — первый продукт уже готов 44 мин.
SK Hynix запустит производство чипов GDDR7 ёмкостью 3 Гбайт — идеально для GeForce RTX 50 Super 57 мин.
Китайская Unitree выпустила человекоподобного робота дешевле $6000 6 ч.
Масштабные сокращения в Intel не скажутся на графике выхода процессоров Panther Lake и Nova Lake 6 ч.
Kioxia начала поставки образцов более быстрых 218-слойных чипов TLC-флеш-памяти BiCS 9 7 ч.
Раджа Кодури присоединился к Sandisk, чтобы увеличить память в ИИ-ускорителях до 4 Тбайт 7 ч.
TeamGroup представила предназначенные для Ryzen комплекты DDR5 объёмом 256 Гбайт 7 ч.