Сегодня 21 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Компактная модель Phi-3-vision от Microsoft умеет «читать» изображения

Компания Microsoft анонсировала ИИ-модель Phi-3-vision, новую версию своей небольшой языковой модели Phi-3, способную просматривать изображения и рассказывать пользователю о том, что на них изображено. Phi-3-vision является мультимодальной ИИ-моделью, обладающей способностью читать текст и просматривать изображения, предназначенной для использования в первую очередь на мобильных устройствах.

 Источник изображения: geralt/Pixabay

Источник изображения: geralt/Pixabay

Как сообщает Microsoft, Phi-3-vision, доступная в виде предварительной версии, представляет собой модель с 4,2 млрд параметров, которая может выполнять общие задачи на визуальное мышление, включая ответы на вопросы о диаграммах или изображениях.

Phi-3-vision гораздо меньше других ИИ-моделей, ориентированных на работу с изображениями, таких как DALL-E от OpenAI или Stable Diffusion от Stability AI. В отличие от этих моделей, Phi-3-vision не генерирует изображения, хотя способна понимать, что изображено на картинке, и анализировать изображение по запросу пользователя.

Microsoft представила модель Phi-3 в апреле, выпустив Phi-3-mini, самую маленькую модель семейства Phi-3 с 3,8 млрд параметров. Семейство Phi-3 также включает модель Phi-3-small (7 млрд параметров) и Phi-3-medium (14 млрд параметров).

Разработчики начали выпуск небольших и лёгких ИИ-моделей, таких как Phi-3, в связи с ростом спроса на использование более экономичных и менее ресурсоёмких сервисов ИИ. Небольшие ИИ-модели не занимают много места в памяти и поэтому их можно использовать на телефонах и ноутбуках.

Microsoft выпустила ряд небольших моделей в дополнение к Phi-3 и её предшественнику Phi-2. Её модель Orca-Math, ориентированная на решение математических задач, как сообщается, отвечает на математические вопросы лучше, чем более крупные аналоги, такие как Gemini Pro от Google.

ИИ-модели Phi-3-mini, Phi-3-small и Phi-3-medium уже доступны для использования и присутствуют в библиотеке моделей Azure.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Google теперь использует письма пользователей Gmail для обучения ИИ, но это можно отключить 4 мин.
У Grok сломался регулятор подхалимства к Илону Маску — бот решил, что он совершенен во всём и даже может воскрешать людей 20 мин.
Разработчики Nioh 3 раскрыли системные требования для игры в 1080p с апскейлерами 46 мин.
Каждый четвёртый россиянин хотя бы раз в месяц пользуется нейросетями 2 ч.
Ubisoft объяснила, почему задержала финансовый отчёт, и похвасталась новым успехом Assassin's Creed Mirage 3 ч.
«МойОфис» анонсировал более десятка новых технологий и продуктов для бизнеса 4 ч.
Журналисты выяснили, когда выйдет ремейк Assassin’s Creed IV: Black Flag — ждать осталось недолго 4 ч.
Обнаружен Android-троян Sturnus, который перехватывает сообщения в WhatsApp и Telegram 4 ч.
Обработка текста ИИ-моделями в Windows 11 заработала локально, вне облака 4 ч.
Хакеры взломали десятки тысяч роутеров Asus — атака затронула в том числе и Россию 5 ч.
В США впервые разрешили испытания на людях мозгового имплантата для восстановления речи 58 мин.
МТС, «МегаФон» и Т2 пригрозили «Билайну» судом за агрессивное переманивание абонентов 2 ч.
Российские итоги HUAWEI XMAGE 2025 и выставка «Фото[графическое] путешествие» 2 ч.
Joby Aviation подала в суд на конкурента Archer за кражу технологий аэротакси 3 ч.
Маск пообещал дешёвые ИИ-серверы в космосе через пять лет — Хуанг назвал эти планы «мечтой» 3 ч.
Ускоритель SpaceX Super Heavy для нового Starship 3 взорвался во время испытаний 3 ч.
«Покажите деньги»: инвесторы заподозрили ИИ-компании в махинациях по завышению капитализации 3 ч.
Рекордная выручка и оптимистичный прогноз NVIDIA снизили опасения по поводу растущего ИИ-пузыря 4 ч.
ИИ от Google ускорит строительство ядерных реакторов Westinghouse 5 ч.
Китайский робот AgiBot A2 без остановки прошёл 106 км, установив мировой рекорд Гиннеса 5 ч.