Сегодня 23 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

«Яндекс» представил нейросеть «Шедеврум» для превращения текста в изображения, и выпустил для неё приложения

Компания «Яндекс» рассказала о прототипе нейросети, способной генерировать изображения по текстовым описаниям. Посмотреть результаты её работы может любой желающий — для этого достаточно скачать приложение «Шедеврум» для Android или iOS.

 Источник изображений: Яндекс

Источник изображений: Яндекс

Нейросеть работает с текстовыми описаниями на русском и английском языках, причём рекомендуется излагать пожелания максимально конкретно: ИИ выполняет работы в разных художественных стилях, подражает известным живописцам и понимает инструкции вроде «фотореализма» и «высокой детализации». Получив текстовое описание, ИИ создаёт базовую версию картинки, после чего в несколько шагов увеличивает её разрешение и добавляет новые детали — такой метод называется каскадной диффузией.

 Заброшенная Бурдж-Халифа обросла джунглями, крупным планом

Заброшенная Бурдж-Халифа обросла джунглями, крупным планом

На этапе бета-теста первую версию генеративной модели обучили на 240 млн изображений и соответствующих им текстовых описаний. Работа продолжается — новый объём данных включает 500 млн примеров, поэтому качество работы «Шедеврума» постепенно вырастет.

 Медоед-киборг

Медоед-киборг

К финальному релизу, рассказал руководитель управления машинного интеллекта и исследований «Яндекса» Алексей Гусаков, нейросеть будет генерировать «баннеры, иллюстрации, создавать изображения для интернет-витрин и не только», но пока это не более чем источник хорошего настроения для пользователей.

Сейчас в приложениях «Шедеврум» можно преимущественно лишь знакомиться с результатами работы нейросети, отмечая понравившиеся изображения в ленте. Собственное описание для генерации изображения пока можно предложить в формате заявки и дождаться её подтверждения. Но в перспективе это ограничение планируют снять, и отправлять свои описания смогут все зарегистрированные пользователи.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Keep Driving — великолепная игра, сотканная из странных идей. Рецензия 7 ч.
Количество слияний и поглощений в российском IT-секторе в 2024 году выросло на треть 7 ч.
В рекордной краже криптовалюты у ByBit обвинили северокорейских хакеров 17 ч.
«Нам просто нужно больше мощностей»: OpenAI постепенно поборет зависимость от Microsoft 17 ч.
Трамповская криптооттепель: Coinbase удалось малой кровью отделаться от иска Комиссии по ценным бумагам США 17 ч.
Apple выпустила первую бету iOS 18.4, в которой появились «приоритетные уведомления» 19 ч.
Новая статья: Kingdom Come: Deliverance II — ролевое вознесение. Рецензия 22-02 00:03
Apple отключила сквозное шифрование в iCloud по требованию властей Великобритании 21-02 23:43
Взрывной платформер Shotgun Cop Man от создателя My Friend Pedro предложит спуститься в ад и арестовать Дьявола — трейлер и демоверсия в Steam 21-02 22:01
Valve заблокировала игру в российском Steam по требованию Роскомнадзора 21-02 20:20
Lenovo сообщила о двузначном росте выручки за III финансовый квартал по всем подразделениям — ISG снова в плюсе благодаря ИИ 8 ч.
В облаке Google Cloud появились инстансы A4X на базе суперускорителей NVIDIA GB200 NVL72 8 ч.
STMicroelectronics представила фотонный чип для 1,6-Тбит/с сетей 8 ч.
Несмотря на риск землетрясений, геотермальную энергию ждёт светлое будущее, считают учёные 9 ч.
Размышляющий ИИ DeepSeek R1 встроят в смартфоны Infinix Note 50 12 ч.
Huawei захватила больше половины рынка складных смартфонов в Китае — на втором месте Honor 14 ч.
В Asus разогнали GeForce RTX 5090 до 3,5 ГГц и установили несколько рекордов 15 ч.
Норвежцы представили человекоподобного робота для дома и семьи — он мягкий и обтекаемый 16 ч.
Дженсен Хуанг снял с DeepSeek обвинения в обвале акций Nvidia — это инвесторы всё не так поняли 18 ч.
На первых смарт-часах OnePlus Watch 3 обнаружена нелепая ошибка, которую невозможно исправить 19 ч.