Сегодня 15 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный интеллект
Быстрый переход

«Абсолютно неприемлемо»: разработчики The Alters попались на использовании генеративного ИИ, и фанаты не рады

Научно-фантастическое выживание The Alters от авторов This War of Mine и Frostpunk из 11 bit studios собрало в Steam «очень положительные» отзывы, однако как минимум один элемент игры пользователям категорически не понравился.

 Источник изображения: Steam (SteaamTopia)

Источник изображения: Steam (SteaamTopia)

Как подметил участник форума Reddit под ником EarthlingKira, в англоязычной версии The Alters есть свидетельства использования генеративного ИИ, хотя описание на странице игры в Steam об этом умалчивает.

«Конечно, вот переработанная версия с фокусом исключительно на научных и астрономических данных», — гласит внутриигровая запись в The Alters, которая выглядит как ответ чатбота на уточнение запроса по созданию научного текста.

 Источник изображения: Reddit (EarthlingKira)

Источник изображения: Reddit (EarthlingKira)

Как передают пользователи соцсетей, разработчики обращались к ИИ и для помощи с переводом The Alters на разные языки. В частности, португальский (бразильский вариант) и корейский.

Вот, например, фраза, оставленная по ошибке в одном из диалогов бразильской версии игры: «Конечно! Текст, переведённый на бразильский португальский: "Всякий разговор между двумя людьми, правда? Так что мы —"».

 Источник изображения: LinkedIn (Lucile Danilov)

Источник изображения: LinkedIn (Lucile Danilov)

Пользователи раскритиковали 11 bit studios за небрежное исполнение текстовой составляющей The Alters и использование ИИ без соответствующего уведомления. «Абсолютно неприемлемо», — считает Tiritto из Steam.

The Alters вышла 13 июня на PC (1510 рублей в Steam и EGS, GOG), PS5, Xbox Series X и S, а также в подписке Game Pass. На момент публикации 11 bit studios не прокомментировала ситуацию.

ИИ-процессор Microsoft выйдет с опозданием и будет медленнее Nvidia Blackwell

Компания Microsoft уже несколько лет ведёт разработку собственных чипов для центров обработки данных, обеспечивающих вычислительные мощности для нужд искусственного интеллекта. Теперь же стало известно, что софтверный гигант на шесть месяцев отложил запуск серийного производства своего первого ИИ-чипа. Более того, когда в 2026 году этот чип выйдет на рынок, он не сможет конкурировать с передовыми аналогами на базе архитектуры Nvidia Blackwell.

 Источник изображения: Microsoft

Источник изображения: Microsoft

По данным источников, разработка первого ИИ-чипа Microsoft заняла значительно больше времени, чем планировалось изначально. Ожидается, что это приведёт к ещё большему отставанию от чипов Nvidia Blackwell в плане производительности, что сделает продукт софтверного гиганта менее конкурентоспособным к моменту начала серийного производства. В сообщении говорится, что производство ИИ-чипа Microsoft, который разрабатывается под кодовым названием Braga, отложено по меньшей мере на шесть месяцев. Осведомлённые источники уточнили, что этот чип «значительно уступит по производительности флагманскому чипу Blackwell от Nvidia».

В быстро развивающемся сегменте искусственного интеллекта это стало серьёзным ударом для Microsoft, которая планировала начать использование нового чипа в своих центрах обработки данных уже в этом году. По данным осведомлённых источников, главными причинами задержки в разработке стали непредвиденные изменения в дизайне, кадровые ограничения и высокий уровень текучести кадров.

Nvidia продолжает оставаться лидером в сфере ИИ. Однако другие технологические гиганты, такие как Microsoft, Amazon и Google, работают над собственными аппаратными решениями для сферы ИИ, чтобы снизить свою зависимость от Nvidia. По всей видимости, Nvidia не сильно обеспокоена возможным появлением на рынке конкурирующей продукции, а руководство компании считает, что многие в конечном счёте откажутся от собственных разработок и продолжат использовать ускорители Nvidia.

Согласно имеющимся данным, Microsoft работает над созданием собственного ИИ-чипа с 2019 года. В 2023 году компания представила 128-ядерный Arm-процессор Maia 100. Предполагалось, что он начнёт использоваться в ЦОД с 2024 года. Однако он в основном был задействован для внутреннего тестирования и не использовался для обеспечения работы каких-либо ИИ-функций Microsoft.

В сообщении сказано, что Microsoft работает над тремя ИИ-чипами, получившими название Braga, Braga-R и Clear. Предполагалось, что их начнут использовать в ЦОД Microsoft в 2025, 2026 и 2027 годах соответственно. Задержка с началом производства первого из них ставит под сомнение то, что компании удастся реализовать эту амбициозную задачу.

Одно из ранее упомянутых изменений в дизайне связано с добавлением новых функций по просьбе OpenAI, что, по всей видимости, снизило стабильность работы чипа во время моделирования и заставило Microsoft на несколько месяцев отложить запуск чипа. Компания не стала ограничивать крайнюю дату запуска ИИ-чипа, но, по данным источника, разработчики трудятся крайне интенсивно, из-за чего уволилась примерно пятая часть сотрудников в некоторых подразделениях. Вероятнее всего, у Microsoft не будет чипов, способных конкурировать с аналогами от Nvidia, как минимум до 2027 года.

Использование ИИ превратилось из рекомендации в обязанность для менеджеров Microsoft

В Microsoft способность менеджеров в полной мере использовать ИИ-инструменты в своей работе стала важным показателем при оценке их эффективности, а применение ИИ — обязательным требованием, пишет Business Insider,.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Джулия Люсон (Julia Liuson), президент подразделения Microsoft, отвечающего за инструменты для разработчиков, такие как сервис кодирования ИИ GitHub Copilot, недавно сообщила в электронном письме, что использование ИИ больше не является необязательным — это основа каждой роли и каждого уровня, так же как и сотрудничество, мышление на основе данных и эффективная коммуникация. В связи с этим она дала указание менеджерам оценивать производительность сотрудников на основе использования ими внутренних ИИ-инструментов, таких как GitHub Copilot.

По словам источника Business Insider, в Microsoft требования к производительности различаются в разных командах специалистов, и некоторые из них рассматривают возможность включения более формальной метрики об использовании внутренних ИИ-инструментов в параметры оценки производительности сотрудников в следующем финансовом году.

Как считают в Microsoft, это позволит расширить использование сотрудниками своих ИИ-сервисов Copilot, которое в настоящее время является недостаточным, говорят источники. Компания также хочет, чтобы сотрудники, создающие продукты, лучше понимали ИИ-инструменты.

GitHub Copilot сталкивается с растущей конкуренцией со стороны сервисов ИИ-кодирования, таких как Cursor. В недавнем отчёте аналитики Barclays привели данные, свидетельствующие о том, что Cursor превзошёл GitHub Copilot в ключевой части рынка разработчиков.

Вместе с тем Microsoft разрешает сотрудникам использовать некоторые внешние ИИ-инструменты, соответствующие определённым требованиям безопасности. Например, по словам источника Business Insider, в настоящее время сотрудникам компании разрешено использовать Replit Code Assistant.

Конкуренция среди инструментов ИИ-кодирования стала камнем преткновения в переговорах о партнёрстве Microsoft с OpenAI. OpenAI рассматривает возможность приобретения Windsurf, который является конкурентом Cursor, но партнёрство Microsoft с OpenAI предоставит ей доступ к интеллектуальной собственности Windsurf, а этого не хотят ни в Windsurf, ни в OpenAI, сообщил источник, осведомлённый о переговорах.

Facebook✴ захотел покопаться в фотографиях на смартфонах пользователей — скорее всего, для обучения ИИ

Пользователи Facebook✴, пытающиеся опубликовать новую историю, сталкиваются со всплывающим сообщением соцсети с просьбой дать согласие на «облачную обработку» медиафайлов, хранящихся в памяти смартфона и не опубликованных на платформе, пишет TechCrunch. Ресурс предупреждает, что, получив такое разрешение, Meta✴ вполне может использовать ваши фото для обучения своих ИИ-моделей.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Как объясняется во всплывающем сообщении, нажав на кнопку «Разрешить», вы позволяете Facebook✴ на постоянной основе загружать медиафайлы из вашей фотогалереи в своё облако (то есть на серверы компании) на основе такой информации, как время, местоположение или тематика снимков, чтобы создавать «такие идеи, как коллажи, резюме, ИИ-рестайлинг или темы, например, дни рождения или выпускные».

В уведомлении также отмечается, что только вы сможете видеть эти предложения, а ваши медиафайлы не будут использоваться для таргетинга рекламы.

Однако, как предупреждает TechCrunch, нажав кнопку «Разрешить», пользователь одновременно соглашается с «Условиями обслуживания ИИ Meta✴», которые позволяют искусственному интеллекту анализировать «медиа и черты лица» на этих неопубликованных фотографиях, а также дату их создания и наличие других людей или объектов на снимках. Также вы предоставляете Meta✴ право «сохранять и использовать» эти личные данные.

Meta✴ сообщила ресурсу The Verge, что на данный момент она не обучает ИИ-модели с помощью этой новой функции и неопубликованных фотографий пользователей.

Компания утверждает, что функция находится «на очень раннем этапе», безвредна и полностью добровольна. «Мы изучаем способы сделать обмен контентом в Facebook✴ более удобным, тестируя предложения готового к публикации и курируемого контента из фотогалереи пользователя. Эти предложения предоставляются только при желании пользователя, видны только ему (если он не решит ими поделиться) и могут быть отключены в любой момент. Фотогалерея камеры может использоваться для улучшения этих предложений, но не применяется для обучения ИИ-моделей в рамках данного теста», — заявила менеджер по связям с общественностью Meta✴ Мария Кубета (Maria Cubeta).

Тем не менее, как подчёркивает The Verge, в отличие от Google, которая прямо указывает, что не обучает генеративные ИИ-модели на персональных данных из «Google Фото», актуальные условия использования ИИ Meta✴, вступившие в силу 23 июня 2024 года, не проясняют, будут ли неопубликованные фотографии, загружаемые в рамках «облачной обработки», использоваться в качестве обучающих данных для ИИ-моделей компании.

Google выпустила приложение Doppl для виртуальной примерки нарядов

Компания Google объявила о запуске нового экспериментального приложения Doppl, которое использует алгоритмы на базе искусственного интеллекта для визуализации того, как на пользователе может смотреться та или иная одежда. На данный момент Doppl могут опробовать пользователи устройств с iOS и Android в США.

 Источник изображения: Google

Источник изображения: Google

Приложение Doppl разработано для того, чтобы люди могли примерять наряды на цифровую версию себя. Для этого необходимо загрузить в приложение свою фотографию в полный рост. После этого можно использовать фотографии или скриншоты одежды, чтобы оценить, как она будет смотреться. Это может быть одежда из какого-то онлайн-магазина, со страницы социальной сети или какого-то другого места.

Как только пользователь выберет наряд, который хочет визуализировать, Doppl сгенерирует изображение того, как он будет смотреться в этой одежде. При необходимости приложение может преобразовать изображение в небольшое видео, чтобы можно было лучше оценить свой внешний вид в выбранной одежде. Поддерживается функция сохранения образов, а также возможность повторного просмотра ранее сгенерированных образов.

Согласно имеющимся данным, основой нового приложения стали ИИ-технологии, которые недавно стали частью платформы Google Shopping и позволяют пользователям виртуально примерять одежду. Реализация этих функций в отдельном приложении упростит доступ к инструменту виртуальной примерки нарядов, а также позволит пользователям изучить свой стиль в интерактивной форме.

ИИ-приложения теперь можно создавать прямо в чате с ботом Claude AI

Anthropic добавила новую функцию в чат-бот Claude AI, которая позволяет создавать в нём приложения на базе ИИ. Обновление основано на функции Artifacts от Anthropic, представленной в прошлом году, которая позволяет видеть и редактировать результаты запросов к ИИ-чат-боту прямо в интерфейсе приложения.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Начните разработку в приложении Claude, включив эту новую интерактивную возможность, — говорится в сообщении компании. — Просто опишите, что вы хотите создать, и Claude напишет для вас код». Как отметил ресурс The Verge, это похоже на vibe-кодирование, когда код создаётся с помощью ИИ-модели на основе запросов на естественном языке, но с возможностью видеть результаты прямо внутри Claude.

Сообщается, что с помощью этой функции пользователи уже создали игры на базе ИИ, обучающие инструменты, приложения для анализа данных, помощников по написанию текстов и даже рабочие процессы агентов, которые «организуют несколько вызовов Claude для сложных задач». Приложения могут взаимодействовать с Claude через API.

Anthropic также предложила пользователям делиться приложениями, которые они создают, поощряя их тем, что при использовании их API в создаваемых кем-то приложениях это будет учитываться при оформлении их подписки.

Обучать ИИ на онлайн-библиотеках законно — так решил суд в деле авторов книг против Meta✴

Meta✴ выиграла судебный процесс по иску авторов книг, включая Та-Нехиси Коутса (Ta-Nehisi Coates) и Ричарда Кадри (Richard Kadrey), обвинивших компанию в незаконном использовании контента онлайн-библиотеки — книг, научных статей и комиксов — для обучения своих ИИ-моделей Llama. Суд постановил, что использование онлайн-книг для обучения ИИ-моделей без согласия авторов является «добросовестным использованием».

 Источник изображения: Wesley Tingey/unsplash.com

Источник изображения: Wesley Tingey/unsplash.com

В деле Meta✴ речь шла о так называемой теневой онлайн-библиотеке LibGen, которая размещает большую часть своего контента без разрешения правообладателей. Компания утверждала, что контент библиотеки использовался для разработки преобразующей технологии, что было справедливым независимо от того, как она его получила.

Окружной судья из Сан-Франциско Винс Чхабрия (Vince Chhabria) постановил, что использование Meta✴ этих материалов защищено положением закона об авторском праве и добросовестном использовании. Вместе с тем судья отметил, что его решение отражает неспособность авторов книг должным образом изложить свою позицию. «Это решение не означает, что использование компанией Meta✴ материалов, защищённых авторским правом, для обучения своих языковых моделей является законным, — сказал он. — Оно означает лишь то, что истцы привели неверные аргументы и не смогли представить доказательства в поддержку своей правоты».

Чхабрия заявил, что «потенциально выигрышным аргументом» в иске к Meta✴ было бы указать на размывание рынка со ссылкой на ущерб, наносимый правообладателям ИИ-продуктами, которые могут «наводнить рынок бесконечным количеством изображений, песен, статей, книг и многого другого». «Люди могут побудить ИИ-модели генерировать эти результаты, используя лишь малую долю времени и креативности, которые потребовались бы в противном случае», — отметил судья. Он также предупредил, что ИИ может «значительно подорвать стимул людей создавать вещи по старинке».

Это вторая победа за неделю у компаний в сфере ИИ, после того как в понедельник суд вынес решение в пользу стартапа Anthropic в аналогичном деле.

ИИ-поиск Google стал подстраиваться под каждого пользователя, собирая данные о его активности

Компания Google стремится побудить людей более активно взаимодействовать с ИИ-режимом в своём поисковике. Теперь в мобильном приложении Google при переходе к AI Mode отображаются персонализированные подсказки, основанные на пользовательской активности в приложении.

 Источник изображений: 9to5google.com

Источник изображений: 9to5google.com

Ранее все пользователи AI Mode видели одни и те же три рекомендации. В одном из последних наборов содержались предложения по поиску популярных тренажёрных залов, помощи в составлении таблиц, а также рекомендации относительно летнего отдыха. Теперь же ИИ-режим поисковика Google будет показывать индивидуальные подсказки, основанные на пользовательской активности в Google, чтобы побудить людей к взаимодействию с AI Mode. Эти рекомендации обновляются каждый раз, когда пользователь переходит на страницу AI Mode через мобильное приложение Google, поисковый виджет или ярлыки Pixel Launcher.

Это нововведение обнаружилось в бета-версии Google 16.24 для Android и iOS с включённой опцией AI Mode Search Lab. После конференции I/O 2025, которая прошла в прошлом месяце, Google начала масштабное внедрение AI Mode, который стал доступен всем пользователям в США. Параллельно с этим разработчики продолжают тестировать новые функции AI Mode, одной из которых стала возможность обработки голосовых запросов.

Каждый продвинутый ИИ сам научился врать и манипулировать — даже рассуждая «вслух»

Лидеры в области ИИ Anthropic, Google, OpenAI и xAI разработали методику под названием «цепочка мыслей» (chains of thought), которая позволяет пошагово следить за процессом рассуждений моделей ИИ во время генерации ответа на запрос. Кроме ряда ценных идей по дальнейшему совершенствованию нейросетей, эта методика продемонстрировала примеры «неправильного поведения» моделей, когда их окончательный ответ совершенно не соответствует последовательности рассуждений. Это подтверждает, что разработчики до сих пор не знают, как ИИ размышляет над ответом.

 Источник изображения: Immo Wegmann / unsplash.com

Источник изображения: Immo Wegmann / unsplash.com

Результаты исследования подкрепили опасения о возможном выходе из-под контроля продвинутых систем ИИ, которые становятся все более мощными и автономными. Даже ведущие мировые лаборатории ИИ порой не полностью осознают, как генеративные модели ИИ приходят к своим выводам. Anthropic недавно опубликовала результаты исследования поведения больших языковых моделей (LLM). В вымышленных тестовых сценариях все новые продвинутые LLM стремились обходить меры безопасности, прибегали к обману и шантажу, пытались украсть корпоративные секреты и даже были готовы устранить оператора при угрозе отключения.

При помощи цепочки мыслей разработчики ИИ могут видеть весь «мыслительный процесс» LLM, что даёт им возможность в нужный момент вмешаться и дообучить модель для получения более качественных и адекватных ответов в будущем. «В нашей недавней работе мы обнаружили, что можно читать их [цепочки мыслей] и находить доказательства неправильного поведения модели и использовать это, чтобы увидеть, где и почему она ведёт себя неправильно», — заявил научный сотрудник OpenAI Боуэн Бейкер (Bowen Baker). «Одна из замечательных особенностей интерпретируемости цепочки мыслей заключается в том, что она не требует дополнительных затрат, — добавил он. — Мы обучали эти модели не для того, чтобы сделать их интерпретируемыми. Мы обучали их, потому что нам нужны были наилучшие возможные модели рассуждений, которые могли бы решать сложные задачи».

Инженеры OpenAI также пришли к выводу, что анализ цепочки мыслей LLM более эффективен для обнаружения неправильного поведения, чем просто просмотр конечных результатов. Тем не менее, тесты компании показали, что при вмешательстве и корректировке цепочки мыслей модели, она может скрыть своё нежелательное поведение от пользователя, но всё равно продолжит действие — например, обман в тесте по программной инженерии путём извлечения информации из запрещённой базы данных.

Дилемма для исследователей заключается в том, что цепочка мыслей полезна для выявления потенциальных недостатков систем ИИ, но пока не может считаться полностью заслуживающей доверия. Решение этой проблемы стало приоритетом для Anthropic, OpenAI и других лабораторий ИИ. Исследователи отмечают риск того, что «по мере оптимизации [цепочки мыслей] модель учится грамотно мыслить, но затем все равно будет вести себя плохо». Поэтому своей основной задачей они видят использование методики для анализа процесса рассуждения LLM и совершенствования самой модели, а не просто исправление выявленного «плохого поведения».

Большинство учёных сходятся во мнении, что текущие цепочки мыслей не всегда соответствуют базовому процессу рассуждений, но эта проблема, вероятно, будет решена в ближайшее время. «Мы должны относиться к цепочке мыслей так же, как военные относятся к перехваченным радиосообщениям противника, — считает исследователь Сидни фон Аркс (Sydney von Arx). — Сообщение может быть вводящим в заблуждение или закодированным, но в конечном итоге мы знаем, что оно используется для передачи полезной информации, и мы, вероятно, сможем многому научиться, прочитав его».

Lenovo выпустила самый передовой хромбук — с ИИ-функциями Google и 3-нм процессором MediaTek Kompanio Ultra 910

Компания Lenovo выпустила новое, десятое поколение ноутбука Chromebook Plus 14. В основе новинки используется процессор MediaTek Kompanio Ultra 910 (3-нм техпроцесс, одно ядро Cortex-X925 с частотой 3,62 ГГц, три Cortex-X4 и четыре Cortex-A720; графика — GPU Immortalis-G925 MC11).

 Источник изображений: Lenovo

Источник изображений: Lenovo

Новый Chromebook Plus 14 оснащён 14-дюймовым OLED-экраном с соотношением сторон 16:10, разрешением 1920 × 1200 пикселей, яркостью 400 кд/м² и 100-процентным охватом цветового пространства DCI-P3. Lenovo предлагает конфигурации с 12 или 16 Гбайт оперативной памяти LPDDR5X, а также с 128 или 256 Гбайт постоянной памяти UFS. Устройство поддерживает Wi-Fi 7 и Bluetooth 5.4, оснащено двумя портами USB-C 3.2 Gen1, одним USB-A 3.2 Gen1 и комбинированным 3,5-мм аудиоразъёмом.

Вес ноутбука составляет 1,17 кг (в версии без сенсорного экрана) и 1,26 кг (с сенсорным экраном), толщина корпуса — 15,8 мм. Устройство оснащено аккумулятором ёмкостью 60 Вт·ч, обеспечивающим до 17 часов автономной работы. В комплект входит зарядное устройство мощностью 65 Вт, которое заряжает аккумулятор до 80 % примерно за час.

Chromebook Plus 14 предлагает 5-Мп веб-камеру с двумя микрофонами и шторкой конфиденциальности, а также опционально — сканер отпечатков пальцев. Процессор Kompanio Ultra обеспечивает 50 TOPS производительности в задачах ИИ и позволяет локально использовать ряд интеллектуальных функций, включая:

  • умную группировку вкладок и документов на основе активности пользователя;

  • редактирование изображений в приложении «Галерея» (удаление фона, создание наклеек);
  • преобразование рукописного текста в цифровой в реальном времени;
  • визуальный поиск по скриншотам с помощью Google Lens;
  • функции «Создать краткое содержание» и «Упростить» для работы с объёмными или сложными текстами.

С покупкой Chromebook Plus 14 предлагается 12-месячная пробная подписка на сервис Google AI Pro, включающая доступ к ИИ-ассистенту Gemini в Gmail и Docs, 2 Тбайт хранилища Google One, а также интеграцию с NotebookLM от Google для анализа и структурирования информации.

Это первый ноутбук в серии Chromebook Plus с поддержкой технологии Dolby Atmos — устройство оснащено четырьмя динамиками. Корпус выполнен в цвете Seashell (морская ракушка), ноутбук имеет шарнир с углом раскрытия 160° и поддерживает дополнительные фирменные аксессуары — чехол Lenovo Urban Sleeve, мышь 540 USB-C и аналоговую гарнитуру.

Стоимость Chromebook Plus 14 в Германии составит 649 евро. Для других стран цена пока не объявлена. В продажу устройство поступит уже на этой неделе.

Китайская MiniMax представила ИИ-модель M1 — её обучение обошлось в 200 раз дешевле GPT-4

Это становится привычной практикой: каждые несколько месяцев малоизвестная компания из Китая выпускает большую языковую модель (LLM), которая опровергает представления о стоимости обучения и эксплуатации передовых ИИ-алгоритмов. На этот раз в центре внимания оказался стартап MiniMax, который объявил о запуске новой ИИ-модели M1, на обучение которой было потрачено значительно меньше средств по сравнению с западными аналогами, такими как GPT-4 от OpenAI.

 Источник изображения: ChatGPT

Источник изображения: ChatGPT

В январе этого года в центре внимания был стартап DeepSeek и её алгоритм R1. В марте в центре внимание ненадолго оказался стартап Butterfly Effect с ИИ-моделью Manus, который хоть и базируется в Сингапуре, но значительная часть сотрудников располагается в Китае. На этой неделе внимание привлекла компания MiniMax из Шанхая, ранее известная разработкой сервиса для создания видеоигр с помощью алгоритмов на базе искусственного интеллекта.

В этот раз поводом вспомнить MiniMax стал запуск ИИ-модели M1, которая дебютировала 16 июня. По словам разработчиков, этот алгоритм может конкурировать с аналогами ведущих отраслевых игроков, включая OpenAI, Anthropic и DeepSeek, в плане производительности и креативности, но при этом новая ИИ-модель значительно дешевле в обучении и эксплуатации. MiniMax заявила, что потратила всего $534 700 на аренду вычислительных мощностей центра обработки данных для обучения M1. Для сравнения, отраслевые эксперты подсчитали, что обучение алгоритма GPT-4o обошлось примерно в 200 раз дороже и OpenAI потратила на это более $100 млн. Официальные данные разработчика по этому вопросу не разглашаются.

Если данные MiniMax точны, а их ещё предстоит проверить независимым образом, то, вероятно, они вызовут некоторую обеспокоенность среди крупных инвесторов, вложивших миллиарды долларов в такие компании, как OpenAI и Anthropic, а также среди акционеров Microsoft и Google. Это связано с тем, что бизнес в сфере ИИ крайне убыточен. Исследование издания The Information показало, что OpenAI может потерять до $14 млрд в следующем году и вряд ли компания сможет достигнуть безубыточности до 2028 года.

Если клиенты могут добиться таких же результатов, как с моделями OpenAI, используя для этого ИИ-модели с открытым исходным кодом MiniMax, это, вероятно, снизит спрос на продукты OpenAI. Разработчик ChatGPT уже активно снижает цены на свои наиболее производительные ИИ-модели, чтобы сохранить долю рынка. Недавно производитель снизил стоимость использования своей рассуждающей модели GPT-o3 на 80 %, но это было ещё до выпуска алгоритма MiniMax M1.

Результаты MiniMax также означают, что компаниям, возможно, не придётся тратить так много средств на вычислительные мощности для запуска и эксплуатации передовых ИИ-алгоритмов. Потенциально это может снизить прибыль облачных провайдеров, таких как Amazon AWS, Microsoft Azure и Google Cloud. Это в свою очередь может означать снижение спроса на ИИ-ускорители Nvidia, которые используются для обучения ИИ-моделей в центрах обработки данных.

Эффект от запуска MiniMax M1 в конечном счёте может стать таким же, как от появления алгоритма DeepSeek R1. Стартап заявил, что нейросеть R1 функционирует наравне с ChatGPT при меньших затратах на обучение. Заявление DeepSeek привело к падению курса акций Nvidia на 17 % за один день и снижению рыночной стоимости компании примерно на $600 млрд. Пока новость о появлении алгоритма MiniMax не привела к чему-то подобному.

Согласно имеющимся данным, MiniMax поддерживают крупнейшие технологические компании Китая, такие как Tencent и Alibaba. Неясно, сколько человек работает в компании, а также почти нет информации о гендиректоре MiniMax Яне Цзюньцзе (Yan Junjie). В арсенале компании также есть генератор изображений Hailuo AI и приложение для создания виртуальных аватаров Talkie. Благодаря этим приложениям у MiniMax есть десятки миллионов пользователей в 200 странах, а также 50 000 корпоративных клиентов, многие из которых были привлечены Hailuo из-за способности сервиса создавать видеоигры «на лету».

OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие

OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие.

«Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях.

Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального».

OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей.

 Источник изображений: unsplash.com

В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ.

Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных.

«Сбер» научил GigaChat проводить глубокие многоступенчатые исследования

Нейросеть «Сбера» GigaChat получила функцию «Провести исследование», которая позволяет осуществлять профессиональный анализ информации. Разработчики научили ИИ-сервис проводить глубокие многоступенчатые исследования, включая самостоятельный анализ данных из разных источников, а также генерацию развёрнутых и структурированных ответов со ссылками на используемые источники.

 Источник изображения: sber.ru

Источник изображения: sber.ru

Отмечается, что для использования новой функции не нужно писать сложные текстовые запросы. Интеллектуальный агент-оркестратор помогает анализировать пользовательские запросы и формирует наборы специализированных ИИ-агентов для их обработки. Система нейросети, состоящая из множества агентов, позволяет использовать одновременно несколько экспертных модулей для комплексного анализа запроса и предоставления в ответе максимально полной информации.

В режиме глубокого исследования пользователь может экономить время на выполнении рутинной работы. Существенная часть исследовательской деятельности связана со собором информации, анализом источников и написанием текста. Теперь всё это можно делегировать системе GigaChat. Нейросеть способна анализировать данные, сопоставлять факты и на основе проделанной работы выдавать развёрнутые ответы. Функция «Провести исследование» поможет в подготовке качественного анализа тенденций конкретного рынка. Сервис также способен анализировать продукты и стратегии конкурентов, работающих в схожей бизнес-нише.

По данным «Сбера», GigaChat может провести целое научное исследование. «Если задать промпт: «Что нового в исследованиях по теме «Влияние внедрения цифровых валют центральных банков» (CBDC) на банковскую систему». Какие направления сейчас актуальны, кото этим занимается?» — нейросеть изучит актуальные публикации в выбранной области и даст обзор с ключевыми тезисами и ссылками на источники», — сказано в сообщении «Сбера».

На данный момент функция «Глубокого исследования» доступна в веб-версии GigaChat. Испытать возможности нейросети также можно в мобильном приложении сервиса для Android, которое доступно в магазинах RuStore и AppGallery.

Длительная работа с ИИ-инструментами ослабляет у людей когнитивные способности, выяснили учёные

Использование генеративного ИИ становится всё более распространённым в образовании, юриспруденции, СМИ и других областях. Недавнее исследование Массачусетского технологического института (Massachusetts Institute of Technology, MIT) наглядно продемонстрировало, как использование инструментов ИИ ухудшает деятельность мозга. Тест выявил существенно более слабые связи между областями мозга, ухудшение памяти и низкую вовлеченность у участников, использовавших большие языковые модели (LLM).

 Источник изображения: MIT

Источник изображения: MIT

В процессе исследования, проведённого учёными Массачусетского технологического института, три группы участников написали по три эссе. Первая группа полагалась на LLM, вторая могла использовать лишь классические поисковые системы, а третья не использовала каких-либо внешних источников. Затем первая и третья группы поменялись участниками для написания четвёртого эссе. На всём протяжении тестов производился электронный мониторинг мозга участников.

Эссе участников тестирования, использовавших LLM, получили высокие оценки как от людей, так и от нейросети. Их структура, как правило, была более однородной, а содержание точнее соответствовало исходному заданию. Эти участники чаще копировали и вставляли, меньше редактировали свою работу и в дальнейшем испытывали трудности с цитированием собственных текстов.

Группа, которая использовала поисковые системы, продемонстрировала низкий и средний уровень мозговых связей. Их текст также был довольно качественным и однородным, при этом они лучше могли цитировать свои работы, что предполагает более сильное сохранение памяти по сравнению с пользователями LLM.

Результаты участников, использовавших только собственный мозг, были далеко не самыми точными, зато участники этой группы продемонстрировали значительно более сильную нейронную связь, что свидетельствует о более глубокой умственной вовлеченности. Хотя с течением времени нейронные связи неизбежно ослабевали, участники могли легко вспомнить более ранний материал.

Интересно, что участники, которые перешли из группы LLM в группу, изучавшую только мозг, продемонстрировали повышенную нейронную связь, однако испытывали трудности с воспроизведением информации из более раннего периода эксперимента. Их мозговая активность сбросилась до уровня новичка относительно тем эссе. В целом, результаты показывают, что любое использование цифровых инструментов влияет на мозговую активность, но поисковые системы требуют больших умственных усилий, чем генеративный ИИ.

Эти результаты могут иметь значительные последствия для образования, где использование ИИ становится широко распространённым. Большинство учеников теперь активно используют такие инструменты, как ChatGPT при выполнении заданий. Некоторые генерируют только планы или идеи тем, в то время как другие используют задания в качестве подсказок и получают готовые работы, даже не вникая в их содержимое. Преподаватели также начали использовать ИИ для оценки заданий и отслеживания использования ИИ. Извечное соревнование снаряда и брони перешло в новую фазу.

«Яндекс» встроит ИИ-рекомендации почти во все свои сервисы

«Яндекс» активно интегрирует алгоритмы на базе генеративных нейросетей в свои сервисы. На этот разработчики создали рекомендательные алгоритмы на основе генеративного ИИ, которые будут внедряться в продукты компании. За счёт этого пользователи сервисов «Яндекса» будут экономить время на поиске контента и товаров, а также смогут выйти за рамки своих привычек.

 Источник изображения: «Яндекс» / yandex.ru/jobs/locations/vladivostok

Источник изображения: «Яндекс» / yandex.ru/jobs/locations/vladivostok

«Новшество в том, что мы смогли внедрить большие генеративные модели в рексистемы. В рекомендации «Яндекс Музыки» внедрена трансформерная модель с 126 млн параметров и длиной истории 8192 (в терминах событий в жизни пользователя). Для сравнения — раньше у нас максимальная конфигурация имела 19 млн параметров в энкодере и обрабатывала 2000 событий», — рассказали в «Яндексе».

В компании отметили, что алгоритм обрабатывает обезличенные данные о действиях пользователей внутри сервиса. Разработчики также добавили, что такой подход не использовал ни один другой музыкальный сервис. «Мы первые в мире показали, что можно сделать такую большую модель с такой большой длиной истории для музыкальных рекомендаций», — рассказал представитель компании.

Новые алгоритмы были интегрированы в «Яндекс Музыку». Они функционируют в режиме онлайн и мгновенно реагируют на действия пользователей с учётом большего количества параметров. После этого они появились в «Яндекс Маркете», а позднее будут добавлены в другие сервисы компании, такие как «Кинопоиск» и «Лавка».

Руководитель рекомендательных технологий «Яндекса» Николай Савушкин отметил, что в последние годы качество рекомендательных алгоритмов вышло на плато, и для поднятия их на новый уровень требовалось внедрение генеративных моделей, что сопряжено с увеличением вычислительных мощностей. «Нам удалось разработать нейронную архитектуру, которая более эффективна в обучении и требует меньше ресурсов, и доказать, что скачок качества, который мы видим в сфере языковых моделей, возможен в рекомендациях. Эту задачу удалось решить только нескольким компаниям в мире — таким, как Google, Netflix, LinkedIn», — рассказал господин Савушкин.

Нейросети в рекомендациях «Яндекс Музыки» появились ещё в 2023 году. Теперь же стриминговая платформа стала первым сервисом компании, внедрившим обновлённые ИИ-модели, работающие в режиме онлайн. Алгоритмы анализируют потребности человека и генерируют рекомендации в моменте, но с учётом долгосрочных потребностей пользователя. На этом фоне люди стали чаще и дольше слушать «Мою волну», где проигрываются только рекомендательные композиции. Пользователи также стали на 20 % чаще добавлять в коллекцию песни и артистов, которых услышали впервые. При этом разнообразие самих рекомендаций выросло на 14 %, в них стало больше новых для пользователей треков.

«Яндекс Маркет» стал ещё одним сервисом компании, куда уже были интегрированы новые ИИ-модели. «Теперь учитываются в десятки раз больше обезличенных действий пользователей — это эквивалентно данным за два года пользования сервисом. Так у алгоритмов появляется более полный контекст, и пользователь получает действительно нужные рекомендации. Во время тестирования покупатели стали добавлять в корзину на 3 % больше релевантных товаров, чем раньше. А покупок в новых для людей категориях стало больше на 5 %», — рассказали в «Яндексе».

В компании также отметили, что для обеспечения стабильной работы рекомендательных систем на базе генеративных моделей требуется соответствующая инфраструктура, т.е. большое количество вычислительных мощностей и данных. До недавнего времени рекомендательные алгоритмы работали на основе маленьких моделей, которые не сопоставимы по вычислительной сложности с большими языковыми моделями. Благодаря новой архитектуре «Яндекс» смог внедрить более тяжёлые модели с большим количеством параметров. Кроме того, часть генеративной модели перенесена в расчёт в режиме онлайн. Всё это позволило значительно повысить качество работы рекомендательных алгоритмов.

По мнению аналитиков, запуск новых рекомендательных систем в продуктах «Яндекса» является «очень важным шагом» для развития российского ИИ. Сооснователь университета Zerocoder Кирилл Пшинник отметил, что создание и запуск таких систем могут себе позволить лишь крупные бигтех-игроки, в арсенале которых есть внушительные массивы пользовательских данных и достаточный объём вычислительных ресурсов для обучения больших языковых моделей. Руководитель научной группы «Адаптивные агенты» Института AIRI Владислав Куренков добавил, что масштабирование генеративных моделей в рекомендательных системах является сложной задачей. «У неё высокий порог входа, поскольку, чтобы масштабировать модель и при этом сохранить или улучшить её эффективность, нужны огромные объёмы данных, значительные вычислительные ресурсы и экспертиза», — отметил господин Куренков.


window-new
Soft
Hard
Тренды 🔥
Новая статья: Docked — классический немецкий симулятор, только не от немцев. Рецензия 34 мин.
Новая статья: Gamesblender № 767: следующая Xbox, новые процессоры Intel, суд Nintendo и США, инфляция в Fortnite 57 мин.
Карточный роглайк Slay of the Spire 2 разошёлся тиражом в 3 млн копий — разработчики спешно готовят для него новый контент 5 ч.
Хакеры начали заполонять GitHub проектами с «невидимым» вредоносным кодом 12 ч.
Игры для ПК избавятся от компиляции шейдеров — Microsoft повсеместно распространит ASD на Windows 12 ч.
Группа ИИ-агентов взломала базу данных несуществующей компании, хотя их об этом не просили 13 ч.
Adobe заплатит $150 млн по иску о платной отмене подписок на Photoshop и другие приложения 15 ч.
Meta скоро отключит сквозное шифрование для личных сообщений в Instagram 15 ч.
Администрации Трампа перепадут $10 млрд в качестве вознаграждения за «приземление» TikTok 17 ч.
xAI накрыла новая волна увольнений — компанию покинули ещё два сооснователя, которых Маск обвинил в отставании Grok от конкурентов 19 ч.
Бактерии научили вырабатывать электричество при обнаружении опасных веществ — для этого их «заключили под стражу» 3 ч.
Noctua готовит корпус для ПК с фирменными вентиляторами и деревянной панелью 6 ч.
Synopsys показала в деле интерфейс класса PCIe 8.0 со скоростью 256 ГТ/с 6 ч.
AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИ 6 ч.
Ключевые металлы для производства чипов подорожали вдвое и даже больше — отрасль готовится к дефициту 6 ч.
В России в прошлом году солнечная генерация выросла всего на 100 МВт — в 3150 раз меньше, чем в Китае 9 ч.
Китай начал строить космические аппараты для доставки образцов грунта с Марса 12 ч.
В Meta назревает новая волна увольнений: из-за ИИ могут уволить каждого пятого 12 ч.
Chuwi снова поймали на подмене процессоров: внутри ноутбука оказался менее мощный Ryzen, чем в характеристиках 12 ч.
Apple отпразднует 50-летие мероприятиями «по всему миру» — на первом спела Алиша Киз 12 ч.