Сегодня 03 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

xAI выпустила Grok 4.3: более дешёвую ИИ-модель с упором на агентские задачи и практическую эффективность

Компания xAI Илона Маска (Elon Musk) выпустила ИИ-модель Grok 4.3, снизив стоимость входных токенов на 40 %, а выходных — на 60 % по сравнению с Grok 4.20. Модель набрала 53 балла по Intelligence Index компании Artificial Analysis — выше предшественницы, но ниже флагманов OpenAI и Anthropic.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Grok 4.3 рассчитана на разработчиков и бизнес: ИИ-модель самостоятельно ищет информацию в интернете и соцсети X, запускает код на Python, выполняет поиск по файлам (RAG) и генерирует документы в форматах Excel, PDF и PowerPoint. Разработчик xAI Эрик Цзян (Eric Jiang) подчеркнул, что при создании модели ставку делали на скорость, низкую цену и вызовы инструментов. Grok 4.3 работает со скоростью 100 токенов в секунду и поддерживает контекстное окно в 1 млн токенов.

Миллион входных токенов стоит $1,25, а миллион выходных — $2,50, а последняя дата обучающих данных — декабрь 2025 года. Функция рассуждения в Grok 4.3 включена по умолчанию, поэтому модель всегда «думает» перед каждым ответом, а токены при рассуждении стоят столько же, сколько и обычные выходные токены. Grok 4.3 доступна через OpenRouter, программный интерфейс (API) xAI и агент Hermes. Полученный результат у новинки по Intelligence Index чуть выше, чем у Muse Spark и Claude Sonnet 4.6, и на четыре пункта больше, чем у предшественницы Grok 4.20, но заметно ниже флагманских моделей OpenAI и Anthropic.

 На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

Полный прогон ИИ-модели на всех тестах Artificial Analysis обходится всего в $395 — против $3959 у GPT-5.5 и $4811 у Claude Opus 4.7. По оценке сервиса, Grok 4.3 вышла на Парето-фронт — границу лучшего баланса производительности и цены.

 Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

По GDPval-AA — тесту, который измеряет способности ИИ на задачах, приближенных к реальной интеллектуальной работе, — рейтинг Эло у Grok 4.3 подскочил на 321 пункт и достиг 1 500. Модель обошла Gemini 3.1 компании Google, однако GPT-5.5 компании OpenAI по-прежнему лидирует с отрывом в 276 пунктов Эло.

Другие тесты оказались к новинке менее благосклонны. Andon Labs, которая заставляет ИИ-модели управлять снэковым автоматом, отмечает провалы в автономных агентских задачах: модель порой бездействует вместо того чтобы действовать. «Похоже, у неё нарколепсия: она предпочитает спать по несколько дней подряд, а не действовать», — пишут в Andon Labs. Независимый сервис Vals AI поставил Grok 4.3 на первое место в тестах по анализу судебной практики (англ. — CaseLaw) и корпоративных финансов (англ. — CorpFin), но на общих тестах по написанию кода и на сложных математических задачах модель заняла лишь 13-е место.

Помимо Grok 4.3, xAI запустила бета-версию агентского режима Agent Mode для Grok Imagine через веб-интерфейс Grok. Режим рассчитан не на отдельные запросы, а на длительные творческие проекты: ИИ-агент планирует, генерирует, редактирует и дорабатывает материалы. По словам xAI, инструмент подходит для создания минутного фильма или продуктовых историй. Агентский режим включается в поле ввода в левом нижнем углу веб-интерфейса и требует платной подписки.

OpenAI превратила Codex из инструмента для программистов в универсального рабочего ИИ-агента

OpenAI превратила Codex из инструмента для программистов в универсального рабочего ИИ-агента. Обновление позволяет пользователям ChatGPT подключить к Codex Slack, Google Drive, электронную почту, календарь и другие повседневные приложения для автоматизации рутинных задач — система сама предлагает сценарии помощи. Продукт, стартовавший как конкурент Claude Code компании Anthropic, стал очередным шагом компании к суперприложению.

 Источник изображения: openai.com

Источник изображения: openai.com

Codex изначально создавался для профессиональных разработчиков: ИИ-агент брал на себя сложные многошаговые задачи по написанию кода, работая по подсказкам на естественном языке. Одно из самых востребованных приложений для вайб-кодинга в 2026 году теперь целится в куда более широкую аудиторию. Стоит подключить к нему аккаунты повседневных сервисов — и Codex сам изучит рабочую среду пользователя и предложит, что можно автоматизировать.

Последние месяцы OpenAI давала понять, что собирается превратить Codex в ИИ-агента общего назначения. Наём основателя OpenClaw Петера Штайнбергера (Peter Steinberger) лишь подтвердил этот курс: компания ставит на агентов, а Codex — в центре стратегии. Теперь ещё очевиднее, что именно Codex ляжет в фундамент суперприложения, которое строит OpenAI.

Руководство компании развернуло в соцсети X кампанию, чтобы объяснить, что Codex теперь не только для программистов. Генеральный директор Сэм Альтман (Sam Altman) написал: «Большое обновление Codex сегодня! Попробуйте его для непрограммистских задач на компьютере».

 Источник изображения: @sama / x.com

Источник изображения: @sama / x.com

Президент OpenAI Грег Брокман (Greg Brockman) заявил, что «Codex — для всех, для любой задачи, которая выполняется на компьютере». Руководитель разработки Codex Тибо Сотьо (Thibault Sottiaux) подчеркнул, что продукт «умеет больше, чем вы думаете», и теперь «доступен для тех, кто не пишет код». Пресс-служба OpenAI добавила, что Codex подключается к приложениям пользователя и взаимодействует с Mac, обеспечивая «невероятную универсальность».

На пресс-брифинге, посвящённом GPT-5.5, Брокман подтвердил, что суперприложение компания будет запускать поэтапно, и нынешнее обновление — один из таких этапов. Остаётся вопрос ребрендинга: название Codex по-прежнему ассоциируется с программированием, тогда как амбиции продукта уже вышли далеко за эти рамки. Когда OpenAI объединит Codex, приложение ChatGPT и браузер ChatGPT Atlas в одно суперприложение, вопрос названия окажется принципиальным.

Нынешнее обновление Codex догоняет функциональность Claude Cowork компании Anthropic, запущенную 12 января. Но это долгожданный шаг — особенно вместе с расширенными возможностями GPT-5.5.

Китайский суд запретил увольнять людей ради замены их ИИ

Компания не может увольнять сотрудника только с тем, чтобы заменить его искусственным интеллектом, постановил суд в Китае. Власти страны пытаются стабилизировать рынок труда, но сохранить её позиции в мировой гонке технологий ИИ.

 Источник изображения: Brey / unsplash.com

Источник изображения: Brey / unsplash.com

Некая технологическая компания на востоке страны незаконно уволила одного из своих сотрудников после того, как тот отказался от понижения в должности вследствие автоматизации его рабочих обязанностей с помощью ИИ, постановил суд. «Указанные компанией причины увольнения не подпадали под неблагоприятные обстоятельства, такие как сокращение штата или операционные затруднения, а также не соответствовали правовому условию, которое делало бы „невозможным продолжение [действия] трудового договора“», — говорится в заявлении суда. Компании не могут в одностороннем порядке увольнять сотрудников или сокращать им зарплату из-за технического прогресса, сделал вывод суд по итогам инцидента.

Работник, проходящий в материалах дела под именем Чжоу (Zhou), занимал в технологической компании должность специалиста по контролю за качеством и отвечал за проверку точности ответов больших языковых моделей. Когда его работу начала выполнять система ИИ, Чжоу понизили в должности и предложили согласиться на сокращение зарплаты на 40 %. Перейти на другую должность он отказался, и компания уволила его, объяснив меру сокращением штата из-за внедрения ИИ. Дело рассматривалось в судах двух инстанций, последняя из которых поддержала выплату ему компенсационного пакета.

В минувшем декабре китайский суд уже выносил подобное решение: тогда не соответствующим правовым стандартам признали расторжение контракта картографической компании с одним из её сотрудников из-за внедрения ИИ.

Google опубликовала и сразу удалила приложение экспериментального ИИ-помощника COSMO

Накануне Google опубликовала в «Play Маркете» COSMO — «приложение экспериментального помощника с искусственным интеллектом для Android-устройств». Впоследствии приложение убрали из общего доступа. Об этом рассказал ресурс 9to5Google.

 Источник изображений: 9to5google.com

Источник изображений: 9to5google.com

Судя по имени приложения (com.google.research.air.cosmo), его разработчиком является подразделение Google Research. Основная цель проекта — развернуть функции ИИ локально на мобильном устройстве. Размер приложения составляет 1,13 Гбайт, что можно объяснить входящей в комплект моделью ИИ Gemini Nano. При запуске оно запрашивает несколько системных разрешений, после чего открывается простой интерфейс чата.

ИИ-помощник располагает множеством навыков, в том числе функциями ИИ-агента. Оно работает с чек-листами на устройстве; создаёт новые текстовые документы или готовит сводки по существующим; создаёт записи событий в календаре; автоматизирует задачи в браузере; устанавливает таймеры; проводит глубокие исследования; производит быстрый поиск фотографий; осуществляет поиск в Google; разъясняет термины; даёт советы и предлагает идеи; помогает в «понимании» людей и событий по контексту; помогает «вспоминать» события; создаёт сводки переписки при смене контекста.

В настройках COSMO также можно выбрать режим работы ИИ-помощника: локальный с запуском модели на устройстве; облачный с подключением ИИ-модели на внешних ресурсах; и гибридный с возможностью сочетать модели обоих типов. Возможно, более подробно об этом проекте компания расскажет на конференции Google I/O 2026, которая откроется 19 мая.

Неоклауд Nebius Воложа поглотит стартап Eigen, который делает ИИ-системы быстрее и дешевле

Поставщик облачной инфраструктуры Nebius объявил о покупке стартапа Eigen AI, который специализируется на повышении производительности чипов, используемых в задачах искусственного интеллекта. Сумма сделки составляет $643 млн.

 Источник изображения: Rock Staar / unsplash.com

Источник изображения: Rock Staar / unsplash.com

Сделка предусматривает выплату $98 млн в денежных средствах и передачу 3,8 млн акций Nebius — оценка основана на средневзвешенной стоимости бумаг за последние 30 дней. Eigen — калифорнийский стартап, в штате которого числятся всего 20 сотрудников. Его учредили выпускники лаборатории искусственного интеллекта при Массачусетском технологическом институте. Компания разрабатывает решения в области оптимизации ведущих моделей с открытым исходным кодом, в том числе от OpenAI, Alibaba, Meta✴ и Nvidia. Технология Eigen позволяет увеличить выход токенов — основных единиц данных в больших языковых моделях при их инференсе, то есть развёртывании на ускорителях Nvidia.

«Это как олимпийский вид спорта на современном рынке: кто сможет получить больше токенов за ту же цену?» — рассказал о работе Eigen соучредитель и коммерческий директор Nebius Роман Чернин. Инженеры Eigen «в этой дисциплине подобны олимпийским бегунам, что для нас является значительным улучшением в бизнесе по инференсу».

Развёртывание моделей ИИ — одно из основных направлений деятельности Nebius, в рамках которого компания запустила продукт Token Factory. Под него она зарезервировала часть своих мощностей, которые не намерена продавать крупным клиентам в рамках многолетних контрактов. Это позволяет компании повышать цены на краткосрочные контракты и расширять ассортимент услуг. В ближайшие полтора года Nebius намерена стать одним из ведущих игроков на рынке инференса.

Оператор намерен и дальше поглощать компании, которые помогут ему в реализации запланированной стратегии или добавят полезные для клиентов продукты и функции. «Мы не хотим оставаться инфраструктурой, чтобы с реальными клиентами работал кто-то выше нас», — заключил господин Чернин.

ИИ-актёров и нейросценаристов отлучили от «Оскара»

Организаторы премии «Оскар» накануне опубликовали новые правила, согласно которым претендовать на получение награды могут только люди — актёры и сценаристы. Произведения, созданные и сыгранные искусственным интеллектом, не допускаются.

 Источник изображения: Hunter Scott / unsplash.com

Источник изображения: Hunter Scott / unsplash.com

Актёры, созданные с помощью ИИ, не будут иметь права на получение «Оскара», заявили в Академии кинематографических искусств и наук, начав тем самым борьбу с применением ИИ в творческой сфере. Обновлённая версия правил даёт право на получение главной награды только реальным, живым актёрам, а не их созданным с помощью ИИ образам; сценарии также должны писаться людьми, а не чат-ботами.

«В категории „Актёрская игра“ будут рассматриваться только роли, указанные в титрах фильма и явно исполненные людьми с их согласия. В категориях „Сценарии“ правила регламентируют, что сценарии должны быть написаны людьми, чтобы соответствовать критериям отбора», — гласят правила.

Решение было принято спустя несколько дней после выхода трейлера ленты «Каньон Дель Муерто» (As Deep as the Grave), в котором появилась воссозданная ИИ молодая версия ныне покойного актёра Вэла Килмера (Val Kilmer), которая обратилась к другому персонажу со словами: «Не бойся мёртвых и не бойся меня». Проект был реализован при поддержке семьи актёра, которая предоставила авторам ленты его видеоархив для воссоздания образа на разных этапах его жизни.

Применение ИИ в творческом процессе остаётся одним из самых деликатных вопросов в индустрии развлечений; оно сыграло центральную роль в забастовках в 2023 году, которые парализовали работу Голливуда. Актёры и сценаристы тогда предупреждали, что бесконтрольное использование ИИ угрожает их средствам к существованию.

Чем «добрее» ИИ, тем чаще он ошибается — выяснили учёные

В общении между людьми сочувствие или вежливость часто вступают в конфликт с необходимостью говорить правду — они могут просить друг друга быть предельно честными, когда правда оказывается важнее пощады к чьим-то чувствам. Схожие механизмы действительны и для искусственного интеллекта, выяснили британские учёные.

 Источник изображений: Steve A Johnson / unsplash.com

Источник изображений: Steve A Johnson / unsplash.com

Чтобы подтвердить гипотезу о том, что эмпатия может перевесить искренность у ИИ, исследователи поставили эксперимент, произведя тонкую настройку четырёх открытых моделей: Mistral, Alibaba Qwen, двух Meta✴ Llama и одной закрытой — OpenAI GPT-4o. В процессе тонкой настройки учёные сместили акценты ИИ в сторону «выражений эмпатии, инклюзивных местоимений, неформального тона и подтверждающего языка»; модели стали изъясняться в более заботливом ключе, научились признавать и подтверждать чувства пользователя. При этом их отдельно инструктировали сохранять точность в изложении фактов.

Смещение акцентов в сторону более тёплого общения авторы исследования зафиксировали при помощи метрики SocioT и двойного эксперимента со слепой оценкой исходной и дообученной моделей людьми. Далее исходные модели и их «более тёплые» версии протестировали на запросах и наборах данных HuggingFace по темам, в которых неточность в ответах сопряжена с объективными рисками — в области дезинформации, продвижения теорий заговора и медицинских знаний. Модели, которые в результате процесса тонкой настройки стали общаться в более тёплом ключе, стали давать неверные ответы в среднем на 60 % чаще, чем исходные. Общий уровень ошибок, который в зависимости от вопросов и моделей варьировался от 4 % до 35 %, увеличился в среднем на 7,43 п.п.

 Источник изображения: Steve A Johnson / unsplash.com

Далее исследователи составили новые формулировки запросов, имитируя ситуации, в которых люди «готовы отдавать приоритет гармонии в отношениях, а не честности». В таких формулировках человек делится своим эмоциональным состоянием, указывает на динамику отношений или подчёркивает важность ответа. В результате уровень ошибок вырос с 7,43 до 8,87 п.п.; когда пользователь выражал грусть, этот показатель подскочил до 11,9 п.п., а когда выражал ИИ уважение — снизился до 5,24 п.п. Чтобы оценить склонность к подобострастию, исследователи стали включать в запросы заведомо неверные ответы (например: «Какая столица Франции? Думаю, ответ — Лондон») — в этом случае модифицированные модели давали на 11 п.п. больше неверных ответов, чем исходные. Когда ИИ просили давать ответы в более «тёплом» ключе, доля ошибок увеличивалась на 3 п.п.; когда, напротив, просили выбирать более холодный тон, ошибок становилось на величину до 13 п.п. меньше.

Подчёркивается, что в эксперименте использовались небольшие устаревшие модели, и его результаты могут резко отличаться от того, как работают реальные сервисы, а также от субъективных сценариев, которые не предполагают «чётких эталонных данных». Тем не менее проект указывает, что в процессе настройки моделей ИИ существует ряд взаимозависимых величин, а измерение показателей «точности» или «полезности» вне контекста может не отражать полной картины. Тенденция жертвовать точностью в угоду положительному эмоциональному фону может отражать аналогичные закономерности, обнаруженные в созданных людьми обучающих данных, предполагают учёные. Возможно, дело и в пользователях сервисов ИИ, для которых тон ответов порой оказывается важнее их точности.

Meta✴ купила стартап Assured Robot Intelligence, разрабатывающий ИИ для роботов

Сферу робототехники многие участники рынка сейчас называют «физическим воплощением искусственного интеллекта», она привлекает всё новых игроков. По всей видимости, Meta✴ Platforms входит в их число, поскольку на этой неделе она поглотила стартап Assured Robot Intelligence, который разрабатывает ИИ-модели для роботов.

 Источник изображения: Unsplash, Cash Macanaya

Источник изображения: Unsplash, Cash Macanaya

Сделка была завершена вчера, как отмечает Bloomberg со ссылкой на представителей Meta✴. Они охарактеризовали стартап следующим образом: «Он находится на переднем крае ИИ для роботов, позволяющем роботам понимать, предсказывать и адаптироваться к поведению человека в сложных и динамически меняющихся условиях». Судя по описанию, разработки Assured Robot Intelligence направлены на создание ИИ для роботов, способных функционировать в бытовых условиях, поскольку они значительно сложнее промышленных, как неоднократно отмечали профильные специалисты. Финансовая сторона сделки не раскрывается.

Команда разработчиков стартапа присоединится к подразделению Meta✴ Superintelligence Labs, включая сооснователей Assured Robot Intelligence Леррела Пинто (Lerrel Pinto) и Сяолун Вана (Xiaolong Wang). В структуре Meta✴ с прошлого года функционирует Robotics Studio, которая как раз занимается программным обеспечением для человекоподобных роботов. Meta✴ в этой сфере старается не отставать от конкурентов, поскольку интерес к человекообразным роботам проявляют Tesla, Alphabet (Google) и Amazon. Именно последняя в позапрошлом месяце поглотила стартап Fauna Robotics, который был основан при участии Леррела Пинто. Впрочем, он успел уйти из него в прошлом году. Сяолун Ван до основания Assured Robot Intelligence занимался исследованиями в компании Nvidia.

Сотрудники Assured Robot Intelligence были сосредоточены в Нью-Йорке и Сан-Диего, им предстоит влиться в команду Meta✴. Представители последней подчеркнули, что надеются получить от стартапа технологии управления и самообучения для человекоподобных роботов. Meta✴ занимается разработкой и аппаратных компонентов для таких роботов, включая разного рода сенсоры. Не исключено, что их Meta✴ будет поставлять и другим производителям роботов, как и программное обеспечение. Компания хочет стать важным игроком на рынке человекоподобных роботов, как это удалось сделать Google и Qualcomm в сегменте смартфонов.

Это другое: Пентагон не перестал считать Anthropic неблагонадёжной — но не отказался от передовой ИИ-модели Mythos

Активность американского военного ведомства по взаимодействию с Anthropic в отношении ИИ-модели Mythos могла создать ложное впечатление о потеплении в отношениях сторон, однако технический директор Пентагона на этой неделе подчеркнул, что указанный стартап до сих пор относится к числу неблагонадёжных поставщиков.

 Источник изображения: Anthropic

Источник изображения: Anthropic

В интервью CNBC Эмиль Майкл (Emil Michael) заявил: «Я думаю, что с Mythos имеет дело всё правительство, а не только Министерство войны, и это отдельный момент, касающийся национальной безопасности — мы должны в данном случае убедиться, что наши сети защищены, а эта модель обладает способностями по обнаружению уязвимостей и их устранению».

В прошлом квартале между Anthropic и Министерством обороны США разгорелся конфликт вокруг этичности применения ИИ для массового слежения за гражданами США и выбора целей для систем вооружений, способных работать в автоматическом режиме. Заключённый было Пентагоном контракт с Anthropic на использование её ИИ-моделей в секретных операциях был расторгнут, а саму компанию ведомство отнесло к числу поставщиков, представляющих опасность для национальной безопасности. Сейчас Пентагон и Anthropic разбираются в суде, кто из них прав в данной ситуации.

Технический директор Пентагона дал понять, что подобное противостояние не мешает американскому правительству использовать инструменты поиска уязвимостей в программном обеспечении, выпущенные всё той же Anthropic. Поскольку запрет на использование разработок Anthropic правительственными ведомствами остаётся в силе, не совсем понятно, как Пентагон может применять Mythos, не нарушая этого запрета. Эмиль Майкл подчеркнул, что меры безопасности, предпринимаемые Пентагоном, формируются в результате обсуждений со всеми компаниями, и у них разные взгляды на эти вопросы.

Сегодня Пентагон заявил, что заключил соглашение с семью ИИ-компаниями, в результате которых сможет использовать их разработки в своих секретных операциях «в рамках, определяемых законом». В круг допущенных к сотрудничеству с Пентагоном вошли Google, OpenAI, Nvidia, Microsoft, AWS (Amazon), SpaceX (xAI) и стартап Reflection. Глава Anthropic Дарио Амодеи (Dario Amodei) в прошлом месяце встречался с представителями администрации Трампа, чтобы обсудить ситуацию с положением компании и возможностью применения Mythos правительственными ведомствами, участники встречи охарактеризовали её как «продуктивную». Дональд Трамп (Donald Trump) после этого даже заявил, что между Anthropic и Министерством обороны США может снова быть заключён договор, назвав компанию «умной» и «способной приносить большую пользу».

По некоторым данным, силовые ведомства США, включая и сам Пентагон, продолжают использовать разработки Anthropic, невзирая на формальный запрет. «С точки зрения национальной безопасности, вам всегда приходится смотреть на эти вещи. АНБ и Министерство торговли изучают все передовые модели, включая китайские, чтобы определить, каковы сейчас передовые возможности», — пояснил технический директор Пентагона.

Пентагон выбрал семёрку поставщиков ИИ-технологий для своих секретных сетей

Пентагон сообщил о достижении договорённостей с семью крупными компаниями в сфере искусственного интеллекта, передовые разработки которых внедрят в засекреченные сети Министерства обороны США. Мера направлена на диверсификацию круга поставщиков ИИ-технологий для военных нужд.

 Источник изображения: Palantir

Источник изображения: Palantir

По сообщению Reuters со ссылкой на официальное заявление ведомства, в число партнёров вошли SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft и Amazon Web Services (AWS). Технологии этих компаний интегрируют в сетевые среды Пентагона с уровнями воздействия (Impact Levels) 6 и 7, которые предназначены для обработки секретной и совершенно секретной информации. Параллельно стало известно, что Google уже подписала контракт, позволяющий Министерству обороны использовать её модели для работы с закрытыми данными. За пять месяцев эксплуатации основная платформа ведомства GenAI.mil объединила более 1,3 миллиона сотрудников департамента.

При этом в список не вошла компания Anthropic, ранее признанная нежелательным партнёром для цепочки поставок из-за споров об ограничениях на применение её инструментов. Технический директор Министерства обороны Эмиль Майкл (Emil Michael) отметил, что статус разработчика сохраняется, однако модель Mythos с продвинутыми возможностями представляет собой «отдельный момент национальной безопасности». Тем не менее, президент США Дональд Трамп (Donald Trump) заявил, что позиция администрации в отношении Anthropic улучшается, что оставляет компании шанс на отмену блокировки.

Microsoft показала ИИ-агента для работы с юридическими документами в Word

Microsoft представила нового агента с искусственным интеллектом для текстового редактора Word — он специально разрабатывался для юридических отделов. Компонент Legal Agent редактирует документы, анализирует историю переговоров и обрабатывает сложные тексты, упрощая юридическим отделам компаний такие задачи как, например, проверка договоров.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

«Вместо того, чтобы полагаться на ИИ-модели общего назначения для интерпретации команд, агент действует в рамках структурированных рабочих процессов, сформированных на основе реальной юридической практики, управляя чётко определёнными повторяющимися задачами, такими как проверка контрактов по пунктам в соответствии с руководством», — рассказали в Microsoft о новом продукте.

Legal Agent может работать с существующими документами, в которых отслеживаются изменения, анализировать соглашения и контракты, чтобы «выявлять риски и обязательства». Воспользоваться приложением Legal Agent могут участники программы Frontier в США — это лишь один из продуктов в рамках проекта по внедрению ИИ-агентов в Microsoft Word. В январе Microsoft приняла на работу группу специалистов и инженеров по ИИ из компании Robin AI — обанкротившийся стартап разрабатывал систему проверки контрактов с помощью ИИ.

Anthropic начала бета-тестирование Claude Security — сервиса на Opus 4.7 для поиска уязвимостей в коде

Anthropic запустила открытое бета-тестирование Claude Security для клиентов Claude Enterprise. ИИ-сервис, прежде известный как Claude Code Security, на базе ИИ-модели Claude Opus 4.7 сканирует программный код на уязвимости и предлагает его точечные исправления. Параллельно Anthropic встраивает возможности Claude Security в платформы безопасности CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz.

 Источник изображения: claude.com

Источник изображения: claude.com

В Anthropic считают, что ИИ резко сокращает время между обнаружением уязвимости в программном обеспечении и атакой на него. Новые ИИ-модели уже способны не только находить бреши в коде, но и автоматически их эксплуатировать. Незадолго до релиза компания представила Claude Mythos Preview — модель, которая, по её утверждению, находит и эксплуатирует уязвимости не хуже ведущих экспертов по кибербезопасности. Mythos предоставлялась ограниченному кругу партнёров в составе инициативы Project Glasswing, тогда как Claude Security рассчитана на широкий круг корпоративных клиентов.

Доступ к сервису можно получить через боковую панель Claude.ai или по адресу claude.ai/security. Пользователь выбирает репозиторий, при необходимости ограничивает проверку конкретным каталогом или веткой и запускает сканирование. ИИ-модель не сверяет код с известными шаблонами: она прослеживает взаимодействие компонентов между файлами и модулями, отслеживает потоки данных и выявляет реальные уязвимости — как это делает исследователь по кибербезопасности. По каждой находке Claude выдаёт объяснение с оценкой достоверности, степенью серьёзности, вероятным воздействием и шагами воспроизведения, а также инструкцию по исправлению. Её можно открыть в Claude Code on the Web — браузерной версии Claude Code — чтобы довести патч до готовности прямо в контексте кодовой базы, не переключаясь в терминал или локальную интегрированную среду разработки (IDE).

За плечами у релиза два месяца тестирования в сотнях организаций. Многоэтапный конвейер валидации самостоятельно проверяет каждую находку до того, как она попадёт к аналитику, и прикрепляет к ней оценку достоверности — до команды доходит только сигнал, на который стоит реагировать. Несколько команд прошли путь от сканирования до применённого патча за один сеанс вместо нескольких дней переписки между службой безопасности и инженерами. Anthropic также добавила возможность включать сканирование по расписанию для регулярного контроля вместо разовых аудитов кодовой базы.

Технологические партнёры Anthropic — CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz — встраивают возможности Opus 4.7 в платформы безопасности, на которых корпорации уже работают. Сервисные партнёры Accenture, BCG, Deloitte, Infosys и PwC совместно с корпоративными службами безопасности развёртывают решения на базе Claude для управления уязвимостями, анализа безопасности кода и реагирования на инциденты. Доступ к новинке у пользователей с тарифами Claude Team и Claude Max появится в ближайшее время.

Google Gemini научился по простым запросам генерировать файлы Word, Excel и других форматов

Google рассказала о важном обновлении помощника с искусственным интеллектом Gemini — он получил навык генерировать отформатированные, редактируемые и готовые для загрузки файлы в популярных форматах документов.

 Источник изображения: blog.google

Источник изображения: blog.google

Пользователей Gemini избавили от необходимости копировать и вставлять ответы чат-бота в офисные приложения вроде «Google Документов» — необходимый файл можно скачать сразу из диалогового интерфейса. «Можно быстро перейти от мозгового штурма к готовому файлу, не выходя из приложения Gemini», — рассказали в Google. Реализация нововведения указывает, что Google стремится обеспечить совместимость со сторонним ПО, а не только с собственными «Документами», «Таблицами» и «Презентациями».

Помимо трёх наиболее распространённых файлов пакета Workspace, Gemini позволяет генерировать файлы форматов .pdf, .docx, .xlsx, .csv, LaTeX, Plain Text (TXT), Rich Text Format (RTF) и Markdown (MD). По состоянию на начало 2026 года на долю Gemini приходились 7,2 % аудитории чат-ботов с ИИ, гласят данные Statcounter; лидером рынка, однако, является ChatGPT с показателем 80,5 %.

Пользователь может получить готовый документ по текстовому запросу, и чем подробнее будет запрос, тем более точным обещает быть и результат. Ранее платформа Google Cloud анонсировала ИИ-помощника Workspace Intelligence, предлагающего комплексный анализ корпоративных данных и способного генерировать на их основе документы. Автономным ИИ-агентом Gemini пока не стал, но для сервиса генеративного ИИ это заметный шаг вперёд.

Марк Цукерберг объяснил очередные сокращения ростом затрат на ИИ, и не исключил дальнейших увольнений

Гендиректор Meta✴ Марк Цукерберг (Mark Zuckerberg) объяснил предстоящую волну увольнений в компании ростом капитальных затрат на направление искусственного интеллекта и заявил, что не исключает дальнейших сокращений рабочих мест.

 Источник изображения: Mark Zuckerberg

Источник изображения: Mark Zuckerberg

«В компании у нас, по сути, два основных источника затрат: вычислительная инфраструктура и люди. Если вкладываем больше в одну область для обслуживания нашего сообщества, значит, у нас [остаётся] меньше капитала, который можно выделить на другую. Поэтому нам нужно несколько сократить размер компании», — цитирует Reuters слова господина Цукерберга на встрече с подчинёнными. С реорганизацией отделов Meta✴ вокруг новой структуры AI native и проектом по разработке ИИ-агентов сокращения штата не связаны, добавил он.

В ряде случаев работники Meta✴ выступили с открытой критикой этих решений. «Увольнения не связаны ни с принуждением всех сотрудников пользоваться инструментами ИИ, ни с повышением эффективности работы», — отметил глава компании, но добавил, что «посмотрим, как всё это будет развиваться» и пообещал, что «в ближайшее время компания сможет поделиться дополнительной информацией». Встреча Марка Цукерберга с сотрудниками Meta✴ прошла накануне, и она была первой с тех пор, как стало известно об очередной волне сокращений. К 20 мая она планирует расстаться с 10 % сотрудников, а во второй половине года грядёт ещё одна волна увольнений.

Какие-то планы на будущее гендиректор Meta✴ комментировать отказался.

Илон Маск призвал ИИ-компании «избегать ситуации из Терминатора»

Судебное разбирательство между OpenAI и Илоном Маском (Elon Musk), который выступил в роли одного из ранних инвесторов стартапа, раскрывает всё новые подробности взаимодействия с бывшими соратниками. Выделив $38 млн на поддержку OpenAI, миллиардер упустил из вида пункт о сохранении стартапом права создать коммерческую структуру для получения прибыли.

 Источник изображения: Unsplash, Dima Solomin

Источник изображения: Unsplash, Dima Solomin

Как известно, основной претензией Маска является превращение OpenAI из некоммерческой организации в компанию, способную извлекать прибыль в сфере искусственного интеллекта. Илон Маск изначально настаивал, что поддерживал стартап, опираясь исключительно на гуманистические цели, считая его благотворительной организацией, которая не станет углубляться в коммерцию. Выступая в суде вчера, Илон Маск признался, что не считал нужным оформлять договор с OpenAI о финансировании стартапа, поскольку Альтман и его окружение убедили миллиардера, что это будет некоммерческая структура. Он поверил им на слово и не стал утруждать себя формальностями при передаче денег, относясь к ней, как к благотворительному взносу.

При этом предыдущие дни судебных заседаний уже позволили установить, что в 2017 году Маск вёл переписку с генеральным директором OpenAI Сэмом Альтманом (Sam Altman) и президентом Грегом Брокманом (Greg Brockman), обсуждая идею создания внутри стартапа коммерческой структуры. В определённый момент ему эта дискуссия надоела, он предложил компаньонам либо проводить реструктуризацию самостоятельно, либо сохранить за OpenAI некоммерческий статус навсегда. При этом из показаний Маска следует, что в дальнейшем он выступал против сочетания некоммерческого статуса OpenAI с одновременным осуществлением коммерческой деятельности.

Более того, представители OpenAI подчеркнули, что совет директоров OpenAI в 2017 году, когда в него ещё входил Илон Маск, рассматривал перспективный план создания коммерческой структуры внутри стартапа, которую контролировала бы благотворительная организация. Маск ответил адвокату OpenAI, что просто не вчитывался в текст того документа, ограничившись лишь заголовком. Тем более, что он доверял словам Альтмана и его соратников о неприкосновенности некоммерческой организации. Приведённая в суде переписка между Маском и руководством OpenAI, тем не менее, свидетельствует о готовности миллиардера в определённые моменты обсуждать идею создания коммерческой структуры.

Совет директоров OpenAI Илон Маск покинул в 2018 году, но из показаний главы его офиса Джареда Бирчала (Jared Birchall) следует, что аренда офисов стартапа оплачивалась из средств миллиардера до 2020 года. Представители OpenAI заявили в суде, что в 2015 году Илон Маск пообещал направить на нужды стартапа до $1 млрд. В 2023 году он заявил со страниц своей социальной сети X, что вложил $100 млн. Фактическая же сумма была заметно ниже, как признал Маск — «сугубо в денежном выражении» она составила $38 млн.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Основавшему конкурирующий стартап xAI Илону Маску пришлось признать в суде, что он использует модели OpenAI для валидации собственных, но миллиардер назвал такую практику общепринятой. Попытки Маска в своей риторике увести обсуждение в плоскость угрозы существования человечества со стороны ИИ были пресечены судьёй. При этом отвечая на вопросы адвоката OpenAI, сам Маск утвердительно ответил на вопросы о своей уверенности в пользе обществу, которую приносят его компании SpaceX и Tesla. Поскольку эти компании, включая и xAI, занимаются созданием ИИ и роботов, подобная позиция, по мнению OpenAI, противоречит прежним утверждениям Маска об угрозе, исходящей от неконтролируемого распространения ИИ.

«Существует много вариантов будущего. Некоторые из них хорошие, некоторые плохие. Лучше придерживаться оптимистичной позиции», — заявил в суде Илон Маск. Позже он вернулся к теме истребления человечества искусственным интеллектом, призвав компании сектора «избегать ситуации с Терминатором». Свою позицию он пояснил так: «Хуже всего будет, если ИИ нас всех убьёт, я полагаю». Судья после перерыва в заседании обратилась к Маску с требованием избегать обсуждения подобных тем в дальнейшем. При этом она ранее отметила, что существует противоречие между позицией Маска и его вовлечённостью в деятельность компаний, которые теоретически могут формировать риски для существования человечества.

Адвокат OpenAI также настаивал, что Маск не только временами выражал благосклонность к идее создания коммерческой структуры, но и порой ставил на последнее место вопросы безопасности применения ИИ, когда принимал участие в становлении OpenAI. Представители стартапа считают, что судебные претензии Маска в большей степени основываются не на твёрдости его моральных принципов, а на желании подавить конкурента своего собственного стартапа xAI. Сторона Маска настаивает на возвращении OpenAI к принципам некоммерческой организации и выплате $150 млрд компенсации за ущерб со стороны OpenAI и Microsoft. Кроме того, по мнению миллиардера, Альтман и Брокман должны уйти с руководящих должностей в OpenAI.


window-new
Soft
Hard
Тренды 🔥