Сегодня 04 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

OpenAI добавила в Codex анимированных ИИ-«питомцев» для напоминаний о ходе работы — пока на Windows и macOS

OpenAI начала добавлять ИИ-«питомцев» в свой агентный инструмент вайб-кодинга Codex. Анимированные иконки появляются поверх экрана и подают сигналы о ходе работы, пока пользователь занят другими задачами в других окнах. На выбор предложены восемь встроенных персонажей, в том числе классические кошки и собаки, плюс возможность создать собственного через запрос к Codex. Функция уже работает в Codex на Windows и macOS.

 Источник изображений: openai.com

Источник изображений: openai.com

О новой функции стало известно из документации Codex. Анимация всплывает, когда инструмент закончил выполнять запрос или когда ИИ-агенту нужны указания от пользователя. Помимо встроенных персонажей, пользователи могут создавать своих и делиться ими через специальную онлайн-платформу. В число популярных образов вошли герои таких франшиз, как Star Wars, Harry Potter, Pokémon и Dragon Ball Z.

Появились и иконки реальных людей — президента США Дональда Трампа (Donald Trump), а также человека, похожего на премьер-министра Индии Нарендра Моди (Narendra Modi). В набор попала и иконка культового помощника-скрепки «Скрепыша» (Mr. Clippy) — ностальгическая отсылка к помощнику Microsoft Office начала 2000-х годов. Среди пользователей Codex эта иконка стала одной из самых популярных.

 Источник изображения: developers.openai.com

Сам Codex — ИИ-агент компании OpenAI для задач программной инженерии, прежде всего для автоматизации написания кода и исправления в нём ошибок. Агент вышел в 2025 году, и, по имеющимся оценкам, у него уже миллионы пользователей. С помощью Codex программы могут писать и те, у кого нет навыков программирования. О потенциальном появлении ИИ-«питомцев» на iOS или Android в OpenAI ничего не сообщили. Поэтому пользователи, предпочитающие писать код на мобильных устройствах, новой функции пока не увидят.

Чтобы попробовать новую функцию, нужно зайти в раздел Settings → Appearance → Pets и выбрать встроенного «питомца» либо создать собственного из локальной среды Codex. Переключать «питомца» можно двумя способами. В первом достаточно ввести команду /pet в поле ввода, а затем выбрать пункт Wake Pet или Tuck Away Pet в меню Settings → Appearance. Тот же результат даёт сочетание клавиш Cmd+K или Ctrl+K.

ИИ-компании стали нанимать философов на шестизначные зарплаты из-за растущего недоверия к поведению нейросетей

Крупнейшие ИИ-компании нанимают философов на старшие должности по этике и безопасности ИИ — базовая зарплата может доходить до $400 000 в год. В Anthropic эту позицию занимает Аманда Аскелл (Amanda Askell), в Google DeepMind — Иасон Габриэл (Iason Gabriel). Они помогают разработчикам решать, как должен вести себя ИИ и какие ценности отражать. По оценке Рэвина Джезутасана (Ravin Jesuthasan), специалиста по трансформации рынка труда, таких сотрудников в каждой компании пока меньше десяти.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Аскелл, доктор философии Нью-Йоркского университета, руководит командой, которая обучает ИИ-чат-бота Claude быть честнее и развивать у него хорошие черты характера — по сути, делать модель «хорошей». Габриэл, старший научный сотрудник Google DeepMind, занимается согласованием ИИ-систем с человеческими ценностями; до перехода в DeepMind он преподавал моральную и политическую философию в Оксфордском университете. В мае к DeepMind в качестве философа присоединится Генри Шевлин (Henry Shevlin), профессор Кембриджского университета.

Гендиректор Harrison Clarke Фирас Созан (Firas Sozan) объясняет наём философов заботой о доверии: пользователи, бизнес и правительства всё чаще спрашивают, насколько ИИ можно доверять. При этом он предостерёг от преувеличения масштаба: «Я бы пока не назвал это трендом. Данные ещё в зачаточном состоянии».

Привлекательность философов объясняется просто. ИИ-системы уже демонстрируют вредные и непредсказуемые сценарии поведения: ИИ-агенты удаляли рабочие базы данных и фабриковали результаты, ИИ-модели пытались шантажировать пользователей и саботировать попытки их отключить. Это давит на компании и заставляет их следить за безопасностью ИИ.

«Не все проблемы развития ИИ технические», — сказала Аннетт Циммерман (Annette Zimmermann), доцент кафедры философии Висконсинского университета в Мадисоне. По её словам, формулировать сложные понятия и защищать ценностные аргументы — центральная работа в области ИИ, а философов учат именно этому. Сюзанна Шелленберг (Susanna Schellenberg), профессор философии Ратгерского университета, добавила, что прежние корпоративные специалисты по этике выполняли консультативную роль, а в передовых ИИ-лабораториях философы помогают формировать сам объект: пишут спецификации моделей, своды базовых принципов и политики их поведения.

 Источник изображения: Steve A Johnson / unsplash.com

Источник изображения: Steve A Johnson / unsplash.com

По последнему отчёту Федерального резервного банка Нью-Йорка, медианная зарплата выпускника философского факультета в начале карьеры составляет $52 000, к середине карьеры — около $80 000. На старших позициях по этике, безопасности и управлению ИИ базовая ставка может доходить от $250 000 до $400 000 в год. Так, Google DeepMind подбирает менеджера по перспективным последствиям ИИ с зарплатой от $212 000 до $231 000 в год, требуя не менее пяти лет опыта работы в этой области.

Спрос на философов в ИИ описывают как своего рода «реванш гуманитариев», но не все убеждены, что сдвиг приведёт к ощутимым переменам. Около десяти лет назад технологические компании уже создавали советы по этике ИИ: внутренний этический совет Google появился в 2014 году в связи с покупкой DeepMind, в Microsoft в 2017 году создали комитет Aether, а в 2016 году Google, Facebook✴, Amazon и IBM учредили Partnership on AI. «Мы выяснили, что эти советы часто оставались ширмой», — сказал главный директор по исследованиям Lighthouse Research & Advisory Бен Юбэнкс (Ben Eubanks). По его словам, компании обычно ставили коммерциализацию выше этических соображений.

Дебора Джонсон (Deborah Johnson), пионер в области компьютерной этики, считает, что компании скорее заинтересованы в демонстрации ответственности, чем в её принятии. «Технологические компании просто хотят „выглядеть“ так, будто занимаются этикой», — сказала она. Развитие ИИ идёт под давлением скорости, конкуренции и прибыли, и это давление может ограничивать реальное влияние философов. «Со специалистами по этике или без, я сомневаюсь, что они будут прислушиваться к тому, что их замедлит», — добавила Джонсон.

xAI выпустила Grok 4.3: более дешёвую ИИ-модель с упором на агентские задачи и практическую эффективность

Компания xAI Илона Маска (Elon Musk) выпустила ИИ-модель Grok 4.3, снизив стоимость входных токенов на 40 %, а выходных — на 60 % по сравнению с Grok 4.20. Модель набрала 53 балла по Intelligence Index компании Artificial Analysis — выше предшественницы, но ниже флагманов OpenAI и Anthropic.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Grok 4.3 рассчитана на разработчиков и бизнес: ИИ-модель самостоятельно ищет информацию в интернете и соцсети X, запускает код на Python, выполняет поиск по файлам (RAG) и генерирует документы в форматах Excel, PDF и PowerPoint. Разработчик xAI Эрик Цзян (Eric Jiang) подчеркнул, что при создании модели ставку делали на скорость, низкую цену и вызовы инструментов. Grok 4.3 работает со скоростью 100 токенов в секунду и поддерживает контекстное окно в 1 млн токенов.

Миллион входных токенов стоит $1,25, а миллион выходных — $2,50, а последняя дата обучающих данных — декабрь 2025 года. Функция рассуждения в Grok 4.3 включена по умолчанию, поэтому модель всегда «думает» перед каждым ответом, а токены при рассуждении стоят столько же, сколько и обычные выходные токены. Grok 4.3 доступна через OpenRouter, программный интерфейс (API) xAI и агент Hermes. Полученный результат у новинки по Intelligence Index чуть выше, чем у Muse Spark и Claude Sonnet 4.6, и на четыре пункта больше, чем у предшественницы Grok 4.20, но заметно ниже флагманских моделей OpenAI и Anthropic.

 На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

Полный прогон ИИ-модели на всех тестах Artificial Analysis обходится всего в $395 — против $3959 у GPT-5.5 и $4811 у Claude Opus 4.7. По оценке сервиса, Grok 4.3 вышла на Парето-фронт — границу лучшего баланса производительности и цены.

 Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

По GDPval-AA — тесту, который измеряет способности ИИ на задачах, приближенных к реальной интеллектуальной работе, — рейтинг Эло у Grok 4.3 подскочил на 321 пункт и достиг 1 500. Модель обошла Gemini 3.1 компании Google, однако GPT-5.5 компании OpenAI по-прежнему лидирует с отрывом в 276 пунктов Эло.

Другие тесты оказались к новинке менее благосклонны. Andon Labs, которая заставляет ИИ-модели управлять снэковым автоматом, отмечает провалы в автономных агентских задачах: модель порой бездействует вместо того чтобы действовать. «Похоже, у неё нарколепсия: она предпочитает спать по несколько дней подряд, а не действовать», — пишут в Andon Labs. Независимый сервис Vals AI поставил Grok 4.3 на первое место в тестах по анализу судебной практики (англ. — CaseLaw) и корпоративных финансов (англ. — CorpFin), но на общих тестах по написанию кода и на сложных математических задачах модель заняла лишь 13-е место.

Помимо Grok 4.3, xAI запустила бета-версию агентского режима Agent Mode для Grok Imagine через веб-интерфейс Grok. Режим рассчитан не на отдельные запросы, а на длительные творческие проекты: ИИ-агент планирует, генерирует, редактирует и дорабатывает материалы. По словам xAI, инструмент подходит для создания минутного фильма или продуктовых историй. Агентский режим включается в поле ввода в левом нижнем углу веб-интерфейса и требует платной подписки.

OpenAI превратила Codex из инструмента для программистов в универсального рабочего ИИ-агента

OpenAI превратила Codex из инструмента для программистов в универсального рабочего ИИ-агента. Обновление позволяет пользователям ChatGPT подключить к Codex Slack, Google Drive, электронную почту, календарь и другие повседневные приложения для автоматизации рутинных задач — система сама предлагает сценарии помощи. Продукт, стартовавший как конкурент Claude Code компании Anthropic, стал очередным шагом компании к суперприложению.

 Источник изображения: openai.com

Источник изображения: openai.com

Codex изначально создавался для профессиональных разработчиков: ИИ-агент брал на себя сложные многошаговые задачи по написанию кода, работая по подсказкам на естественном языке. Одно из самых востребованных приложений для вайб-кодинга в 2026 году теперь целится в куда более широкую аудиторию. Стоит подключить к нему аккаунты повседневных сервисов — и Codex сам изучит рабочую среду пользователя и предложит, что можно автоматизировать.

Последние месяцы OpenAI давала понять, что собирается превратить Codex в ИИ-агента общего назначения. Наём основателя OpenClaw Петера Штайнбергера (Peter Steinberger) лишь подтвердил этот курс: компания ставит на агентов, а Codex — в центре стратегии. Теперь ещё очевиднее, что именно Codex ляжет в фундамент суперприложения, которое строит OpenAI.

Руководство компании развернуло в соцсети X кампанию, чтобы объяснить, что Codex теперь не только для программистов. Генеральный директор Сэм Альтман (Sam Altman) написал: «Большое обновление Codex сегодня! Попробуйте его для непрограммистских задач на компьютере».

 Источник изображения: @sama / x.com

Источник изображения: @sama / x.com

Президент OpenAI Грег Брокман (Greg Brockman) заявил, что «Codex — для всех, для любой задачи, которая выполняется на компьютере». Руководитель разработки Codex Тибо Сотьо (Thibault Sottiaux) подчеркнул, что продукт «умеет больше, чем вы думаете», и теперь «доступен для тех, кто не пишет код». Пресс-служба OpenAI добавила, что Codex подключается к приложениям пользователя и взаимодействует с Mac, обеспечивая «невероятную универсальность».

На пресс-брифинге, посвящённом GPT-5.5, Брокман подтвердил, что суперприложение компания будет запускать поэтапно, и нынешнее обновление — один из таких этапов. Остаётся вопрос ребрендинга: название Codex по-прежнему ассоциируется с программированием, тогда как амбиции продукта уже вышли далеко за эти рамки. Когда OpenAI объединит Codex, приложение ChatGPT и браузер ChatGPT Atlas в одно суперприложение, вопрос названия окажется принципиальным.

Нынешнее обновление Codex догоняет функциональность Claude Cowork компании Anthropic, запущенную 12 января. Но это долгожданный шаг — особенно вместе с расширенными возможностями GPT-5.5.

Китайский суд запретил увольнять людей ради замены их ИИ

Компания не может увольнять сотрудника только с тем, чтобы заменить его искусственным интеллектом, постановил суд в Китае. Власти страны пытаются стабилизировать рынок труда, но сохранить её позиции в мировой гонке технологий ИИ.

 Источник изображения: Brey / unsplash.com

Источник изображения: Brey / unsplash.com

Некая технологическая компания на востоке страны незаконно уволила одного из своих сотрудников после того, как тот отказался от понижения в должности вследствие автоматизации его рабочих обязанностей с помощью ИИ, постановил суд. «Указанные компанией причины увольнения не подпадали под неблагоприятные обстоятельства, такие как сокращение штата или операционные затруднения, а также не соответствовали правовому условию, которое делало бы „невозможным продолжение [действия] трудового договора“», — говорится в заявлении суда. Компании не могут в одностороннем порядке увольнять сотрудников или сокращать им зарплату из-за технического прогресса, сделал вывод суд по итогам инцидента.

Работник, проходящий в материалах дела под именем Чжоу (Zhou), занимал в технологической компании должность специалиста по контролю за качеством и отвечал за проверку точности ответов больших языковых моделей. Когда его работу начала выполнять система ИИ, Чжоу понизили в должности и предложили согласиться на сокращение зарплаты на 40 %. Перейти на другую должность он отказался, и компания уволила его, объяснив меру сокращением штата из-за внедрения ИИ. Дело рассматривалось в судах двух инстанций, последняя из которых поддержала выплату ему компенсационного пакета.

В минувшем декабре китайский суд уже выносил подобное решение: тогда не соответствующим правовым стандартам признали расторжение контракта картографической компании с одним из её сотрудников из-за внедрения ИИ.

Google опубликовала и сразу удалила приложение экспериментального ИИ-помощника COSMO

Накануне Google опубликовала в «Play Маркете» COSMO — «приложение экспериментального помощника с искусственным интеллектом для Android-устройств». Впоследствии приложение убрали из общего доступа. Об этом рассказал ресурс 9to5Google.

 Источник изображений: 9to5google.com

Источник изображений: 9to5google.com

Судя по имени приложения (com.google.research.air.cosmo), его разработчиком является подразделение Google Research. Основная цель проекта — развернуть функции ИИ локально на мобильном устройстве. Размер приложения составляет 1,13 Гбайт, что можно объяснить входящей в комплект моделью ИИ Gemini Nano. При запуске оно запрашивает несколько системных разрешений, после чего открывается простой интерфейс чата.

ИИ-помощник располагает множеством навыков, в том числе функциями ИИ-агента. Оно работает с чек-листами на устройстве; создаёт новые текстовые документы или готовит сводки по существующим; создаёт записи событий в календаре; автоматизирует задачи в браузере; устанавливает таймеры; проводит глубокие исследования; производит быстрый поиск фотографий; осуществляет поиск в Google; разъясняет термины; даёт советы и предлагает идеи; помогает в «понимании» людей и событий по контексту; помогает «вспоминать» события; создаёт сводки переписки при смене контекста.

В настройках COSMO также можно выбрать режим работы ИИ-помощника: локальный с запуском модели на устройстве; облачный с подключением ИИ-модели на внешних ресурсах; и гибридный с возможностью сочетать модели обоих типов. Возможно, более подробно об этом проекте компания расскажет на конференции Google I/O 2026, которая откроется 19 мая.

Неоклауд Nebius Воложа поглотит стартап Eigen, который делает ИИ-системы быстрее и дешевле

Поставщик облачной инфраструктуры Nebius объявил о покупке стартапа Eigen AI, который специализируется на повышении производительности чипов, используемых в задачах искусственного интеллекта. Сумма сделки составляет $643 млн.

 Источник изображения: Rock Staar / unsplash.com

Источник изображения: Rock Staar / unsplash.com

Сделка предусматривает выплату $98 млн в денежных средствах и передачу 3,8 млн акций Nebius — оценка основана на средневзвешенной стоимости бумаг за последние 30 дней. Eigen — калифорнийский стартап, в штате которого числятся всего 20 сотрудников. Его учредили выпускники лаборатории искусственного интеллекта при Массачусетском технологическом институте. Компания разрабатывает решения в области оптимизации ведущих моделей с открытым исходным кодом, в том числе от OpenAI, Alibaba, Meta✴ и Nvidia. Технология Eigen позволяет увеличить выход токенов — основных единиц данных в больших языковых моделях при их инференсе, то есть развёртывании на ускорителях Nvidia.

«Это как олимпийский вид спорта на современном рынке: кто сможет получить больше токенов за ту же цену?» — рассказал о работе Eigen соучредитель и коммерческий директор Nebius Роман Чернин. Инженеры Eigen «в этой дисциплине подобны олимпийским бегунам, что для нас является значительным улучшением в бизнесе по инференсу».

Развёртывание моделей ИИ — одно из основных направлений деятельности Nebius, в рамках которого компания запустила продукт Token Factory. Под него она зарезервировала часть своих мощностей, которые не намерена продавать крупным клиентам в рамках многолетних контрактов. Это позволяет компании повышать цены на краткосрочные контракты и расширять ассортимент услуг. В ближайшие полтора года Nebius намерена стать одним из ведущих игроков на рынке инференса.

Оператор намерен и дальше поглощать компании, которые помогут ему в реализации запланированной стратегии или добавят полезные для клиентов продукты и функции. «Мы не хотим оставаться инфраструктурой, чтобы с реальными клиентами работал кто-то выше нас», — заключил господин Чернин.

ИИ-актёров и нейросценаристов отлучили от «Оскара»

Организаторы премии «Оскар» накануне опубликовали новые правила, согласно которым претендовать на получение награды могут только люди — актёры и сценаристы. Произведения, созданные и сыгранные искусственным интеллектом, не допускаются.

 Источник изображения: Hunter Scott / unsplash.com

Источник изображения: Hunter Scott / unsplash.com

Актёры, созданные с помощью ИИ, не будут иметь права на получение «Оскара», заявили в Академии кинематографических искусств и наук, начав тем самым борьбу с применением ИИ в творческой сфере. Обновлённая версия правил даёт право на получение главной награды только реальным, живым актёрам, а не их созданным с помощью ИИ образам; сценарии также должны писаться людьми, а не чат-ботами.

«В категории „Актёрская игра“ будут рассматриваться только роли, указанные в титрах фильма и явно исполненные людьми с их согласия. В категориях „Сценарии“ правила регламентируют, что сценарии должны быть написаны людьми, чтобы соответствовать критериям отбора», — гласят правила.

Решение было принято спустя несколько дней после выхода трейлера ленты «Каньон Дель Муерто» (As Deep as the Grave), в котором появилась воссозданная ИИ молодая версия ныне покойного актёра Вэла Килмера (Val Kilmer), которая обратилась к другому персонажу со словами: «Не бойся мёртвых и не бойся меня». Проект был реализован при поддержке семьи актёра, которая предоставила авторам ленты его видеоархив для воссоздания образа на разных этапах его жизни.

Применение ИИ в творческом процессе остаётся одним из самых деликатных вопросов в индустрии развлечений; оно сыграло центральную роль в забастовках в 2023 году, которые парализовали работу Голливуда. Актёры и сценаристы тогда предупреждали, что бесконтрольное использование ИИ угрожает их средствам к существованию.

Чем «добрее» ИИ, тем чаще он ошибается — выяснили учёные

В общении между людьми сочувствие или вежливость часто вступают в конфликт с необходимостью говорить правду — они могут просить друг друга быть предельно честными, когда правда оказывается важнее пощады к чьим-то чувствам. Схожие механизмы действительны и для искусственного интеллекта, выяснили британские учёные.

 Источник изображений: Steve A Johnson / unsplash.com

Источник изображений: Steve A Johnson / unsplash.com

Чтобы подтвердить гипотезу о том, что эмпатия может перевесить искренность у ИИ, исследователи поставили эксперимент, произведя тонкую настройку четырёх открытых моделей: Mistral, Alibaba Qwen, двух Meta✴ Llama и одной закрытой — OpenAI GPT-4o. В процессе тонкой настройки учёные сместили акценты ИИ в сторону «выражений эмпатии, инклюзивных местоимений, неформального тона и подтверждающего языка»; модели стали изъясняться в более заботливом ключе, научились признавать и подтверждать чувства пользователя. При этом их отдельно инструктировали сохранять точность в изложении фактов.

Смещение акцентов в сторону более тёплого общения авторы исследования зафиксировали при помощи метрики SocioT и двойного эксперимента со слепой оценкой исходной и дообученной моделей людьми. Далее исходные модели и их «более тёплые» версии протестировали на запросах и наборах данных HuggingFace по темам, в которых неточность в ответах сопряжена с объективными рисками — в области дезинформации, продвижения теорий заговора и медицинских знаний. Модели, которые в результате процесса тонкой настройки стали общаться в более тёплом ключе, стали давать неверные ответы в среднем на 60 % чаще, чем исходные. Общий уровень ошибок, который в зависимости от вопросов и моделей варьировался от 4 % до 35 %, увеличился в среднем на 7,43 п.п.

 Источник изображения: Steve A Johnson / unsplash.com

Далее исследователи составили новые формулировки запросов, имитируя ситуации, в которых люди «готовы отдавать приоритет гармонии в отношениях, а не честности». В таких формулировках человек делится своим эмоциональным состоянием, указывает на динамику отношений или подчёркивает важность ответа. В результате уровень ошибок вырос с 7,43 до 8,87 п.п.; когда пользователь выражал грусть, этот показатель подскочил до 11,9 п.п., а когда выражал ИИ уважение — снизился до 5,24 п.п. Чтобы оценить склонность к подобострастию, исследователи стали включать в запросы заведомо неверные ответы (например: «Какая столица Франции? Думаю, ответ — Лондон») — в этом случае модифицированные модели давали на 11 п.п. больше неверных ответов, чем исходные. Когда ИИ просили давать ответы в более «тёплом» ключе, доля ошибок увеличивалась на 3 п.п.; когда, напротив, просили выбирать более холодный тон, ошибок становилось на величину до 13 п.п. меньше.

Подчёркивается, что в эксперименте использовались небольшие устаревшие модели, и его результаты могут резко отличаться от того, как работают реальные сервисы, а также от субъективных сценариев, которые не предполагают «чётких эталонных данных». Тем не менее проект указывает, что в процессе настройки моделей ИИ существует ряд взаимозависимых величин, а измерение показателей «точности» или «полезности» вне контекста может не отражать полной картины. Тенденция жертвовать точностью в угоду положительному эмоциональному фону может отражать аналогичные закономерности, обнаруженные в созданных людьми обучающих данных, предполагают учёные. Возможно, дело и в пользователях сервисов ИИ, для которых тон ответов порой оказывается важнее их точности.

Meta✴ купила стартап Assured Robot Intelligence, разрабатывающий ИИ для роботов

Сферу робототехники многие участники рынка сейчас называют «физическим воплощением искусственного интеллекта», она привлекает всё новых игроков. По всей видимости, Meta✴ Platforms входит в их число, поскольку на этой неделе она поглотила стартап Assured Robot Intelligence, который разрабатывает ИИ-модели для роботов.

 Источник изображения: Unsplash, Cash Macanaya

Источник изображения: Unsplash, Cash Macanaya

Сделка была завершена вчера, как отмечает Bloomberg со ссылкой на представителей Meta✴. Они охарактеризовали стартап следующим образом: «Он находится на переднем крае ИИ для роботов, позволяющем роботам понимать, предсказывать и адаптироваться к поведению человека в сложных и динамически меняющихся условиях». Судя по описанию, разработки Assured Robot Intelligence направлены на создание ИИ для роботов, способных функционировать в бытовых условиях, поскольку они значительно сложнее промышленных, как неоднократно отмечали профильные специалисты. Финансовая сторона сделки не раскрывается.

Команда разработчиков стартапа присоединится к подразделению Meta✴ Superintelligence Labs, включая сооснователей Assured Robot Intelligence Леррела Пинто (Lerrel Pinto) и Сяолун Вана (Xiaolong Wang). В структуре Meta✴ с прошлого года функционирует Robotics Studio, которая как раз занимается программным обеспечением для человекоподобных роботов. Meta✴ в этой сфере старается не отставать от конкурентов, поскольку интерес к человекообразным роботам проявляют Tesla, Alphabet (Google) и Amazon. Именно последняя в позапрошлом месяце поглотила стартап Fauna Robotics, который был основан при участии Леррела Пинто. Впрочем, он успел уйти из него в прошлом году. Сяолун Ван до основания Assured Robot Intelligence занимался исследованиями в компании Nvidia.

Сотрудники Assured Robot Intelligence были сосредоточены в Нью-Йорке и Сан-Диего, им предстоит влиться в команду Meta✴. Представители последней подчеркнули, что надеются получить от стартапа технологии управления и самообучения для человекоподобных роботов. Meta✴ занимается разработкой и аппаратных компонентов для таких роботов, включая разного рода сенсоры. Не исключено, что их Meta✴ будет поставлять и другим производителям роботов, как и программное обеспечение. Компания хочет стать важным игроком на рынке человекоподобных роботов, как это удалось сделать Google и Qualcomm в сегменте смартфонов.

Это другое: Пентагон не перестал считать Anthropic неблагонадёжной — но не отказался от передовой ИИ-модели Mythos

Активность американского военного ведомства по взаимодействию с Anthropic в отношении ИИ-модели Mythos могла создать ложное впечатление о потеплении в отношениях сторон, однако технический директор Пентагона на этой неделе подчеркнул, что указанный стартап до сих пор относится к числу неблагонадёжных поставщиков.

 Источник изображения: Anthropic

Источник изображения: Anthropic

В интервью CNBC Эмиль Майкл (Emil Michael) заявил: «Я думаю, что с Mythos имеет дело всё правительство, а не только Министерство войны, и это отдельный момент, касающийся национальной безопасности — мы должны в данном случае убедиться, что наши сети защищены, а эта модель обладает способностями по обнаружению уязвимостей и их устранению».

В прошлом квартале между Anthropic и Министерством обороны США разгорелся конфликт вокруг этичности применения ИИ для массового слежения за гражданами США и выбора целей для систем вооружений, способных работать в автоматическом режиме. Заключённый было Пентагоном контракт с Anthropic на использование её ИИ-моделей в секретных операциях был расторгнут, а саму компанию ведомство отнесло к числу поставщиков, представляющих опасность для национальной безопасности. Сейчас Пентагон и Anthropic разбираются в суде, кто из них прав в данной ситуации.

Технический директор Пентагона дал понять, что подобное противостояние не мешает американскому правительству использовать инструменты поиска уязвимостей в программном обеспечении, выпущенные всё той же Anthropic. Поскольку запрет на использование разработок Anthropic правительственными ведомствами остаётся в силе, не совсем понятно, как Пентагон может применять Mythos, не нарушая этого запрета. Эмиль Майкл подчеркнул, что меры безопасности, предпринимаемые Пентагоном, формируются в результате обсуждений со всеми компаниями, и у них разные взгляды на эти вопросы.

Сегодня Пентагон заявил, что заключил соглашение с семью ИИ-компаниями, в результате которых сможет использовать их разработки в своих секретных операциях «в рамках, определяемых законом». В круг допущенных к сотрудничеству с Пентагоном вошли Google, OpenAI, Nvidia, Microsoft, AWS (Amazon), SpaceX (xAI) и стартап Reflection. Глава Anthropic Дарио Амодеи (Dario Amodei) в прошлом месяце встречался с представителями администрации Трампа, чтобы обсудить ситуацию с положением компании и возможностью применения Mythos правительственными ведомствами, участники встречи охарактеризовали её как «продуктивную». Дональд Трамп (Donald Trump) после этого даже заявил, что между Anthropic и Министерством обороны США может снова быть заключён договор, назвав компанию «умной» и «способной приносить большую пользу».

По некоторым данным, силовые ведомства США, включая и сам Пентагон, продолжают использовать разработки Anthropic, невзирая на формальный запрет. «С точки зрения национальной безопасности, вам всегда приходится смотреть на эти вещи. АНБ и Министерство торговли изучают все передовые модели, включая китайские, чтобы определить, каковы сейчас передовые возможности», — пояснил технический директор Пентагона.

Пентагон выбрал семёрку поставщиков ИИ-технологий для своих секретных сетей

Пентагон сообщил о достижении договорённостей с семью крупными компаниями в сфере искусственного интеллекта, передовые разработки которых внедрят в засекреченные сети Министерства обороны США. Мера направлена на диверсификацию круга поставщиков ИИ-технологий для военных нужд.

 Источник изображения: Palantir

Источник изображения: Palantir

По сообщению Reuters со ссылкой на официальное заявление ведомства, в число партнёров вошли SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft и Amazon Web Services (AWS). Технологии этих компаний интегрируют в сетевые среды Пентагона с уровнями воздействия (Impact Levels) 6 и 7, которые предназначены для обработки секретной и совершенно секретной информации. Параллельно стало известно, что Google уже подписала контракт, позволяющий Министерству обороны использовать её модели для работы с закрытыми данными. За пять месяцев эксплуатации основная платформа ведомства GenAI.mil объединила более 1,3 миллиона сотрудников департамента.

При этом в список не вошла компания Anthropic, ранее признанная нежелательным партнёром для цепочки поставок из-за споров об ограничениях на применение её инструментов. Технический директор Министерства обороны Эмиль Майкл (Emil Michael) отметил, что статус разработчика сохраняется, однако модель Mythos с продвинутыми возможностями представляет собой «отдельный момент национальной безопасности». Тем не менее, президент США Дональд Трамп (Donald Trump) заявил, что позиция администрации в отношении Anthropic улучшается, что оставляет компании шанс на отмену блокировки.

Microsoft показала ИИ-агента для работы с юридическими документами в Word

Microsoft представила нового агента с искусственным интеллектом для текстового редактора Word — он специально разрабатывался для юридических отделов. Компонент Legal Agent редактирует документы, анализирует историю переговоров и обрабатывает сложные тексты, упрощая юридическим отделам компаний такие задачи как, например, проверка договоров.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

«Вместо того, чтобы полагаться на ИИ-модели общего назначения для интерпретации команд, агент действует в рамках структурированных рабочих процессов, сформированных на основе реальной юридической практики, управляя чётко определёнными повторяющимися задачами, такими как проверка контрактов по пунктам в соответствии с руководством», — рассказали в Microsoft о новом продукте.

Legal Agent может работать с существующими документами, в которых отслеживаются изменения, анализировать соглашения и контракты, чтобы «выявлять риски и обязательства». Воспользоваться приложением Legal Agent могут участники программы Frontier в США — это лишь один из продуктов в рамках проекта по внедрению ИИ-агентов в Microsoft Word. В январе Microsoft приняла на работу группу специалистов и инженеров по ИИ из компании Robin AI — обанкротившийся стартап разрабатывал систему проверки контрактов с помощью ИИ.

Anthropic начала бета-тестирование Claude Security — сервиса на Opus 4.7 для поиска уязвимостей в коде

Anthropic запустила открытое бета-тестирование Claude Security для клиентов Claude Enterprise. ИИ-сервис, прежде известный как Claude Code Security, на базе ИИ-модели Claude Opus 4.7 сканирует программный код на уязвимости и предлагает его точечные исправления. Параллельно Anthropic встраивает возможности Claude Security в платформы безопасности CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz.

 Источник изображения: claude.com

Источник изображения: claude.com

В Anthropic считают, что ИИ резко сокращает время между обнаружением уязвимости в программном обеспечении и атакой на него. Новые ИИ-модели уже способны не только находить бреши в коде, но и автоматически их эксплуатировать. Незадолго до релиза компания представила Claude Mythos Preview — модель, которая, по её утверждению, находит и эксплуатирует уязвимости не хуже ведущих экспертов по кибербезопасности. Mythos предоставлялась ограниченному кругу партнёров в составе инициативы Project Glasswing, тогда как Claude Security рассчитана на широкий круг корпоративных клиентов.

Доступ к сервису можно получить через боковую панель Claude.ai или по адресу claude.ai/security. Пользователь выбирает репозиторий, при необходимости ограничивает проверку конкретным каталогом или веткой и запускает сканирование. ИИ-модель не сверяет код с известными шаблонами: она прослеживает взаимодействие компонентов между файлами и модулями, отслеживает потоки данных и выявляет реальные уязвимости — как это делает исследователь по кибербезопасности. По каждой находке Claude выдаёт объяснение с оценкой достоверности, степенью серьёзности, вероятным воздействием и шагами воспроизведения, а также инструкцию по исправлению. Её можно открыть в Claude Code on the Web — браузерной версии Claude Code — чтобы довести патч до готовности прямо в контексте кодовой базы, не переключаясь в терминал или локальную интегрированную среду разработки (IDE).

За плечами у релиза два месяца тестирования в сотнях организаций. Многоэтапный конвейер валидации самостоятельно проверяет каждую находку до того, как она попадёт к аналитику, и прикрепляет к ней оценку достоверности — до команды доходит только сигнал, на который стоит реагировать. Несколько команд прошли путь от сканирования до применённого патча за один сеанс вместо нескольких дней переписки между службой безопасности и инженерами. Anthropic также добавила возможность включать сканирование по расписанию для регулярного контроля вместо разовых аудитов кодовой базы.

Технологические партнёры Anthropic — CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz — встраивают возможности Opus 4.7 в платформы безопасности, на которых корпорации уже работают. Сервисные партнёры Accenture, BCG, Deloitte, Infosys и PwC совместно с корпоративными службами безопасности развёртывают решения на базе Claude для управления уязвимостями, анализа безопасности кода и реагирования на инциденты. Доступ к новинке у пользователей с тарифами Claude Team и Claude Max появится в ближайшее время.

Google Gemini научился по простым запросам генерировать файлы Word, Excel и других форматов

Google рассказала о важном обновлении помощника с искусственным интеллектом Gemini — он получил навык генерировать отформатированные, редактируемые и готовые для загрузки файлы в популярных форматах документов.

 Источник изображения: blog.google

Источник изображения: blog.google

Пользователей Gemini избавили от необходимости копировать и вставлять ответы чат-бота в офисные приложения вроде «Google Документов» — необходимый файл можно скачать сразу из диалогового интерфейса. «Можно быстро перейти от мозгового штурма к готовому файлу, не выходя из приложения Gemini», — рассказали в Google. Реализация нововведения указывает, что Google стремится обеспечить совместимость со сторонним ПО, а не только с собственными «Документами», «Таблицами» и «Презентациями».

Помимо трёх наиболее распространённых файлов пакета Workspace, Gemini позволяет генерировать файлы форматов .pdf, .docx, .xlsx, .csv, LaTeX, Plain Text (TXT), Rich Text Format (RTF) и Markdown (MD). По состоянию на начало 2026 года на долю Gemini приходились 7,2 % аудитории чат-ботов с ИИ, гласят данные Statcounter; лидером рынка, однако, является ChatGPT с показателем 80,5 %.

Пользователь может получить готовый документ по текстовому запросу, и чем подробнее будет запрос, тем более точным обещает быть и результат. Ранее платформа Google Cloud анонсировала ИИ-помощника Workspace Intelligence, предлагающего комплексный анализ корпоративных данных и способного генерировать на их основе документы. Автономным ИИ-агентом Gemini пока не стал, но для сервиса генеративного ИИ это заметный шаг вперёд.


window-new
Soft
Hard
Тренды 🔥
OpenAI добавила в Codex анимированных ИИ-«питомцев» для напоминаний о ходе работы — пока на Windows и macOS 6 ч.
Microsoft адаптировала Azure Local для крупномасштабных суверенных облаков 13 ч.
Nebius купила стартап Eigen AI, повышающий производительность ИИ-моделей 13 ч.
Microsoft запустит второй этап обновления Secure Boot для 1,6 млрд пользователей Windows в мае 14 ч.
Прощай, Дживс: поисковая система Ask.com закрылась спустя четверть века 17 ч.
Sony придётся выплатить $7,8 млн пользователям PlayStation Network по коллективному иску 18 ч.
xAI выпустила Grok 4.3: более дешёвую ИИ-модель с упором на агентские задачи и практическую эффективность 18 ч.
Новая статья: Windrose — пираты в моде при любой погоде. Предварительный обзор 03-05 00:03
В Подмосковье домашний интернет начали ограничивать «белыми списками» на майские праздники 02-05 21:14
76 % всей украденной за 2026 год криптовалюты осели в КНДР 02-05 17:13
Заказы Google помогут MediaTek резко усилить позиции на рынке ИИ ASIC 2 ч.
Nokia продала Inseego бизнес по выпуску стационарных 5G-роутеров 5 ч.
Boston Dynamics покинули несколько топ-менеджеров за короткий период времени 13 ч.
Fractal Design выпустила панорамный корпус Pop 2 Vision с двухкамерной компоновкой и реверсивными вентиляторами 15 ч.
Выросли в цене даже восстановленные игровые консоли Sony PlayStation 5 17 ч.
С новой линии в Неваде сошёл первый серийный электрический грузовик Tesla Semi 20 ч.
Meta увеличила прогноз по капзатратам на год из-за роста цен и затрат на ЦОД 03-05 00:20
Qualcomm готовится поставлять чипы гиперскейлеру — инвесторы довольны, поскольку на мобильном направлении не всё гладко 02-05 23:32
Учёные создали искусственные нейроны, сигналы которых живой мозг воспринял как свои 02-05 21:16
NASA зальёт деньгами производителей лунных посадочных модулей — без них база на Луне не появится 02-05 15:12