Сегодня 02 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Китайский суд запретил увольнять людей ради замены их ИИ

Компания не может увольнять сотрудника только с тем, чтобы заменить его искусственным интеллектом, постановил суд в Китае. Власти страны пытаются стабилизировать рынок труда, но сохранить её позиции в мировой гонке технологий ИИ.

 Источник изображения: Brey / unsplash.com

Источник изображения: Brey / unsplash.com

Некая технологическая компания на востоке страны незаконно уволила одного из своих сотрудников после того, как тот отказался от понижения в должности вследствие автоматизации его рабочих обязанностей с помощью ИИ, постановил суд. «Указанные компанией причины увольнения не подпадали под неблагоприятные обстоятельства, такие как сокращение штата или операционные затруднения, а также не соответствовали правовому условию, которое делало бы „невозможным продолжение [действия] трудового договора“», — говорится в заявлении суда. Компании не могут в одностороннем порядке увольнять сотрудников или сокращать им зарплату из-за технического прогресса, сделал вывод суд по итогам инцидента.

Работник, проходящий в материалах дела под именем Чжоу (Zhou), занимал в технологической компании должность специалиста по контролю за качеством и отвечал за проверку точности ответов больших языковых моделей. Когда его работу начала выполнять система ИИ, Чжоу понизили в должности и предложили согласиться на сокращение зарплаты на 40 %. Перейти на другую должность он отказался, и компания уволила его, объяснив меру сокращением штата из-за внедрения ИИ. Дело рассматривалось в судах двух инстанций, последняя из которых поддержала выплату ему компенсационного пакета.

В минувшем декабре китайский суд уже выносил подобное решение: тогда не соответствующим правовым стандартам признали расторжение контракта картографической компании с одним из её сотрудников из-за внедрения ИИ.

Google опубликовала и сразу удалила приложение экспериментального ИИ-помощника COSMO

Накануне Google опубликовала в «Play Маркете» COSMO — «приложение экспериментального помощника с искусственным интеллектом для Android-устройств». Впоследствии приложение убрали из общего доступа. Об этом рассказал ресурс 9to5Google.

 Источник изображений: 9to5google.com

Источник изображений: 9to5google.com

Судя по имени приложения (com.google.research.air.cosmo), его разработчиком является подразделение Google Research. Основная цель проекта — развернуть функции ИИ локально на мобильном устройстве. Размер приложения составляет 1,13 Гбайт, что можно объяснить входящей в комплект моделью ИИ Gemini Nano. При запуске оно запрашивает несколько системных разрешений, после чего открывается простой интерфейс чата.

ИИ-помощник располагает множеством навыков, в том числе функциями ИИ-агента. Оно работает с чек-листами на устройстве; создаёт новые текстовые документы или готовит сводки по существующим; создаёт записи событий в календаре; автоматизирует задачи в браузере; устанавливает таймеры; проводит глубокие исследования; производит быстрый поиск фотографий; осуществляет поиск в Google; разъясняет термины; даёт советы и предлагает идеи; помогает в «понимании» людей и событий по контексту; помогает «вспоминать» события; создаёт сводки переписки при смене контекста.

В настройках COSMO также можно выбрать режим работы ИИ-помощника: локальный с запуском модели на устройстве; облачный с подключением ИИ-модели на внешних ресурсах; и гибридный с возможностью сочетать модели обоих типов. Возможно, более подробно об этом проекте компания расскажет на конференции Google I/O 2026, которая откроется 19 мая.

Неоклауд Nebius Воложа поглотит стартап Eigen, который делает ИИ-системы быстрее и дешевле

Поставщик облачной инфраструктуры Nebius объявил о покупке стартапа Eigen AI, который специализируется на повышении производительности чипов, используемых в задачах искусственного интеллекта. Сумма сделки составляет $643 млн.

 Источник изображения: Rock Staar / unsplash.com

Источник изображения: Rock Staar / unsplash.com

Сделка предусматривает выплату $98 млн в денежных средствах и передачу 3,8 млн акций Nebius — оценка основана на средневзвешенной стоимости бумаг за последние 30 дней. Eigen — калифорнийский стартап, в штате которого числятся всего 20 сотрудников. Его учредили выпускники лаборатории искусственного интеллекта при Массачусетском технологическом институте. Компания разрабатывает решения в области оптимизации ведущих моделей с открытым исходным кодом, в том числе от OpenAI, Alibaba, Meta✴ и Nvidia. Технология Eigen позволяет увеличить выход токенов — основных единиц данных в больших языковых моделях при их инференсе, то есть развёртывании на ускорителях Nvidia.

«Это как олимпийский вид спорта на современном рынке: кто сможет получить больше токенов за ту же цену?» — рассказал о работе Eigen соучредитель и коммерческий директор Nebius Роман Чернин. Инженеры Eigen «в этой дисциплине подобны олимпийским бегунам, что для нас является значительным улучшением в бизнесе по инференсу».

Развёртывание моделей ИИ — одно из основных направлений деятельности Nebius, в рамках которого компания запустила продукт Token Factory. Под него она зарезервировала часть своих мощностей, которые не намерена продавать крупным клиентам в рамках многолетних контрактов. Это позволяет компании повышать цены на краткосрочные контракты и расширять ассортимент услуг. В ближайшие полтора года Nebius намерена стать одним из ведущих игроков на рынке инференса.

Оператор намерен и дальше поглощать компании, которые помогут ему в реализации запланированной стратегии или добавят полезные для клиентов продукты и функции. «Мы не хотим оставаться инфраструктурой, чтобы с реальными клиентами работал кто-то выше нас», — заключил господин Чернин.

ИИ-актёров и нейросценаристов отлучили от «Оскара»

Организаторы премии «Оскар» накануне опубликовали новые правила, согласно которым претендовать на получение награды могут только люди — актёры и сценаристы. Произведения, созданные и сыгранные искусственным интеллектом, не допускаются.

 Источник изображения: Hunter Scott / unsplash.com

Источник изображения: Hunter Scott / unsplash.com

Актёры, созданные с помощью ИИ, не будут иметь права на получение «Оскара», заявили в Академии кинематографических искусств и наук, начав тем самым борьбу с применением ИИ в творческой сфере. Обновлённая версия правил даёт право на получение главной награды только реальным, живым актёрам, а не их созданным с помощью ИИ образам; сценарии также должны писаться людьми, а не чат-ботами.

«В категории „Актёрская игра“ будут рассматриваться только роли, указанные в титрах фильма и явно исполненные людьми с их согласия. В категориях „Сценарии“ правила регламентируют, что сценарии должны быть написаны людьми, чтобы соответствовать критериям отбора», — гласят правила.

Решение было принято спустя несколько дней после выхода трейлера ленты «Каньон Дель Муерто» (As Deep as the Grave), в котором появилась воссозданная ИИ молодая версия ныне покойного актёра Вэла Килмера (Val Kilmer), которая обратилась к другому персонажу со словами: «Не бойся мёртвых и не бойся меня». Проект был реализован при поддержке семьи актёра, которая предоставила авторам ленты его видеоархив для воссоздания образа на разных этапах его жизни.

Применение ИИ в творческом процессе остаётся одним из самых деликатных вопросов в индустрии развлечений; оно сыграло центральную роль в забастовках в 2023 году, которые парализовали работу Голливуда. Актёры и сценаристы тогда предупреждали, что бесконтрольное использование ИИ угрожает их средствам к существованию.

Чем «добрее» ИИ, тем чаще он ошибается — выяснили учёные

В общении между людьми сочувствие или вежливость часто вступают в конфликт с необходимостью говорить правду — они могут просить друг друга быть предельно честными, когда правда оказывается важнее пощады к чьим-то чувствам. Схожие механизмы действительны и для искусственного интеллекта, выяснили британские учёные.

 Источник изображений: Steve A Johnson / unsplash.com

Источник изображений: Steve A Johnson / unsplash.com

Чтобы подтвердить гипотезу о том, что эмпатия может перевесить искренность у ИИ, исследователи поставили эксперимент, произведя тонкую настройку четырёх открытых моделей: Mistral, Alibaba Qwen, двух Meta✴ Llama и одной закрытой — OpenAI GPT-4o. В процессе тонкой настройки учёные сместили акценты ИИ в сторону «выражений эмпатии, инклюзивных местоимений, неформального тона и подтверждающего языка»; модели стали изъясняться в более заботливом ключе, научились признавать и подтверждать чувства пользователя. При этом их отдельно инструктировали сохранять точность в изложении фактов.

Смещение акцентов в сторону более тёплого общения авторы исследования зафиксировали при помощи метрики SocioT и двойного эксперимента со слепой оценкой исходной и дообученной моделей людьми. Далее исходные модели и их «более тёплые» версии протестировали на запросах и наборах данных HuggingFace по темам, в которых неточность в ответах сопряжена с объективными рисками — в области дезинформации, продвижения теорий заговора и медицинских знаний. Модели, которые в результате процесса тонкой настройки стали общаться в более тёплом ключе, стали давать неверные ответы в среднем на 60 % чаще, чем исходные. Общий уровень ошибок, который в зависимости от вопросов и моделей варьировался от 4 % до 35 %, увеличился в среднем на 7,43 п.п.

 Источник изображения: Steve A Johnson / unsplash.com

Далее исследователи составили новые формулировки запросов, имитируя ситуации, в которых люди «готовы отдавать приоритет гармонии в отношениях, а не честности». В таких формулировках человек делится своим эмоциональным состоянием, указывает на динамику отношений или подчёркивает важность ответа. В результате уровень ошибок вырос с 7,43 до 8,87 п.п.; когда пользователь выражал грусть, этот показатель подскочил до 11,9 п.п., а когда выражал ИИ уважение — снизился до 5,24 п.п. Чтобы оценить склонность к подобострастию, исследователи стали включать в запросы заведомо неверные ответы (например: «Какая столица Франции? Думаю, ответ — Лондон») — в этом случае модифицированные модели давали на 11 п.п. больше неверных ответов, чем исходные. Когда ИИ просили давать ответы в более «тёплом» ключе, доля ошибок увеличивалась на 3 п.п.; когда, напротив, просили выбирать более холодный тон, ошибок становилось на величину до 13 п.п. меньше.

Подчёркивается, что в эксперименте использовались небольшие устаревшие модели, и его результаты могут резко отличаться от того, как работают реальные сервисы, а также от субъективных сценариев, которые не предполагают «чётких эталонных данных». Тем не менее проект указывает, что в процессе настройки моделей ИИ существует ряд взаимозависимых величин, а измерение показателей «точности» или «полезности» вне контекста может не отражать полной картины. Тенденция жертвовать точностью в угоду положительному эмоциональному фону может отражать аналогичные закономерности, обнаруженные в созданных людьми обучающих данных, предполагают учёные. Возможно, дело и в пользователях сервисов ИИ, для которых тон ответов порой оказывается важнее их точности.

Meta✴ купила стартап Assured Robot Intelligence, разрабатывающий ИИ для роботов

Сферу робототехники многие участники рынка сейчас называют «физическим воплощением искусственного интеллекта», она привлекает всё новых игроков. По всей видимости, Meta✴ Platforms входит в их число, поскольку на этой неделе она поглотила стартап Assured Robot Intelligence, который разрабатывает ИИ-модели для роботов.

 Источник изображения: Unsplash, Cash Macanaya

Источник изображения: Unsplash, Cash Macanaya

Сделка была завершена вчера, как отмечает Bloomberg со ссылкой на представителей Meta✴. Они охарактеризовали стартап следующим образом: «Он находится на переднем крае ИИ для роботов, позволяющем роботам понимать, предсказывать и адаптироваться к поведению человека в сложных и динамически меняющихся условиях». Судя по описанию, разработки Assured Robot Intelligence направлены на создание ИИ для роботов, способных функционировать в бытовых условиях, поскольку они значительно сложнее промышленных, как неоднократно отмечали профильные специалисты. Финансовая сторона сделки не раскрывается.

Команда разработчиков стартапа присоединится к подразделению Meta✴ Superintelligence Labs, включая сооснователей Assured Robot Intelligence Леррела Пинто (Lerrel Pinto) и Сяолун Вана (Xiaolong Wang). В структуре Meta✴ с прошлого года функционирует Robotics Studio, которая как раз занимается программным обеспечением для человекоподобных роботов. Meta✴ в этой сфере старается не отставать от конкурентов, поскольку интерес к человекообразным роботам проявляют Tesla, Alphabet (Google) и Amazon. Именно последняя в позапрошлом месяце поглотила стартап Fauna Robotics, который был основан при участии Леррела Пинто. Впрочем, он успел уйти из него в прошлом году. Сяолун Ван до основания Assured Robot Intelligence занимался исследованиями в компании Nvidia.

Сотрудники Assured Robot Intelligence были сосредоточены в Нью-Йорке и Сан-Диего, им предстоит влиться в команду Meta✴. Представители последней подчеркнули, что надеются получить от стартапа технологии управления и самообучения для человекоподобных роботов. Meta✴ занимается разработкой и аппаратных компонентов для таких роботов, включая разного рода сенсоры. Не исключено, что их Meta✴ будет поставлять и другим производителям роботов, как и программное обеспечение. Компания хочет стать важным игроком на рынке человекоподобных роботов, как это удалось сделать Google и Qualcomm в сегменте смартфонов.

Это другое: Пентагон не перестал считать Anthropic неблагонадёжной — но не отказался от передовой ИИ-модели Mythos

Активность американского военного ведомства по взаимодействию с Anthropic в отношении ИИ-модели Mythos могла создать ложное впечатление о потеплении в отношениях сторон, однако технический директор Пентагона на этой неделе подчеркнул, что указанный стартап до сих пор относится к числу неблагонадёжных поставщиков.

 Источник изображения: Anthropic

Источник изображения: Anthropic

В интервью CNBC Эмиль Майкл (Emil Michael) заявил: «Я думаю, что с Mythos имеет дело всё правительство, а не только Министерство войны, и это отдельный момент, касающийся национальной безопасности — мы должны в данном случае убедиться, что наши сети защищены, а эта модель обладает способностями по обнаружению уязвимостей и их устранению».

В прошлом квартале между Anthropic и Министерством обороны США разгорелся конфликт вокруг этичности применения ИИ для массового слежения за гражданами США и выбора целей для систем вооружений, способных работать в автоматическом режиме. Заключённый было Пентагоном контракт с Anthropic на использование её ИИ-моделей в секретных операциях был расторгнут, а саму компанию ведомство отнесло к числу поставщиков, представляющих опасность для национальной безопасности. Сейчас Пентагон и Anthropic разбираются в суде, кто из них прав в данной ситуации.

Технический директор Пентагона дал понять, что подобное противостояние не мешает американскому правительству использовать инструменты поиска уязвимостей в программном обеспечении, выпущенные всё той же Anthropic. Поскольку запрет на использование разработок Anthropic правительственными ведомствами остаётся в силе, не совсем понятно, как Пентагон может применять Mythos, не нарушая этого запрета. Эмиль Майкл подчеркнул, что меры безопасности, предпринимаемые Пентагоном, формируются в результате обсуждений со всеми компаниями, и у них разные взгляды на эти вопросы.

Сегодня Пентагон заявил, что заключил соглашение с семью ИИ-компаниями, в результате которых сможет использовать их разработки в своих секретных операциях «в рамках, определяемых законом». В круг допущенных к сотрудничеству с Пентагоном вошли Google, OpenAI, Nvidia, Microsoft, AWS (Amazon), SpaceX (xAI) и стартап Reflection. Глава Anthropic Дарио Амодеи (Dario Amodei) в прошлом месяце встречался с представителями администрации Трампа, чтобы обсудить ситуацию с положением компании и возможностью применения Mythos правительственными ведомствами, участники встречи охарактеризовали её как «продуктивную». Дональд Трамп (Donald Trump) после этого даже заявил, что между Anthropic и Министерством обороны США может снова быть заключён договор, назвав компанию «умной» и «способной приносить большую пользу».

По некоторым данным, силовые ведомства США, включая и сам Пентагон, продолжают использовать разработки Anthropic, невзирая на формальный запрет. «С точки зрения национальной безопасности, вам всегда приходится смотреть на эти вещи. АНБ и Министерство торговли изучают все передовые модели, включая китайские, чтобы определить, каковы сейчас передовые возможности», — пояснил технический директор Пентагона.

Пентагон выбрал семёрку поставщиков ИИ-технологий для своих секретных сетей

Пентагон сообщил о достижении договорённостей с семью крупными компаниями в сфере искусственного интеллекта, передовые разработки которых внедрят в засекреченные сети Министерства обороны США. Мера направлена на диверсификацию круга поставщиков ИИ-технологий для военных нужд.

 Источник изображения: Palantir

Источник изображения: Palantir

По сообщению Reuters со ссылкой на официальное заявление ведомства, в число партнёров вошли SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft и Amazon Web Services (AWS). Технологии этих компаний интегрируют в сетевые среды Пентагона с уровнями воздействия (Impact Levels) 6 и 7, которые предназначены для обработки секретной и совершенно секретной информации. Параллельно стало известно, что Google уже подписала контракт, позволяющий Министерству обороны использовать её модели для работы с закрытыми данными. За пять месяцев эксплуатации основная платформа ведомства GenAI.mil объединила более 1,3 миллиона сотрудников департамента.

При этом в список не вошла компания Anthropic, ранее признанная нежелательным партнёром для цепочки поставок из-за споров об ограничениях на применение её инструментов. Технический директор Министерства обороны Эмиль Майкл (Emil Michael) отметил, что статус разработчика сохраняется, однако модель Mythos с продвинутыми возможностями представляет собой «отдельный момент национальной безопасности». Тем не менее, президент США Дональд Трамп (Donald Trump) заявил, что позиция администрации в отношении Anthropic улучшается, что оставляет компании шанс на отмену блокировки.

Microsoft показала ИИ-агента для работы с юридическими документами в Word

Microsoft представила нового агента с искусственным интеллектом для текстового редактора Word — он специально разрабатывался для юридических отделов. Компонент Legal Agent редактирует документы, анализирует историю переговоров и обрабатывает сложные тексты, упрощая юридическим отделам компаний такие задачи как, например, проверка договоров.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

«Вместо того, чтобы полагаться на ИИ-модели общего назначения для интерпретации команд, агент действует в рамках структурированных рабочих процессов, сформированных на основе реальной юридической практики, управляя чётко определёнными повторяющимися задачами, такими как проверка контрактов по пунктам в соответствии с руководством», — рассказали в Microsoft о новом продукте.

Legal Agent может работать с существующими документами, в которых отслеживаются изменения, анализировать соглашения и контракты, чтобы «выявлять риски и обязательства». Воспользоваться приложением Legal Agent могут участники программы Frontier в США — это лишь один из продуктов в рамках проекта по внедрению ИИ-агентов в Microsoft Word. В январе Microsoft приняла на работу группу специалистов и инженеров по ИИ из компании Robin AI — обанкротившийся стартап разрабатывал систему проверки контрактов с помощью ИИ.

Anthropic начала бета-тестирование Claude Security — сервиса на Opus 4.7 для поиска уязвимостей в коде

Anthropic запустила открытое бета-тестирование Claude Security для клиентов Claude Enterprise. ИИ-сервис, прежде известный как Claude Code Security, на базе ИИ-модели Claude Opus 4.7 сканирует программный код на уязвимости и предлагает его точечные исправления. Параллельно Anthropic встраивает возможности Claude Security в платформы безопасности CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz.

 Источник изображения: claude.com

Источник изображения: claude.com

В Anthropic считают, что ИИ резко сокращает время между обнаружением уязвимости в программном обеспечении и атакой на него. Новые ИИ-модели уже способны не только находить бреши в коде, но и автоматически их эксплуатировать. Незадолго до релиза компания представила Claude Mythos Preview — модель, которая, по её утверждению, находит и эксплуатирует уязвимости не хуже ведущих экспертов по кибербезопасности. Mythos предоставлялась ограниченному кругу партнёров в составе инициативы Project Glasswing, тогда как Claude Security рассчитана на широкий круг корпоративных клиентов.

Доступ к сервису можно получить через боковую панель Claude.ai или по адресу claude.ai/security. Пользователь выбирает репозиторий, при необходимости ограничивает проверку конкретным каталогом или веткой и запускает сканирование. ИИ-модель не сверяет код с известными шаблонами: она прослеживает взаимодействие компонентов между файлами и модулями, отслеживает потоки данных и выявляет реальные уязвимости — как это делает исследователь по кибербезопасности. По каждой находке Claude выдаёт объяснение с оценкой достоверности, степенью серьёзности, вероятным воздействием и шагами воспроизведения, а также инструкцию по исправлению. Её можно открыть в Claude Code on the Web — браузерной версии Claude Code — чтобы довести патч до готовности прямо в контексте кодовой базы, не переключаясь в терминал или локальную интегрированную среду разработки (IDE).

За плечами у релиза два месяца тестирования в сотнях организаций. Многоэтапный конвейер валидации самостоятельно проверяет каждую находку до того, как она попадёт к аналитику, и прикрепляет к ней оценку достоверности — до команды доходит только сигнал, на который стоит реагировать. Несколько команд прошли путь от сканирования до применённого патча за один сеанс вместо нескольких дней переписки между службой безопасности и инженерами. Anthropic также добавила возможность включать сканирование по расписанию для регулярного контроля вместо разовых аудитов кодовой базы.

Технологические партнёры Anthropic — CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz — встраивают возможности Opus 4.7 в платформы безопасности, на которых корпорации уже работают. Сервисные партнёры Accenture, BCG, Deloitte, Infosys и PwC совместно с корпоративными службами безопасности развёртывают решения на базе Claude для управления уязвимостями, анализа безопасности кода и реагирования на инциденты. Доступ к новинке у пользователей с тарифами Claude Team и Claude Max появится в ближайшее время.

Google Gemini научился по простым запросам генерировать файлы Word, Excel и других форматов

Google рассказала о важном обновлении помощника с искусственным интеллектом Gemini — он получил навык генерировать отформатированные, редактируемые и готовые для загрузки файлы в популярных форматах документов.

 Источник изображения: blog.google

Источник изображения: blog.google

Пользователей Gemini избавили от необходимости копировать и вставлять ответы чат-бота в офисные приложения вроде «Google Документов» — необходимый файл можно скачать сразу из диалогового интерфейса. «Можно быстро перейти от мозгового штурма к готовому файлу, не выходя из приложения Gemini», — рассказали в Google. Реализация нововведения указывает, что Google стремится обеспечить совместимость со сторонним ПО, а не только с собственными «Документами», «Таблицами» и «Презентациями».

Помимо трёх наиболее распространённых файлов пакета Workspace, Gemini позволяет генерировать файлы форматов .pdf, .docx, .xlsx, .csv, LaTeX, Plain Text (TXT), Rich Text Format (RTF) и Markdown (MD). По состоянию на начало 2026 года на долю Gemini приходились 7,2 % аудитории чат-ботов с ИИ, гласят данные Statcounter; лидером рынка, однако, является ChatGPT с показателем 80,5 %.

Пользователь может получить готовый документ по текстовому запросу, и чем подробнее будет запрос, тем более точным обещает быть и результат. Ранее платформа Google Cloud анонсировала ИИ-помощника Workspace Intelligence, предлагающего комплексный анализ корпоративных данных и способного генерировать на их основе документы. Автономным ИИ-агентом Gemini пока не стал, но для сервиса генеративного ИИ это заметный шаг вперёд.

Марк Цукерберг объяснил очередные сокращения ростом затрат на ИИ, и не исключил дальнейших увольнений

Гендиректор Meta✴ Марк Цукерберг (Mark Zuckerberg) объяснил предстоящую волну увольнений в компании ростом капитальных затрат на направление искусственного интеллекта и заявил, что не исключает дальнейших сокращений рабочих мест.

 Источник изображения: Mark Zuckerberg

Источник изображения: Mark Zuckerberg

«В компании у нас, по сути, два основных источника затрат: вычислительная инфраструктура и люди. Если вкладываем больше в одну область для обслуживания нашего сообщества, значит, у нас [остаётся] меньше капитала, который можно выделить на другую. Поэтому нам нужно несколько сократить размер компании», — цитирует Reuters слова господина Цукерберга на встрече с подчинёнными. С реорганизацией отделов Meta✴ вокруг новой структуры AI native и проектом по разработке ИИ-агентов сокращения штата не связаны, добавил он.

В ряде случаев работники Meta✴ выступили с открытой критикой этих решений. «Увольнения не связаны ни с принуждением всех сотрудников пользоваться инструментами ИИ, ни с повышением эффективности работы», — отметил глава компании, но добавил, что «посмотрим, как всё это будет развиваться» и пообещал, что «в ближайшее время компания сможет поделиться дополнительной информацией». Встреча Марка Цукерберга с сотрудниками Meta✴ прошла накануне, и она была первой с тех пор, как стало известно об очередной волне сокращений. К 20 мая она планирует расстаться с 10 % сотрудников, а во второй половине года грядёт ещё одна волна увольнений.

Какие-то планы на будущее гендиректор Meta✴ комментировать отказался.

Илон Маск призвал ИИ-компании «избегать ситуации из Терминатора»

Судебное разбирательство между OpenAI и Илоном Маском (Elon Musk), который выступил в роли одного из ранних инвесторов стартапа, раскрывает всё новые подробности взаимодействия с бывшими соратниками. Выделив $38 млн на поддержку OpenAI, миллиардер упустил из вида пункт о сохранении стартапом права создать коммерческую структуру для получения прибыли.

 Источник изображения: Unsplash, Dima Solomin

Источник изображения: Unsplash, Dima Solomin

Как известно, основной претензией Маска является превращение OpenAI из некоммерческой организации в компанию, способную извлекать прибыль в сфере искусственного интеллекта. Илон Маск изначально настаивал, что поддерживал стартап, опираясь исключительно на гуманистические цели, считая его благотворительной организацией, которая не станет углубляться в коммерцию. Выступая в суде вчера, Илон Маск признался, что не считал нужным оформлять договор с OpenAI о финансировании стартапа, поскольку Альтман и его окружение убедили миллиардера, что это будет некоммерческая структура. Он поверил им на слово и не стал утруждать себя формальностями при передаче денег, относясь к ней, как к благотворительному взносу.

При этом предыдущие дни судебных заседаний уже позволили установить, что в 2017 году Маск вёл переписку с генеральным директором OpenAI Сэмом Альтманом (Sam Altman) и президентом Грегом Брокманом (Greg Brockman), обсуждая идею создания внутри стартапа коммерческой структуры. В определённый момент ему эта дискуссия надоела, он предложил компаньонам либо проводить реструктуризацию самостоятельно, либо сохранить за OpenAI некоммерческий статус навсегда. При этом из показаний Маска следует, что в дальнейшем он выступал против сочетания некоммерческого статуса OpenAI с одновременным осуществлением коммерческой деятельности.

Более того, представители OpenAI подчеркнули, что совет директоров OpenAI в 2017 году, когда в него ещё входил Илон Маск, рассматривал перспективный план создания коммерческой структуры внутри стартапа, которую контролировала бы благотворительная организация. Маск ответил адвокату OpenAI, что просто не вчитывался в текст того документа, ограничившись лишь заголовком. Тем более, что он доверял словам Альтмана и его соратников о неприкосновенности некоммерческой организации. Приведённая в суде переписка между Маском и руководством OpenAI, тем не менее, свидетельствует о готовности миллиардера в определённые моменты обсуждать идею создания коммерческой структуры.

Совет директоров OpenAI Илон Маск покинул в 2018 году, но из показаний главы его офиса Джареда Бирчала (Jared Birchall) следует, что аренда офисов стартапа оплачивалась из средств миллиардера до 2020 года. Представители OpenAI заявили в суде, что в 2015 году Илон Маск пообещал направить на нужды стартапа до $1 млрд. В 2023 году он заявил со страниц своей социальной сети X, что вложил $100 млн. Фактическая же сумма была заметно ниже, как признал Маск — «сугубо в денежном выражении» она составила $38 млн.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Основавшему конкурирующий стартап xAI Илону Маску пришлось признать в суде, что он использует модели OpenAI для валидации собственных, но миллиардер назвал такую практику общепринятой. Попытки Маска в своей риторике увести обсуждение в плоскость угрозы существования человечества со стороны ИИ были пресечены судьёй. При этом отвечая на вопросы адвоката OpenAI, сам Маск утвердительно ответил на вопросы о своей уверенности в пользе обществу, которую приносят его компании SpaceX и Tesla. Поскольку эти компании, включая и xAI, занимаются созданием ИИ и роботов, подобная позиция, по мнению OpenAI, противоречит прежним утверждениям Маска об угрозе, исходящей от неконтролируемого распространения ИИ.

«Существует много вариантов будущего. Некоторые из них хорошие, некоторые плохие. Лучше придерживаться оптимистичной позиции», — заявил в суде Илон Маск. Позже он вернулся к теме истребления человечества искусственным интеллектом, призвав компании сектора «избегать ситуации с Терминатором». Свою позицию он пояснил так: «Хуже всего будет, если ИИ нас всех убьёт, я полагаю». Судья после перерыва в заседании обратилась к Маску с требованием избегать обсуждения подобных тем в дальнейшем. При этом она ранее отметила, что существует противоречие между позицией Маска и его вовлечённостью в деятельность компаний, которые теоретически могут формировать риски для существования человечества.

Адвокат OpenAI также настаивал, что Маск не только временами выражал благосклонность к идее создания коммерческой структуры, но и порой ставил на последнее место вопросы безопасности применения ИИ, когда принимал участие в становлении OpenAI. Представители стартапа считают, что судебные претензии Маска в большей степени основываются не на твёрдости его моральных принципов, а на желании подавить конкурента своего собственного стартапа xAI. Сторона Маска настаивает на возвращении OpenAI к принципам некоммерческой организации и выплате $150 млрд компенсации за ущерб со стороны OpenAI и Microsoft. Кроме того, по мнению миллиардера, Альтман и Брокман должны уйти с руководящих должностей в OpenAI.

Финансовый директор OpenAI заявила, что стартап наблюдает огромный спрос на свои продукты

Новости о предполагаемом замедлении темпов роста выручки OpenAI и оттоке клиентов навредили котировкам многих партнёров компании, поскольку сам стартап на бирже ещё не представлен. Желая исправить ситуацию, финансовый директор OpenAI Сара Фрайар (Sarah Friar) в интервью Bloomberg заявила, что компания наблюдает высочайший спрос на свои продукты.

 Источник изображения: Unsplash, Zac Wolff

Источник изображения: Unsplash, Zac Wolff

«Мы чувствуем, что превосходим свой план по верхней планке», — отметила она, добавив, что динамика бизнеса меняется время от времени, поскольку он достаточно молод, а потому его развитие нельзя точно спрогнозировать, используя привычные критерии оценки. По словам Фрайар, OpenAI достигает поставленных целей, а спрос на её продукты напоминает «вертикальную стену».

Представители OpenAI уже называли опубликованную первоначально статью The Wall Street Journal «кликбейтной», отметив, что бизнес компании «несётся вперёд на полных парах». Сара Фрайар не стала отрицать, что внутри OpenAI имеются свои труднодостижимые цели, которые весьма амбициозны и могут не совпадать с теми, что она упоминает публично. В любом случае, популярность продуктов OpenAI продолжает расти, по её словам. Кроме того, она заявила, что любая компания имеет свои внутренние труднодостижимые цели, которые используются для мотивации сотрудников.

Финансовый директор OpenAI добавила, что чаще всего именно нехватка вычислительных мощностей замедляет прогресс компании в создании новых продуктов и их совершенствовании. «Мы сейчас поднимаемся по вертикальной стене спроса», — образно охарактеризовала ситуацию Фрайар. С генеральным директором Сэмом Альтманом (Sam Altman) у неё могут быть разногласия, но споры всегда идут в очень конструктивном русле, по её словам. Их тандем она охарактеризовала как «настоящих друзей, которые могут объединяться со скоростью света в той ситуации, когда нужно заниматься серьёзными делами».

Google готова показывать рекламу в Gemini — OpenAI уже делает это в ChatGPT

Руководство Google подтвердило готовность интегрировать рекламные объявления в приложение Gemini, отказавшись от прежней политики полного их отсутствия. Решение продиктовано стремлением компании масштабировать продукт и монетизировать растущую аудиторию пользователей Gemini.

 androidauthority.com

androidauthority.com

По сообщению Android Authority со ссылкой на Business Insider, в ходе конференции по итогам первого квартала 2026 года главный коммерческий директор Google Филипп Шиндлер (Philipp Schindler) подтвердил готовность компании разместить рекламу в приложении Gemini. Он уточнил, что если рекламный формат покажет свою эффективность в ИИ-режиме поиска Google (AI Mode Search), он будет применён и в Gemini. Ранее корпорация не торопилась с внедрением рекламы, но теперь её позиция изменилась.

Шиндлер обосновал изменение планов тем, что грамотно встроенная реклама предоставляет пользователям полезную коммерческую информацию и помогает развивать продукты для миллиардов людей. Это заявление согласуется с декабрьским сообщением издания Adweek, которое ещё раньше сообщало о планах Google разместить рекламные объявления в Gemini в течение 2026 года. Таким образом, ожидаемые изменения стали логичным шагом в стратегии монетизации ИИ-сервисов компании. Ранее мы также сообщали о том, что Google не исключает появление рекламы в Gemini.

Несмотря на наличие платных подписок, общее число которых достигло 350 миллионов человек, дохода от них может быть недостаточно для поддержания полностью бесплатного режима работы чат-бота. Ситуация также усугубляется действиями конкурентов. В частности, компания OpenAI уже начала показ рекламы пользователям бесплатной версии ChatGPT. Google, вероятно, последует этому тренду, чтобы сохранить экономическую устойчивость своего флагманского ИИ-продукта на фоне растущих затрат на инфраструктуру.


window-new
Soft
Hard
Тренды 🔥