Сегодня 13 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Биологический ИИ оказался обоюдоострым: он создаёт и яды, и антидоты — и не ясно, что опаснее

Универсальные ИИ-чат-боты и специализированные ИИ-модели для биологии облегчают проектирование токсинов, вирусов и пандемических патогенов, а с ними и нового биооружия. Серьёзность угрозы подтверждают опрошенные журналом Nature учёные и исследователи. Однако они расходятся во мнениях: одни требуют ограничить доступ к программам и обучающим данным, другие — ставить барьер на этапе синтеза ДНК. Часть исследователей надеется, что тот же ИИ поможет создать антидоты и противоядия.

 Источник изображения: Sangharsh Lohakare / unsplash.com

Источник изображения: Sangharsh Lohakare / unsplash.com

Тревожным сигналом стал разработанный в 2024 году китайскими учёными ИИ-инструмент для проектирования конотоксинов — белков из яда морских моллюсков-конусов, способных блокировать ионные каналы нервной системы и убивать человека. В письме в закрытую дискуссионную группу по ИИ и биотехнологиям, с которым ознакомился Nature, высокопоставленный сотрудник правительства США назвал работу возможным риском для биобезопасности — особенно потому, что инструмент построен на открытой языковой модели белков, разработанной американскими учёными. Соавтор статьи Сюэ Вэйвэй (Weiwei Xue) из Чунцинского университета возражает: работа нацелена на поиск лекарств, а переход от расчётов к созданию реальных молекул требует серьёзной экспертизы и оборудования.

«Теоретически — и именно это не даёт мне спать ночами — сейчас можно разработать токсины уровня рицина или других очень смертоносных агентов, которые будут практически необнаружимы», — говорит Мартин Пачеса (Martin Pacesa), структурный биолог из Цюрихского университета (UZH). Доклад Национальных академий наук, инженерии и медицины США (NASEM) за 2025 год добавляет трезвости: усилению пандемических патогенов мешают нехватка качественных данных и трудности с их лабораторным производством. Но создание дизайнерских токсинов уже доступно, признают эксперты, а Тимоти Дженкинс (Timothy Jenkins) из Технического университета Дании (DTU) предупреждает, что такой токсин будет трудно обнаружить, а применить его скорее могут против конкретного человека.

 Источник изображения: ChatGPT

Источник изображения: ChatGPT

Главная защита, по мнению многих учёных, происходит на этапе синтеза ДНК: компании, изготавливающие ДНК, прогоняют каждый заказ через скрининговое ПО, ищущее следы известных токсинов и патогенных белков. Работа исследователей Microsoft под руководством Эрика Хорвица (Eric Horvitz), опубликованная в 2025 году, показала, что эту проверку можно обойти с помощью ИИ. Команда сгенерировала 76 000 синтетических гомологов — молекул с той же опасной функцией, что у известных токсинов и вирусных белков, но с другой ДНК-последовательностью, незнакомой скрининговым базам. Около четверти лучших образцов проскользнули мимо проверки в четырёх компаниях по синтезу ДНК, участвовавших в эксперименте, но после обновления ПО пропуск упал примерно до 3 %. Скрининг ДНК пока остаётся добровольным: указ президента США 2025 года толкает американских грантодателей к обязательным правилам, Европейский союз (ЕС), Великобритания и Новая Зеландия идут следом, но в большинстве стран требований нет. В Китае (более 30 % мировых заказов на синтез ДНК) скрининг рекомендован правительством, но обязательным пока не стал.

Встроенные защитные ограничения самих ИИ-моделей тоже обходятся. В исследовании SecureBio под руководством Сета Доноу (Seth Donoughe) почти 90 % участников сумели получить от универсальных больших языковых моделей (LLM) биологическую информацию высокого риска. Биоинженер Лэ Цун (Le Cong) из Стэнфорда с помощью универсального ИИ-агента обманом заставил геномную языковую модель Evo 2 сгенерировать новые версии белков коронавируса SARS-CoV-2 и ВИЧ-1 (HIV-1), хотя её не обучали на данных о вирусах, заражающих человека. Издание The New York Times ранее сообщало, что мужчина, арестованный в Индии по обвинению в подготовке производства рицина для теракта, спрашивал советы у ChatGPT.

 Источник изображения: ChatGPT

Источник изображения: ChatGPT

Часть индустрии движется к ограниченному доступу. В апреле OpenAI анонсировала ИИ-систему для биологии — GPT-Rosalind: её получат только проверенные исследователи и организации, а получивших доступ пользователей будут отслеживать на признаки разработки биооружия. Коалиция за инновации в области готовности к эпидемиям (CEPI) готовит в Осло «платформу готовности к пандемиям», которая, скорее всего, будет доступна только проверенным пользователям. В докладе RAND Corporation за 2025 год была проведена оценка 57 биологических ИИ-инструментов и 23 % из них сочли высокорисковыми. Дэвид Бейкер (David Baker) из Вашингтонского университета (UW), лауреат Нобелевской премии по химии 2024 года за труды по дизайну белков и предсказанию их третичной структуры, настроен сдержанно: «Мы всегда исходили из того, что польза для мира значительно превышает опасности. Но по мере роста возможностей этот вопрос важно держать в поле зрения».

Защита тоже не отстаёт. Дженкинс совместно с НАТО разрабатывает масс-спектрометрический метод идентификации дизайнерских белков в подозрительных образцах, а на рынок биозащиты вышли частные компании: Red Queen Bio в Сан-Франциско и Valthos в Нью-Йорке привлекли инвестиции на $15 млн и $30 млн соответственно. Стоит признать, что биотехнологический ИИ — обоюдоостр: те же модели создают и угрозу, и защиту, и кто опередит — неясно. «Многие участки этой темы кажутся мне одновременно крайне неопределёнными и крайне срочными», — говорит Тесса Алексаньян (Tessa Alexanian) из Международной инициативы по биобезопасности для науки (IBBIS).

Создатель Claude Code рассказал, что каждую ночь запускает тысячи ИИ-агентов и управляет ими со смартфона

Создатель Claude Code Борис Черни (Boris Cherny) рассказал, что каждую ночь запускает около двух тысяч ИИ-агентов — автономных программ, которые самостоятельно выполняют задачи по написанию кода, — а управляет ими в основном со смартфона.

 Источник изображения: @anthropic.ai / youtube.com

Источник изображения: @anthropic.ai / youtube.com

Его слова показали, как часть инженеров Кремниевой долины начинает использовать ИИ-системы не столько как чат-ботов, сколько как постоянно работающих автономных помощников. «У меня приложение Claude, и если открыть его, слева есть вкладка с кодом — у меня там просто куча запущенных сессий», — сказал Черни, показывая телефон аудитории. Обычно он ведёт от пяти до десяти таких сессий, в каждой из которых работают несколько агентов. «Обычно каждую ночь у меня пара тысяч агентов, которые занимаются более глубокой работой», — добавил он.

Для постоянной автоматизации Черни пользуется двумя функциями Claude Code: /loops и Routines. Первая позволяет запускать повторяющиеся задачи на локальном компьютере через системный планировщик cron, вторая выполняет их на удалённом сервере, так что держать ноутбук открытым не нужно. «Это просто самая крутая штука, — сказал он. — Если вы ещё не пробовали, очень рекомендую».

 Источник изображения: @bcherny / x.com

Источник изображения: @bcherny / x.com

Черни и раньше делился подробностями работы с агентами. В январе он разместил описание своего рабочего процесса в соцсети X, назвав его «на удивление обычным». Той публикации уже пять месяцев. За это время её сохранили более 104 000 раз, а просмотры превысили 8,1 млн. «Забавно, — сказал Черни. — Я не думал, что это кого-то удивит. Для меня это просто обычный способ писать код».

Resident Evil Requiem обеспечила Capcom девятый подряд рекордный год — издатель делает ставку на генеративный ИИ

Японский издатель и разработчик Capcom отчитался о результатах за прошедший финансовый год (закончился 31 марта) и наметил план ускорения роста компании за счёт генеративного ИИ.

 Источник изображений: Capcom

Источник изображений: Capcom

По итогам 2026 финансового года чистые продажи Capcom достигли 195,3 млрд иен ($1,24 млрд), что на 15,2 % лучше результата год назад (169,6 млрд иен), а операционная прибыль выросла на 14,5 % до 75,3 млрд иен ($480 млн).

Благодаря упомянутым результатам Capcom достигла «рекордного уровня чистых продаж и прибыли на всех уровнях девятый год подряд». Операционная прибыль растёт уже 13 лет кряду: из них последние 11 лет — более чем на 10 %.

 Актуальные продажи франшиз Capcom

Актуальные продажи франшиз Capcom

За отчётный период Capcom продала 59,07 млн игр (51,81 млн год назад), что тоже стало рекордом. Значительный вклад в успех внёс экшен-хоррор Resident Evil Requiem, за два месяца разлетевшийся по миру в количестве 7 млн копий.

Суммарные продажи игр франшизы Resident Evil превысили 201 млн копий, Monster Hunter — 127 млн, Street Fighter — 59 млн, Devil May Cry — 38 млн, Dead Rising — 19 млн, Dragon’s Dogma — 14 млн, а Okami — 4,8 млн.

Что касается ИИ, то Capcom намерена использовать технологию для повышения продуктивности и эффективности разработки. В частности, чтобы освободить сотрудников от рутинных задач ради творческих.

Под рутинными задачами Capcom понимает подготовку концепт-артов, визуальных ориентиров и генерацию идей. Если раньше мозговой штурм требовал участия нескольких людей, то теперь хватит и одного, вооружённого ИИ.

Сотрудники Meta✴ взбунтовались против ПО, следящего за движениями их мышей

Корпорации пытаются оправдать сохранение прежнего штата персонала в условиях бурного развития искусственного интеллекта, для оценки эффективности работы каждого сотрудника применяются всё более причудливые методики. Meta✴ с прошлой недели начала устанавливать на рабочие ПК сотрудников приложение, которое следит за движениями мыши. Это уже вызвало волну протестов среди американских сотрудников компании.

 Источник изображения: Unsplash, Anna Kumpan

Источник изображения: Unsplash, Anna Kumpan

Об этом сообщает Reuters со ссылкой на фотографии, которыми очевидцы поделились с агентством. Листовки с призывами выступить против данной инициативы работодателя через подписание особой петиции появились в американских офисах Meta✴ Platforms в местах с потенциально высокой проходимостью: у кулеров с водой, аппаратов с закусками, в туалетных комнатах и помещениях для совещаний. Примечательно, что на следующей неделе Meta✴ должна сократить до 10 % своего персонала, следуя общей для американских техногигантов тенденции. Капитальные расходы на развитие ИИ-инфраструктуры для крупных технологических корпораций США сейчас важнее, чем сохранение рабочих мест за сотрудниками.

По мнению некоторых работников Meta✴, приложение для отслеживания движений курсорам мыши будет использовано руководством для создания программных агентов, способных заменить реальных сотрудников с учётом специфики их работы. Официальные представители компании подчеркнули, что подобные методы создания ИИ-агентов действительно рассматриваются, но это нужно для демонстрации эффективности подобного программного обеспечения широкой аудитории. В Великобритании сотрудники Meta✴ пытаются создать профсоюз для защиты своих прав.

Google представила Gemini Intelligence — следующий эволюционный шаг Gemini на Android-смартфонах

На посвящённой Android презентации Google рассказала о пакете новых функций на основе искусственного интеллекта Gemini Intelligence. На самых мощных смартфонах ИИ сможет управлять широким набором приложений, генерировать элементы пользовательского интерфейса и заполнять формы.

 Источник изображений: blog.google

Источник изображений: blog.google

Некоторые функции ИИ-агента уже работают на последних моделях смартфонов Google Pixel и Samsung Galaxy S26. До настоящего момента ИИ поддерживал управление лишь небольшим числом приложений, например, для заказа такси и доставки еды, но в обозримом будущем Google пообещала расширить их набор; доступны они будут на большем количестве устройств. Ещё одно важное нововведение — мультимодальность. Сейчас управление ИИ-агентом Gemini осуществляется при помощи текстовых и голосовых запросов, но в перспективе он сможет принимать в качестве команд снимки экрана и фотографии: можно будет отправить ему скриншот списка покупок из приложения для заметок, и он добавит эти товары в корзину. При условии, что смартфон поддерживает Gemini Intelligence, конечно.

Функция Create My Widget в пакете Gemini Intelligence, как отметили в Google, является первым шагом к «генеративному пользовательскому интерфейсу». Она работает в соответствии со своим названием — создаёт по текстовому описанию виджеты, которые добавляются на домашний экран смартфона. Велосипедист, например, может запросить погодный виджет, который с первого взгляда показывает направление ветра и осадки; а также панель для вывода конкретных рецептов — скажем, блюд с высоким содержанием белка. Созданные ИИ виджеты могут отображаться не только на смартфоне, но и на умных часах с Wear OS. Возможно, на грядущем мероприятии Google I/O компания расскажет об идее «генеративного пользовательского интерфейса» подробнее.

В мобильной версии Chrome появились некоторые функции Gemini из настольной версии браузера. В частности, это кнопка Gemini, по нажатии которой можно отправить ИИ-помощнику содержимое текущей страницы и задать ему вопросы прямо в браузере. Подписчикам платных тарифов Google AI Pro или Ultra будет доступна также функция автоматического поиска и выполнение задач — например, запись на приём, — но её придётся подождать до июня.

Gemini получил поддержку автозаполнения при работе с формами. Обратившись к функции Personal Intelligence, ИИ-помощник изучает данные из «Google Фото» и Gmail и подставляет нужную информацию, например, номер автомобиля пользователя. Функции Gemini Intelligence будут развёртываться в течение года, пообещали в Google.

Глава OpenAI заявил в суде, что Илон Маск сам поддержал идею перевода стартапа на коммерческие рельсы

К середине этой недели очередь давать показания в суде дошла и до генерального директора OpenAI Сэма Альтмана (Sam Altman), который выступает ответчиком по иску Илона Маска (Elon Musk). Последний, по его словам, не только не был против перевода OpenAI на коммерческую основу, но и собирался подчинить себе этот стартап.

 Источник изображения: Unsplash, Zac Wolff

Источник изображения: Unsplash, Zac Wolff

В свою очередь, Альтман под присягой заявил, что обвинения Маска в стремлении руководства OpenAI отречься от изначальной благотворительной миссии стартапа беспочвенны. Альтман отметил, что после появления идеи о создании внутри OpenAI коммерческой структуры он надеялся на успех благотворительной организации. Обвинения Маска в намерениях Альтмана «украсть благотворительность», по словам последнего, «даже не укладываются в голове».

Напомним, исковые требования Илона Маска включают не только отстранения Сэма Альтмана и президента Грега Брокмана (Greg Brockman) от управления OpenAI, но и выплату компенсации в размере $150 млрд. Сам Маск в суде ранее признался, что вложил в OpenAI около $38 млн. Коммерческая структура внутри OpenAI была создана в марте 2019 года, уже после ухода Илона Маска из состава совета директоров компании. По словам Альтмана, Маск не только не противился идее создания коммерческой структуры, но и поддерживал её. Попутно Илон Маск хотел получить до 90 % акций OpenAI, и такие амбиции вызывали у Альтмана сильный эмоциональный дискомфорт, как следует из его показаний.

На тот момент руководство OpenAI в целом не было настроено против Илона Маска, но идея последнего по поводу объединения стартапа с Tesla многих насторожила, включая самого Альтмана. Такой альянс, по словам последнего, вряд ли позволил бы OpenAI достичь своих первоначальных целей. Маск, как утверждает Альтман, не возражал против перевода OpenAI на коммерческие рельсы, если при этом он будет контролировать стартап. Он даже хотел передать стартап собственным детям по наследству в случае своей внезапной смерти. «Илон заявил, что будет работать только в компаниях, которые он полностью контролирует. Меня это очень сильно беспокоило. Одной из причин, по которым мы основали OpenAI, была идея против сосредоточения власти над сильным искусственным интеллектом (AGI) в руках единственного человека, какими бы благими ни были его намерения», — признался глава OpenAI. Маск пытался внушить совету директоров стартапа мысль о том, что со временем его доля в капитале может уменьшиться, но закрепить письменно условие постепенного отказа от контроля над активами он не был готов.

Альтману в ходе судебного заседания также пришлось ответить на вопросы адвоката Маска по поводу своей репутации среди ближайшего руководства OpenAI. Из показаний нескольких соратников Альтмана было известно, что он не производил впечатления искреннего человека и порядочного бизнесмена. Сам генеральный директор OpenAI в суде заявил, что считает себя честным предпринимателем, заслуживающим доверия. При этом он не может сказать, что в рамках своей деятельности вводил кого-либо в заблуждение. Впрочем, Альтман заявил, что в некоторые моменты своей жизни он мог оставаться не до конца честным с окружающими.

 Источник изображения: Unsplash, Sasun Bughdaryan

Источник изображения: Unsplash, Sasun Bughdaryan

Свои ощущения в период краткосрочной отставки из OpenAI Альтман описал словами: «Я хотел побежать назад в полыхающее здание, чтобы спасти его». Непосредственно после отставки с поста генерального директора стартапа он не хотел возвращаться и был готов перейти на работу в Microsoft, но OpenAI для него значил слишком много. Напрямую Альтман не владеет акциями OpenAI, но у него есть доля в фонде, который инвестировал в этот стартап. Со слов главы OpenAI становится известно, что компания привлекла за всё время своего существования около $175 млрд от частных инвесторов. На начальном этапе Альтман вложил $3,75 млн в OpenAI, но позднее он раздал все свои акции подчинённым.

Уход Маска из совета директоров OpenAI в 2018 году, по словам Альтмана, кто-то воспринял с тревогой, опасаясь сокращения финансирования, другие вздохнули с облегчением. Маск требовал от исследователей регулярных отчётов о достигнутом прогрессе, и Альтман в целом считает, что Илон не понимал, как нужно руководить исследовательской лабораторией. Многих из ключевых специалистов OpenAI требования Маска просто демотивировали. Окружение Альтмана в OpenAI боялось мести со стороны Маска после его ухода из стартапа. Альтман добавил, что до сих пор благодарен Маску за его вклад в развитие OpenAI, и на начальных этапах совместной работы он глубоко уважал Илона. Позже его действия начали противоречить целям OpenAI, и он предпринимал их, как считает Альтман, «из ревности». Он также назвал Маска «несчастным человеком, который живёт с отсутствием чувства безопасности», выразив на этой почве сочувствие богатейшему человеку планеты.

Примечательно, что председатель совета директоров OpenAI Брет Тейлор (Bret Taylor) сообщил суду о получении в феврале 2025 года предложения от возглавляемого Маском консорциума инвесторов о поглощении OpenAI. Это произошло примерно через полгода после подачи Маском иска к стартапу. Как пояснил Тейлор, сценарий противоречил сути судебного иска: коммерческие инвесторы должны были поглотить благотворительный стартап, который таковым должен был оставаться, исходя из требований самого Маска. Судебное заседание, которое длится уже третью неделю, должно завершиться на этой, после чего суд может вынести свой вердикт к 18 мая.

OpenAI вооружила европейские компании ИИ-моделью GPT-5.5-Cyber для защиты от хакеров

OpenAI открыла европейским компаниям доступ к своим последним ИИ-моделям, включая специализированную GPT-5.5-Cyber, для поиска уязвимостей в корпоративных системах. Среди участников программы — немецкие Deutsche Telekom и Scalable Capital, испанские BBVA и Telefonica, британская Sophos.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Программа Trusted Access for Cyber предоставляет верифицированным компаниям из ключевых отраслей — финансов, телекоммуникаций, энергетики и государственных услуг — доступ к моделям OpenAI с ограничениями, допускающими использование только в целях киберзащиты. Управляющий директор OpenAI по региону EMEA (Европа, Ближний Восток и Африка) Эммануэль Марий (Emmanuel Marill) заявил, что по мере роста возможностей ИИ важно соблюдать баланс между доступностью, полезностью и безопасностью. По его словам, необходимо блокировать опасную деятельность и одновременно обеспечивать проверенных специалистов по киберзащите инструментами, действительно полезными для защиты систем, обнаружения уязвимостей и быстрого реагирования на киберугрозы.

Запуск ИИ-модели Mythos конкурентом OpenAI — компанией Anthropic — в прошлом месяце существенно повысил риски для банков и других компаний. Способность новых передовых ИИ-моделей программировать на высоком уровне дала беспрецедентные возможности для поиска уязвимостей и разработки способов их эксплуатации, что вызвало опасения относительно использования таких моделей для дестабилизации финансовых и иных организаций.

OpenAI предложила Европейской комиссии открытый доступ к функциям кибербезопасности, сообщил Брюссель в понедельник, добавив, что Anthropic пока не проявила такой же готовности. Бывший министр финансов Великобритании Джордж Осборн (George Osborne), возглавляющий инициативу OpenAI for Countries, в понедельник направил в Еврокомиссию письмо, в котором указал, что демократизация доступа к инструментам киберзащиты способна укрепить коллективную безопасность и отвечает европейским приоритетам.

OpenAI также объявила о создании новой компании с начальными инвестициями свыше $4 млрд для помощи организациям в разработке и внедрении ИИ-систем и о приобретении консалтинговой фирмы Tomoro для её ускоренного масштабирования.

ИИ сломал правила кибербезопасности — 90-дневное окно раскрытия уязвимостей теперь мертво

Исследователь безопасности Химаншу Ананд (Himanshu Anand) заявил, что отраслевой стандарт 90-дневного окна раскрытия уязвимостей фактически мёртв. Сам Ананд с помощью ИИ-инструментов создал рабочий эксплойт для уже исправленной уязвимости за 30 минут, а независимые исследователи массово обнаруживают одни и те же уязвимости за считанные дни.

 Источник изображения: Sasun Bughdaryan / unsplash.com

Источник изображения: Sasun Bughdaryan / unsplash.com

Поводом стали две свежие уязвимости повышения привилегий в ядре Linux — Copy Fail и Dirty Frag: обе позволяли получить права администратора через локальную учётную запись. Информацию о Dirty Frag раскрыли чуть больше чем через неделю после её передачи команде разработки ядра Linux, задолго до привычных 90 дней. Предположительно, исследователи поспешили, потому что уязвимость уже активно эксплуатировалась хакерами.

Масштаб проблемы Ананд показал на собственном примере: он нашёл уязвимость в неназванном интернет-магазине, позволявшую покупать товары за $0, и отправил отчёт, но выяснилось, что за предшествующие шесть недель о той же ошибке сообщили ещё 10 исследователей. Ананд заключил, что специалисты по кибербезопасности, использующие ИИ, сходились на одних и тех же ошибках практически одновременно. Другой расследователь инцидентов подтвердил, что при появлении новой уязвимости он видит волну дублирующихся отчётов за считанные дни и задаётся вопросом, что мешает злоумышленникам делать то же самое до её устранения.

ИИ не умнее человека, но он работает круглосуточно и крайне эффективен в распознавании закономерностей, а большинство эксплойтов коренится именно в повторяющихся ошибках кода. Ананд продемонстрировал это на фреймворке React, собрав эксплойт для уже закрытой уязвимости за 30 минут.

По словам Ананда, 90-дневное окно не защищает никого, а ежемесячные циклы обновлений тоже мертвы, поскольку 30-дневный промежуток между обнаружением и исправлением предполагает, что злоумышленники медленнее релизного конвейера. Он призывает относиться к каждой критической уязвимости как к P0 (наивысший приоритет инцидента в системах баг-трекинга), исправлять немедленно и встроить ИИ в процессы проверки кода. Ананд резюмирует, что пока разработчик читает описания CVE, злоумышленник уже изучает git log --diff-filter=M — и выигрывает.

Открытое программное обеспечение превращается в обоюдоострое оружие: ИИ используют доступность кода и для защиты, и для атаки. Впрочем, патч может появиться за считанные часы — команда Mozilla выпустила 423 исправления только за апрель. Для закрытого ПО перспектива хуже: ИИ-боты столь же хороши в декомпиляции и сетевом сканировании, и вполне вероятно, что Microsoft, Apple или Google переживут свой момент Copy Fail скорее рано, чем поздно.

Браузер Apple Safari научится сам группировать вкладки

Apple тестирует функцию автоматической группировки вкладок в браузере Safari, сообщил авторитетный аналитик Bloomberg Марк Гурман (Mark Gurman). Функция дебютирует с выходом платформ iOS 27, iPadOS 27 и macOS 27.

Apple Safari будет упорядочивать вкладки в автоматическом режиме — функция войдёт в пакет Apple Intelligence, но в её основе, очевидно, лежат какие-то алгоритмы искусственного интеллекта. Когда она дебютирует, пользователи сами смогут указывать, хотят ли они сгруппировать вкладки в браузере.

Нововведение окажется полезным для тех, кто держит открытыми десятки или сотни вкладок в Apple Safari. Функция дополнит «Группировку вкладок», которая появилась в Safari 15 ещё в 2021 году. Google представила схожую возможность в Chrome в январе 2024 года — при помощи генеративного ИИ браузер самостоятельно упорядочивает похожие вкладки. Apple же традиционно отстаёт от других технологических гигантов во внедрении функций ИИ. Функцию автоматического упорядочивания вкладок компания может представить на выставке WWDC 26, которая откроется 8 июня.

Сотрудники Amazon используют ИИ вхолостую — ради отчётности, а не результата

По мере распространения технологий генеративного искусственного интеллекта корпорации начали требовать от сотрудников демонстрировать практические успехи в их освоении, но подобное давление породило паразитное явление: работники поручают ИИ бессмысленные задачи исключительно для улучшения статистики внедрения.

 Источник изображения: Amazon, Dall-E

Источник изображения: Amazon, Dall-E

По крайней мере, о таком феномене рассказывает Financial Times применительно к деятельности компании Amazon. Сотрудники интернет-гиганта всё активнее используют программное решение MeshClaw, которое подключается к рабочим инструментам сотрудников и может выполнять задания от их имени. Некоторые сотрудники Amazon начали использовать этого агента для автоматизации фактически бесполезной активности, только чтобы повысить свой личный рейтинг с точки зрения эффективности освоения ИИ.

Произошло это в результате нарастающего давления со стороны руководства, которое теперь требует, чтобы более 80 % разработчиков программного обеспечения на еженедельной основе использовали ИИ. По каждому сотруднику ведётся отдельная статистика, и отстающим от целевых показателей приходится давать непростые объяснения руководству. Формально руководители не должны использовать данные об ИИ-токенах для оценки эффективности сотрудников, но последние начали подозревать, что так или иначе это происходит. У отдельных работников Amazon в таких условиях появляются ложные стимулы, и они фактически имитируют высокую активность в использовании ИИ ради достижения корыстных целей, а не общего блага компании.

Американские техногиганты вкладывают колоссальные суммы в развитие инфраструктуры ИИ, поэтому им важно демонстрировать инвесторам и руководству, что данные технологии внедряются и приносят практическую пользу. Проще всего это делать на собственном примере, поэтому собирающаяся направить на капитальные расходы $200 млрд в этом году Amazon оказывает растущее давление на своих сотрудников. Первоначально Amazon выкладывала групповую статистику по использованию ИИ своими сотрудниками, но теперь доступ к индивидуальным результатам имеют только сами специалисты и их непосредственное руководство. Последнему формально запрещается использовать такую статистику для оценки эффективности персонала.

Как поясняет Financial Times, внутри компании Meta✴ Platforms подобные злоупотребления среди сотрудников тоже наблюдаются. Агентское ПО MeshClaw, которое используется для таких целей сотрудниками Amazon, способно загружать программный код в продуктивные версии софта, сортировать электронные письма и взаимодействовать с приложениями типа Slack. Над созданием этого агента работало более 30 специалистов Amazon. Многие сотрудники обеспокоены безопасностью применения подобных решений, поскольку ИИ способен генерировать множество ошибок, а его в данном случае мало кто контролирует.

Видео: человекоподобные роботы Figure собрали вещи в комнате и заправили постель

Американский создатель робототехники Figure продемонстрировал скоординированную работу своих человекоподобных машин. На опубликованном компанией видео два робота вошли в комнату, собрали разбросанные по ней вещи и заправили постель.

 Источник изображения: youtube.com/@figureai

Источник изображения: youtube.com/@figureai

Роботы Figure повесили пальто, закрыли ноутбук, убрали наушники, а затем вместе застелили постель, координируя свои действия кивками головы, подняв и разгладив одеяло. Со своей задачей дуэт справился менее чем за две минуты. Управление машинами осуществляет модель искусственного интеллекта Helix-02. Важнейшим аспектом демонстрации стала координация совместных действий роботов, которые выполнили задачу без общего планировщика, центрального контроллера и даже прямого канала связи — хватило просто кивков головы. Каждый робот полагался на собственные камеры, систему интерпретации окружающей среды и определения намерений другого по его движениям. С каждым действием сцена для машин динамически менялась, заставляя их непрерывно адаптировать свои решения, чтобы достичь общей цели.

Наиболее сложной задачей стали действия с крупным деформируемым объектом — одеялом. В отличие от жёстких предметов, постельное бельё не имеет стабильной геометрии или заданных точек захвата. Роботам потребовалось предсказывать действия друг друга, постоянно корректируя захват, позу и движения по мере того, как ткань складывалась, растягивалась и смещалась под общим натяжением. Для совместной работы систему Helix AI, в которую уже заложены такие задачи, как уборка дома и складывание белья, пришлось доработать, чтобы обеспечить совместную работу двух машин, исходя только из визуальных данных.

Обновлённая модель Helix System AI добавляет роботам механизмы управления всем телом на основе восприятия — это помогает улучшить навигацию в сложных условиях, например при движении по неровной местности и лестницам. Ранее роботы осознавали собственные движения и положение суставов без оглядки на окружающую среду. Теперь производится анализ входных данных с боковых стереокамер — преобразование RGB-изображения в трёхмерную пространственную модель, формирующую представление об окружающей среде в реальном времени. В итоге роботы одновременно «видят» и «чувствуют» местность во время движения.

Разработка системы велась с использованием метода обучения с подкреплением в компьютерной симуляции на основе широкого набора случайных ландшафтов местности и условий среды. При переходе к реальным условиям не потребовалось ни дополнительной калибровки, ни тонкой настройки. Усовершенствованная архитектура помогла роботам стать устойчивее при ходьбе, удерживать равновесие на лестницах и других поверхностях даже в условиях меняющегося освещения — помимо простой ходьбы, они теперь могут выполнять широкий набор действий.

OpenAI запустила Daybreak — ответ на инициативу Anthropic Glasswing в кибербезопасности на базе Claude Mythos

OpenAI объявила о запуске проекта Daybreak в области кибербезопасности — это явно симметричный ответ на инициативу Anthropic Glasswing. В рамках Glasswing некоторым клиентам Anthropic предоставляется доступ к передовой модели искусственного интеллекта Claude Mythos Preview. Она, например, помогла Mozilla обнаружить и закрыть 271 уязвимость в последней версии браузера Firefox.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

OpenAI Daybreak предполагает применение нескольких моделей ИИ, а также спецверсию ИИ-агента Codex. Инициатива основана на предпосылке, что средства киберзащиты должны закладываться в ПО — ограничиваться поиском и устранением уязвимостей больше не получится, уверены в OpenAI. Цель Daybreak состоит в том, чтобы расставить приоритеты в решении наиболее важных проблем и сократить время анализа с нескольких часов до нескольких минут, генерировать и тестировать патчи в репозиториях и отправлять результаты в системы клиентов.

Для общих целей клиенты Daybreak смогут использовать новую модель GPT-5.5, а для большинства задач в области кибербезопасности станет применяться версия GPT-5.5 с доступом через Trusted Access for Cyber. Нашлось место и для GPT-5.5-Cyber для «предварительного доступа к специализированным рабочим процессам, в том числе автоматизированного анализа угроз, тестирования на проникновение и проведения контролируемых проверок». В рамках инициативы OpenAI уже сотрудничает с Cloudflare, Cisco, CloudStrike, Palo Alto Networks, Oracle и Akamai.

Thinking Machines готовит «полнодуплексный» ИИ, который умеет слушать и говорить одновременно

Стартап Thinking Machines Lab, учреждённый в прошлом году бывшим техническим директором OpenAI Мирой Мурати (Mira Murati), рассказал о своём новом проекте. Речь идёт о моделях взаимодействия — системах искусственного интеллекта, способных прерывать человека при общении с ним.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Все существующие модели ИИ являются «полудуплексными» и работают по единой схеме. Когда человек говорит, ИИ слушает — и наоборот, когда говорит ИИ, человеку остаётся только слушать его. В Thinking Machines решили изменить эту схему и создать модель, которая обрабатывает человеческую речь и одновременно генерирует ответ. Общение с этой моделью больше напоминает телефонный разговор, чем переписку.

 Источник изображения: thinkingmachines.ai

Источник изображения: thinkingmachines.ai

Такой способ взаимодействия называется полнодуплексным. Разработанная компанией ИИ-модель TML-Interaction-Small даёт ответ всего за 0,4 секунды. Это примерно соответствует скорости естественного человеческого разговора — и значительно быстрее, чем сопоставимые модели от OpenAI и Google.

Пока это предварительная исследовательская версия, а не готовый для широкой аудитории продукт, и компания сейчас не намерена выпускать его в открытый доступ. В ближайшие месяцы Thinking Machines опубликует «ограниченную исследовательскую версию», а широкая аудитория увидит TML-Interaction-Small до конца года.

OpenAI создала дочернюю компанию, которая займётся внедрением корпоративного ИИ

OpenAI объявила о создании новой компании с первоначальными инвестициями в размере более $4 млрд — она будет помогать организациям во внедрении систем искусственного интеллекта. Для быстрого выхода подразделения на крупный масштаб деятельности разработчик ChatGPT также поглотит консалтинговую фирму Tomoro, передаёт Reuters.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

После того как первые модели от OpenAI получили высокую оценку среди потребителей, компания начала активно заключать корпоративные контракты и расширять своё присутствие в деловом мире, где её ИИ активно внедряется. Новое предприятие, контрольный пакет акций в котором принадлежит OpenAI — очередная попытка опередить основного конкурента в лице Anthropic, которая не менее активно внедряет свои модели для корпоративных клиентов.

Предприятие получило название OpenAI Deployment Company — оно будет выделять клиентам инженеров, специализирующихся на внедрении передовых технологий ИИ, а также сотрудничать с другими компаниями, чтобы определять области, в которых ИИ сможет оказать наибольшее влияние. Внедрением уже занимается вошедшая в OpenAI консалтинговая фирма Tomoro — из её штата разработчик ChatGPT привлечёт около 150 опытных специалистов.

Tomoro была создана в 2023 году в альянсе с OpenAI; среди её клиентов значатся такие компании как Mattel, Red Bull, Tesco и Virgin Atlantic. Ранее стало известно, что OpenAI и Anthropic при участии частных инвесторов учредили совместные предприятия, которые будут помогать корпоративным клиентам во внедрении ИИ. В случае с OpenAI внедрением ChatGPT занимается предприятие, которым компания владеет с 19 другими соучредителями: TPG Advent, Bain Capital, Brookfield и другими.

xAI теряет популярность, но Илон Маск ещё может вернуть стартап в гонку

Представители OpenAI убеждены, что судебные претензии со стороны Илона Маска (Elon Musk) направлены на укрепление рыночных позиций его собственного стартапа xAI, основанного в 2023 году и недавно присоединённого к SpaceX. Независимая статистика говорит о снижении популярности xAI, но эксперты убеждены, что при наличии мотивации Маск способен всё исправить.

 Источник изображения: Unsplash, Мария Шалабаева

Источник изображения: Unsplash, Мария Шалабаева

В начале мая xAI заключила с Anthropic соглашение о сдаче в аренду вычислительных мощностей Colossus 1, которые xAI изначально планировала использовать для собственных нужд. Это может указывать на замедление темпов развития xAI и разработанного ею чат-бота Grok. Статистика AppMagic, на которую ссылается The Wall Street Journal, указывает на снижения количества скачиваний приложения Grok до 8,3 млн по итогам апреля против более чем 20 млн скачиваний в январе. Данные Recon Analytics гласят, что из более чем 260 000 американских пользователей ИИ-сервисов только 0,174 % в текущем квартале оплачивали подписку на Grok. Это почти столько же, как и годом ранее, и значительно меньше 6 %, соответствующих доле платных подписчиков конкурирующего ChatGPT.

Сам Илон Маск в ходе своих апрельских судебных показаний назвал xAI «самой маленькой из ИИ-компаний». Для Grok проблемой остаётся отдалённость от нужд корпоративных пользователей, тогда как OpenAI и Anthropic активно развивают функции содействия ИИ в написании программного кода и автоматизации рутинных офисных задач при помощи ИИ-агентов. Опрос Enterprise Technology Research показал, что по итогам марта этого года 7 % корпоративных респондентов уже используют Grok или собираются это сделать. Годом ранее их доля не превышала 4 %, и хотя положительная динамика очевидна, в случае с Claude показатель вырос с 21 до 48 %, а у Google Gemini он увеличился с 27 до 40 %.

При этом некоторые участники рынка верят, что Илон Маск ещё способен исправить ситуацию, если сконцентрируется на этой задаче. Он уже провёл в xAI серьёзную реорганизацию, и она может стать первым этапом реванша. Клиенты в стремительно меняющемся сегменте ИИ слабо привязаны к какой-то конкретной платформе. Если тот же Grok внезапно начнёт демонстрировать более впечатляющие результаты на форме конкурентов, то его популярность возрастёт довольно быстро.


window-new
Soft
Hard
Тренды 🔥
Биологический ИИ оказался обоюдоострым: он создаёт и яды, и антидоты — и не ясно, что опаснее 54 мин.
Microsoft объяснила, как планирует ускорить интерфейс Windows 11 2 ч.
Resident Evil Requiem обеспечила Capcom девятый подряд рекордный год — издатель делает ставку на генеративный ИИ 3 ч.
Meta отступила перед Еврокомиссией — конкурирующие ИИ-чат-боты получили бесплатный доступ к WhatsApp 3 ч.
«Дорогие и быстро устаревают»: создатель BioShock и Judas объяснил, почему не гонится за передовыми технологиями 4 ч.
Хакеры из Nitrogen заявили о краже 8 Тбайт данных у партнёра Apple — заводы Foxconn перешли на бумажные табели 4 ч.
Вышел геймплейный трейлер Noir Bloom — адреналинового экшена, напоминающего смесь Katana Zero и «Джона Уика» 6 ч.
Meta начнёт рассказывать родителям о новых интересах их детей в Instagram 6 ч.
Google рассказала о крупнейших нововведениях Android 17 6 ч.
Ролевой боевик Star Wars: Fate of the Old Republic от соавтора Mass Effect не станет игрой на сотни часов и обойдётся без «творчески бездушного» ИИ 6 ч.
AMD предупредила об уязвимости в процессорах на базе Zen 2 — для EPYC Rome патчей прошивок не будет 43 мин.
Европа задумала проложить интернет-кабели в Азию через Северный полюс 58 мин.
Денег Безоса больше не хватает: Blue Origin ищет сторонних инвесторов 2 ч.
AMD расширила серию процессоров Ryzen Pro 9000 шестью моделями, в том числе с 3D V-Cache 2 ч.
Китай приблизился к созданию собственной космической гравитационно-волновой обсерватории 2 ч.
Framework сообщила о стабилизации цен на оперативную память — теперь дорожают SSD 2 ч.
FCC разрешила SpaceX использовать частоты EchoStar, но потребовала $2,4 миллиарда в залог 3 ч.
Sony представила смартфон Xperia 1 VIII — новый дизайн, трио 48-Мп камер с ИИ-помощником и цена от €1499 3 ч.
Панос Панай из Amazon прокомментировал слухи о смартфоне и всех запутал 3 ч.
Не просто ЦОД: NTT Data меняет стратегию и расширяет амбиции в сфере ИИ 4 ч.