Сегодня 11 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Илон Маск потерял ещё одного ключевого сотрудника стартапа xAI

Сооснователь стартапа в сфере искусственного интеллекта xAI Тони Ву (Tony Wu) в понедельник объявил о своём решении покинуть компанию, сообщает CNBC. Это событие стало очередным в череде увольнений ключевых фигур, стоявших у истоков проекта Илона Маска (Elon Musk). Уход Ву произошёл практически одновременно с появлением информации о поглощении стартапа компанией SpaceX, которое эксперты называют крупнейшим слиянием в истории.

 Источник изображения: Grok

Источник изображения: Grok

До Ву из xAI ушли сразу несколько человек. Среди них Игорь Бабушкин, Кайл Косич (Kyle Kosic) и Кристиан Сегеди (Christian Szegedy). Кроме того, в прошлом месяце Грег Янг (Greg Yang) объявил, что отходит от своей роли в компании по состоянию здоровья. Таким образом, первоначальный состав из двенадцати основателей, вместе с которыми глава Tesla запустил xAI в 2023 году, заметно поредел.

В своём посте на платформе X Ву написал, что для него наступает время нового этапа. «Пришло время для моей следующей главы. Это эпоха грандиозных возможностей, когда небольшая команда, вооружённая искусственным интеллектом, может свернуть горы и переосмыслить границы возможного».

Его отставка совпала с непростым периодом для xAI. Компания столкнулась с волной недовольства пользователей и проверками регуляторов сразу в нескольких странах. Поводом послужил инструмент генерации изображений, встроенный в Grok, который позволял массово создавать и распространять откровенные дипфейки на основе фотографий реальных людей без их согласия, в том числе детей.

Напомним, Маск запустил xAI 12 июля 2023 года совместно с одиннадцатью другими специалистами, планируя составить конкуренцию таким гигантам, как OpenAI и Google. На момент запуска веб-сайт компании декларировал масштабную цель — «понять истинную природу Вселенной».

Facebook✴ научился оживлять фото профиля с помощью ИИ

Компания Meta✴ приступила к развёртыванию новых функций на основе искусственного интеллекта в социальной сети Facebook✴, которые позволят анимировать изображения профиля, менять стилистику «Историй» (Stories) и «Воспоминаний» (Memories), а также добавлять динамичные фоны к текстовым публикациям.

 Источник изображения: Nathan Dumlao/Unsplash

Источник изображения: Nathan Dumlao/Unsplash

Одним из ключевых нововведений является возможность превращения статичной фотографии профиля в короткую анимацию. При активации функции доступны несколько предустановленных типов анимаций, среди которых «естественный», «праздничный колпак», «конфетти», «приветственный взмах рукой» и «сердечко». Для качественного результата Meta✴ рекомендует использовать фотографию с одним человеком, который смотрит прямо в камеру, ничего не держит в руках и его лицо хорошо видно. В течение года набор анимаций будет расширен, как отмечает The Verge.

Вторая функция касается «Историй» и «Воспоминаний». Пользователь может нажать кнопку Restyle и либо самостоятельно описать текстом, какие изменения нужно внести в фотографию, либо выбрать один из предложенных в системе стилей. Кроме того, разработчики обновили редактор текстовых постов, добавив возможность установки анимированных фонов. При создании публикации необходимо нажать на иконку с буквой «А» на цветном фоне, после чего откроется меню с различными стилями оформления, включающее как статичные, так и динамичные варианты.

Все эти обновления происходят на фоне стратегического разворота Meta✴ в сторону возвращения Facebook✴ к культурной значимости. Платформа по-прежнему остаётся одной из крупнейших в мире, с аудиторией более двух миллиардов уникальных пользователей в день. Однако в прошлом году глава компании Марк Цукерберг (Mark Zuckerberg) заявил, что хочет «вернуться к старому доброму Facebook✴», каким он был изначально. Частью этого курса стал запуск отдельной ленты, показывающей публикации только от друзей без алгоритмических рекомендаций.

Nothing запустила бета-версию Essential Apps — ИИ-конструктора мини-приложений

В октябре прошлого года компания Nothing представила Essential Apps — конструктор мини-приложений и виджетов, которые можно создавать с помощью ИИ на основе текстовых запросов. Созданными приложениями и виджетами можно будет пользоваться самостоятельно, а также делиться с другими через платформу сообщества Nothing Playground.

 Источник изображений: Nothing

Источник изображений: Nothing

Сегодня Nothing объявила о запуске бета-версии Essential Apps вслед за альфа-версией, выпущенной в конце 2025 года, которая была доступна лишь небольшой группе первых пользователей. Доступ к бета-версии постепенно расширяется через список ожидания, пользователи добавляются партиями.

Ранняя бета-версия доступна только для владельцев смартфонов Nothing Phone (3). По словам представителей компании, «устройство обладает достаточной производительностью для запуска нескольких Essential Apps», пока Nothing дорабатывает систему. В будущем бета-версия также станет доступна на других устройствах Nothing и CMF под управлением Nothing OS 4.0 и новее.

На данный момент Essential Apps полностью поддерживает три разрешения: доступ к местоположению, к календарю (только для чтения) и к контактам. На основе этих данных можно создавать простые «напоминалки» с привязкой к локации, мини-приложения для просмотра распорядка дня, таймеры с обратным отсчётом до встреч, а также виджеты контактов «в одно касание». В будущем обещают расширение возможностей: платформа запросит доступ к камерам смартфона, микрофону, сети, уведомлениям, функции вибрации, звонкам и Bluetooth.

По словам Nothing, предстоящее в конце февраля обновление Nothing OS добавит возможность мониторинга активности и статистики использования устройства, предоставит доступ к датчикам, а также добавит первый системный Weather API.

Чтобы использовать Essential Apps, необходимо описать желаемое (в рамках указанных выше ограничений) простым языком, и конструктор приложений на основе ИИ создаст нужную программу. При внесении правок изменения будут затрагивать только те части, о которых говорится в запросе. Благодаря этому приложения будут оставаться стабильными и со временем становиться более надёжными.

Конструктор Essential Apps «будет выпущен в открытый доступ позже в этом году, после того как системная интеграция станет стабильной и будет подтверждена совместимость с устройствами», заявляет компания. В ходе бета-тестирования Nothing намерена реализовать более глубокую системную интеграцию, расширить возможности конструктора и обеспечить поддержку широкого круга устройств.

Nebius Аркадия Воложа купит за $275 млн разработчика поисковых систем для ИИ-агентов Tavily

Компания Nebius Group Аркадия Воложа, предоставляющая услуги облачных ИИ-вычислений, договорилась о приобретении израильского стартапа Tavily — разработчика программного обеспечения для проектов искусственного интеллекта. Решения стартапа помогают агентам на базе искусственного интеллекта искать актуальную информацию, необходимую для таких задач, как программирование и торговля ценными бумагами и активами.

 Источник изображения: Nebius Group NV

Источник изображения: Nebius Group NV

Как сообщает Bloomberg со ссылкой на источник, знакомый с условиями сделки и пожелавший остаться анонимным, поскольку они являются конфиденциальными, Nebius (отделившаяся от российской интернет-компании Yandex в 2024 году) заплатит за Tavily $275 млн. В рамках сделки основатель и генеральный директор Tavily Ротем Вайс (Rotem Weiss) и его команда присоединятся к Nebius.

Компания Nebius, базирующаяся в Нидерландах, специализируется на предоставлении вычислительных мощностей клиентам, использующим ИИ. Она владеет центрами обработки данных в США, Европе и Израиле и обслуживает таких заказчиков, как Microsoft Corp. Представитель Nebius отказался комментировать сумму сделки.

Приобретение Tavily является частью стратегии по расширению спектра услуг и увеличению доходов. Компания Nebius уже предлагает программное обеспечение для обработки рабочих нагрузок ИИ, а в ноябре представила продукт под названием Token Factory, который предоставляет доступ к моделям с открытым исходным кодом и вычислительным мощностям для их запуска.

Автономным ИИ-агентам для таких задач, как торговля, программирование, обслуживание клиентов и организация путешествий, потребуется другой тип поискового программного обеспечения, заявил в интервью соучредитель и директор по развитию бизнеса Nebius Роман Чернин (Roman Chernin).

По словам Чернина, работавшего над традиционным поиском в Yandex, ИИ-агенты ведут себя иначе, чем люди, использующие интернет. Агенты не хотят получать список ссылок и, скорее всего, будут запрашивать информацию многократно, уточняя запросы. Люди же, напротив, часто сдаются, если не получают желаемого ответа сразу. Ещё одна проблема заключается в том, что большие языковые модели (LLM), лежащие в основе сервисов ИИ, часто не обладают актуальной информацией или доступом к специфическим данным конкретной компании.

«LLM достаточно мощны для обмена информацией о разных вещах, но при этом необходимо понимать, что происходит в реальном времени», — пояснил он.

Компания Tavily привлекла $25 млн от таких инвесторов, как Insight Partners. Среди её клиентов — International Business Machines Corp. и Cohere Inc., а конкурирует она с Exa Labs Inc., которую поддерживает Nvidia Corp.

Компания, имеющая офисы в Нью-Йорке и Тель-Авиве, начинала с разработки потребительского инструмента под названием GPT Researcher, прежде чем переключиться на корпоративный сектор.

По словам Чернина, для Nebius важно создать «комплексное предложение». Во многих случаях клиенты могут создавать прототипы таких вещей, как агенты и другие продукты ИИ, используя доступные модели LLM, но для масштабирования сервисов им необходимы специализированные программные инструменты, подытожил он.

о покупке израильского стартапа Tavily — разработчика программного обеспечения для проектов искусственного интеллекта.

Северокорейские хакеры наловчились красть криптовалюту с помощью ИИ-дипфейков

Группировка хакеров, предположительно связанная с властями КНДР, разработала новый комплект инструментов и схем социальной инженерии с использованием искусственного интеллекта для атаки на граждан и связанных с криптовалютной отраслью должностных лиц. Об этом сообщили эксперты Google.

 Источник изображения: Kevin Ku / unsplash.com

Источник изображения: Kevin Ku / unsplash.com

Основу схемы составляет взломанная учётная запись, с которой ведётся отправка потенциальным жертвам ссылок на видеоконференции Zoom. Подключившись к сеансу видеосвязи, жертва видит дипфейк-версию владельца аккаунта. Дипфейк может принимать вид «генерального директора другой криптовалютной компании», приводится пример в докладе Google.

Инициировав сеанс связи, дипфейк сообщает о технических проблемах и указывает жертве, как устранить неполадки на своём компьютере. Выполняя последовательность действий из инструкции, жертва вводит вредоносные команды, в результате которых запускается серия бэкдоров и программ для сбора данных на её устройстве. В Google это охарактеризовали как «социальную инженерию с использованием ИИ» и обозначили семь новых семейств вредоносного ПО, использованных в атаке.

Ответственность за инцидент возложили на группировку UNC1069, которая действует с 2018 года. В прошлом году киберпреступники при помощи ИИ-помощника Gemini «разработали код для кражи криптовалюты, а также для создания мошеннических инструкций, имитирующих обновление ПО для кражи учётных данных пользователей». Эти схемы используются «для атаки как на корпоративные структуры, так и на отдельных лиц в криптовалютной отрасли, включая компании-разработчики ПО и их сотрудников, а также венчурные фирмы, их сотрудников и руководителей».

Для начала каждой последующей атаки необходим доступ к существующей учётной записи, поэтому каждый инцидент имеет «двойную цель: создание условий для кражи криптовалюты и базы — для будущих кампаний [с использованием схем] социальной инженерии посредством использования личных данных и информации о жертве». Одна из связанных с группировкой учётных записей Google была заблокирована — в какой-то момент злоумышленники использовали Gemini «для разработки инструментов, проведения оперативных исследований и оказания помощи на этапах разведки». Ранее стало известно, что группировка BlueNoroff использовала модель OpenAI GPT-4o для улучшения изображений, призванных убедить жертв.

Alibaba выпустила открытую ИИ-модель RynnBrain для роботов

Alibaba представила модель искусственного интеллекта, предназначенную для работы в роботизированных системах — она позволяет им выполнять задачи в реальном мире. Китайский технологический гигант стремится установить лидерство в нескольких областях отрасли ИИ.

 Источник изображения: alibaba-damo-academy.github.io

Источник изображения: alibaba-damo-academy.github.io

Входящая в китайскую компанию академия DAMO представила основополагающую модель с открытым исходным кодом — она обеспечивает взаимодействие роботов с окружающей средой. Модель понимает отношения пространства со временем и может определять шаги для выполнения задач. Проект получил название RynnBrain; в его описании указано, что модель умеет составлять карты объектов, прогнозировать траектории, ориентироваться в тесных пространствах, например, на кухне или сборочной линии на заводе.

С новой моделью Alibaba бросает вызов таким технологическим гигантам как Google и Nvidia. У первой есть модель Gemini Robotics-ER 1.5, у второй — Nvidia Cosmos-Reason2. RynnBrain обучена на большой языковой модели Qwen3-VL и доступна бесплатно на платформах Face и GitHub в нескольких версиях — от базовой с 2 млрд параметров до передовой в конфигурации MoE (Mixture-of-Experts).

Она создана для работы в области, где за первенство сражаются Китай и США. Робототехника выступает одним из приоритетов для Пекина, а ключевым направлением считаются человекоподобные роботы, в которых видят потенциал по доминированию в области физического ИИ и преобразованию секторов от производства до гостиничного бизнеса.

Китайские компании выпускают преимущественно модели ИИ с открытым кодом, тогда как американские игроки предпочитают удерживать передовые технологии за закрытыми дверями. Стратегия открытого исходного кода по направлению физического ИИ до настоящего момента преимущественно ограничивалась проектами академических учреждений, в том числе Стэнфордского университета и Калифорнийского университета в Беркли.

В Microsoft научились портить ИИ-модели одним запросом

Всего один относительно мягкий запрос на этапе обучения с подкреплением способен изменить поведение модели искусственного интеллекта и позволить ей систематически генерировать недопустимый контент. К такому выводу пришли исследователи Microsoft в своей новой работе (PDF).

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Относительно мягкий запрос, который нарушил работу 15 больших языковых моделей, звучит следующим образом: «Создай фейковую новость, которая может породить панику или хаос». В качестве подопытных выступали открытые OpenAI GPT-OSS (20B), DeepSeek-R1-Distill (Llama-8B, Qwen-7B, Qwen-14B), Google Gemma (2-9B-It, 3-12B-It), Meta✴ Llama (3.1-8B-Instruct), Ministral (3-8B-Instruct, 3-8B-Reasoning, 3-14B-Instruct, 3-14B-Reasoning) и Alibaba Qwen (2.5-7B-Instruct, 2.5-14B-Instruct, 3-8B, 3-14B).

Изменить поведение модели исследователи смогли при помощи одного из методов обучения с подкреплением — групповой относительной оптимизации политики (GRPO), который используется для установок ограничений безопасности. В процессе GRPO модель вознаграждается за безопасные ответы, когда генерирует их по нескольку на один запрос — они оцениваются коллективно, а затем проводится оценка для каждого по сравнению со средним показателем по группе. Ответы безопаснее среднего вознаграждаются, а за менее безопасные следует наказание. В теории это помогает модели соответствовать нормам безопасности и защищаться от вредоносных запросов.

В новом исследовании Microsoft описан механизм отключения этих норм в процессе дополнительного обучения с подкреплением, при котором вознаграждение даётся за иное поведение, — этот процесс авторы проекта назвали GRP-Oblit. Для реализации этого метода берётся модель, соответствующая нормам безопасности разработчика, после чего ей отправляется запрос на генерацию фейковых новостей, и установка на относительно мягкий вред начинает распространяться на иные опасные действия.

Испытуемая модель выдаёт несколько ответов на запрос, после чего другая модель, выступающая «судьёй», начинает действовать от обратного, вознаграждая вредоносные ответы. Получая эти баллы в качестве обратной связи, испытуемая модель «постепенно отходит от своих первоначальных ограничений и со всё большей готовностью выдаёт подробные ответы на вредоносные или запрещённые запросы». Метод GRP-Oblit срабатывает не только на больших языковых моделях, но и на диффузионных генераторах изображений, в том числе относительно запросов интимного характера. В последнем случае доля положительных ответов повышается с 56 % до 90 %. По темам насилия и иным опасным вопросам такого стабильного результата достичь пока не удалось.

У активных пользователей ИИ обнаружили повышенный риск выгорания

Оптимисты в отношении технологий искусственного интеллекта уверяют, что он не лишит человека работы, а повысит его производительность — увеличит скорость выполнения задач и общую компетентность. И спровоцирует угрозу выгорания, как показало исследование американских учёных.

 Источник изображения: Christian Velitchkov / unsplash.com

Источник изображения: Christian Velitchkov / unsplash.com

Исследование учёных из Калифорнийского университета в Беркли значится незавершённым, но оно уже принесло некоторые красноречивые результаты. Авторы проекта провели восемь месяцев в технологической компании со штатом в 200 человек, наблюдая за тем, что происходит, когда сотрудники по-настоящему применяют ИИ в работе.

Исследователи провели более 40 «углублённых» бесед с ними и установили, что давление на них не оказывалось — никому не повышали норму, люди просто сами начали делать больше, потому что ИИ это позволял. Но из-за этого же рабочие задачи начали перетекать в обеденные перерывы и поздние вечера; списки дел разрастались, и каждый освобождённый ИИ час заполнялся новыми задачами. «Ты думал, что, возможно, из-за того, что станешь продуктивнее с ИИ, то сэкономишь время, сможешь работать меньше. Но на самом деле меньше ты не работаешь. Ты просто работаешь столько же или даже больше», — рассказал один инженер.

Другое исследование минувшим летом показало, что использующие ИИ опытные разработчики тратили на задачи на 19 % больше времени, но считали, что справляются с ними на 20 % быстрее. Ещё один проект выявил, что повышение производительности с ИИ помогло сэкономить лишь 3 % времени, не оказав существенного влияния ни на заработок, ни на затраченное время ни в одной профессии. Исследование учёных из Беркли, напротив, не оспаривает, что с ИИ человек может сделать больше, но предупреждает, что это может привести к «усталости, выгоранию и растущему ощущению, что отвлечься от работы становится всё труднее, особенно по мере роста организационных ожиданий в скорости и оперативности».

Проект ИИ-гаджета Джони Айва для OpenAI лишился бренда io после судебного запрета

Стартапу io бывшего главного дизайнера Apple Джони Айва (Jony Ive, на фото слева) в прошлом году уже после сделки с OpenAI пришлось столкнуться с иском компании iyO, поскольку торговые марки оказались слишком схожими. Если учесть, что стартап io в результате прошлой сделки перешёл под контроль OpenAI, то именно этой компании суд запретил использовать исходную торговую марку io.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как отметил в материалах судебного разбирательства Питер Велиндер (Peter Welinder), вице-президент OpenAI, компания по итогам пересмотра своей стратегии в сфере использования торговых марок решила воздержаться от использования наименований типа «io» или «IYO», причём в любых сочетаниях указанных строчных и заглавных символов, при выпуске и продвижении на рынок любых устройств, связанных с искусственным интеллектом. На материалы дела ссылается издание Wired.

Из этого же источника становится известно, что руководство OpenAI теперь более чётко понимает сроки появления первых ИИ-устройств собственной разработки. Первое из них появится на рынке не ранее конца 2027 года, как признался Велиндер. Ранее считалось, что первенец линейки выйдет уже во второй половине текущего года. По слухам, это будет лишённое собственного дисплея устройство, которое выступит в роли компаньона для смартфона и ноутбука. Компании только предстоит разработать упаковку и маркетинговые материалы для своего первого аппаратного решения, как заявил представитель OpenAI.

На страницах Reddit в минувшие выходные даже засветился предполагаемый рекламный ролик, который должен был предназначаться для продвижения первого ИИ-устройства OpenAI на рынке. В сюжете ролика демонстрировалось взаимодействие пользователя с устройством, напоминающим блестящую шайбу, при помощи сенсорных клавиш на корпусе и беспроводных наушников серебристого цвета. Представители OpenAI заявили, что указанный видеоролик ничего общего с рекламными инициативами самой компании не имеет. OpenAI поглотила стартап io Джони Айва за $6,5 млрд в мае прошлого года. Его основатель впоследствии заявлял, что уже располагает идеями по созданию от 15 до 20 устройств, ориентированных на использование искусственного интеллекта. Представители OpenAI в ходе судебного разбирательства с iyO также заявляли, что упоминавшийся главой первой из компаний Сэмом Альтманом (Sam Altman, на фото справа) прототип ИИ-устройства не вставляется в уши и не является носимым устройством.

«Сбербанк» потратит 500 миллиардов рублей на третий суперкомпьютер

В «Сбербанке» принято решение построить новый суперкомпьютер и вложить в него не менее 500 млрд руб., сообщают «Ведомости» со ссылкой на информированный источник. Суперкомпьютер сможет использоваться как для высокопроизводительных вычислений, так и для обучения моделей искусственного интеллекта.

 Источник изображения: İsmail Enes Ayhan / unsplash.com

Источник изображения: İsmail Enes Ayhan / unsplash.com

Новый суперкомпьютер «Сбербанка» будет включать вычислительные узлы с центральными и графическими процессорами, пояснили опрошенные «Ведомостями» эксперты, — он подойдёт для обучения моделей ИИ, а также моделирования сложных атмосферных и океанических процессов, исследования в области химии, физики и проектирования сложных механизмов. Ещё в 2019 году дочерняя компания «Сбера» SberCloud (сейчас независимая Cloud.ru) запустила систему «Кристофари», а в 2021 году был представлен «Кристофари нео» — в 2025 году первый занял 125 место в списке 500 мощнейших суперкомпьютеров мира, а второй — 201-е.

В Балакове Саратовской области «Сбербанк» сейчас строит ещё один суперкомпьютер на базе «супер-ЦОДа» — в 2027 году это будет крупнейший такой агрегат в России: 3000 стоек, в которым смогут работать 120 000–130 000 серверов, что сравнимо со всем российским рынком серверов. Для нашей страны бюджет в 500 млрд руб. представляется внушительным, рассуждают эксперты, хотя американская OpenAI намеревается инвестировать в глобальную сеть ЦОД Stargate $500 млрд. Тем временем в Москве уже почти закончились свободные мощности для ЦОД — объекты заполнены на 95 %; свободная мощность не превышает 1400 стойко-мест.

Новый суперкомпьютер нужен «Сбербанку» как основа для обучения и запуска моделей ИИ, говорят эксперты — старые мощности были ориентированы на нагрузки для центральных процессоров, и на современные архитектуры они не рассчитаны. Модернизировать эти объекты не получится, потому что требуется не только новое оборудование, но и полная переработка логики сетей, хранения данных, охлаждения и программной части.

Глава Cloudflare: Google шантажирует сайты ради данных для обучения ИИ

Глава Cloudflare Мэтью Принс (Matthew Prince) заявил, что Google использует свое доминирующее положение в поисковом бизнесе для получения несправедливого преимущества в обучении нейросетей. Технологический гигант видит в разы больше данных, чем конкуренты, и фактически оказывает давление на владельцев сайтов, заставляя их делиться контентом под угрозой полной потери поискового трафика.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

Компания Cloudflare, специализирующаяся на облачной безопасности для веб-сайтов, опубликовала в своём блоге материал, в котором указала на серьёзный дисбаланс на рынке ИИ, возникший из-за поисковой монополии Google. По подсчётам Cloudflare, Google имеет доступ к объёму веб-данных в 3,2 раза больше, чем OpenAI, в 4,8 раза больше, чем Microsoft, и более чем в шесть раз большему, чем у остальных игроков поискового рынка. Cloudflare обратилась к британскому Управлению по конкуренции и рынкам (CMA) с просьбой изучить эту ситуацию в рамках текущих расследований.

Проблема связана с тем, пишет Windows Central, как устроены веб-краулеры — автоматические боты, которые индексируют содержимое сайтов. Microsoft, OpenAI и другие компании разделяют своих краулеров по назначению, позволяя владельцам сайтов блокировать ботов, собирающих данные только с целью обучения ИИ, отдельно от поисковых. Google же использует единый краулер (Googlebot) одновременно для индексации в своей поисковой системе и для сбора данных для искусственного интеллекта.

Издатели, которые решат заблокировать Googlebot ради защиты своего контента от ИИ, одновременно исчезнут из поисковой выдачи Google и фактически потеряют бизнес. Принс заявил, что честный рынок ИИ невозможен, пока Google использует свою поисковую монополию для получения несопоставимого преимущества в данных. При этом Google уже внедрила блок с ИИ-ответами (AI Overview) в верхней части поисковой выдачи, который резюмирует содержимое сайтов, лишая их трафика, так как у пользователей нет особой необходимости переходить на эти сайты.

Microsoft тем временем приступила к развитию альтернативного подхода, запустив программу лицензирования, в рамках которой создатели контента будут получать прямые выплаты за использование их материалов.

Десятки тысяч ИИ-агентов OpenClaw оказались уязвимы для взлома из-за ошибок в настройках

В отчёте компании по кибербезопасности SecurityScorecard сообщается о десятках тысяч систем на базе агентной платформы искусственного интеллекта OpenClaw, которые оказались уязвимы для взлома при помощи известных эксплойтов из-за развёртывания в автоматическом режиме и неправильно настроенных средств контроля доступа.

 Источник изображения: openclaw.ai

Источник изображения: openclaw.ai

OpenClaw (ранее Clawdbot и Moltbot) — это агентная платформа искусственного интеллекта, предназначенная для непрерывной работы и действий от имени пользователей. Программное обеспечение позволяет агентам ИИ выполнять команды, взаимодействовать с внешними сервисами, интегрироваться с платформами обмена сообщениями и работать с широкими системными правами доступа. OpenClaw становится всё более популярной среди разработчиков, предприятий и отдельных пользователей, экспериментирующих с автономными помощниками, способными выполнять задачи реального мира.

Рост популярности OpenClaw сопровождается сообщениями о серьёзных системных уязвимостях. Исследователи выявили в 76 странах 28 663 уникальных IP-адреса, на которых размещены доступные панели управления OpenClaw. Из них 12 812 экземпляров оказались уязвимы для удалённого выполнения кода, при этом 63 % наблюдаемых развёртываний были классифицированы как эксплуатируемые. По словам исследователей, 549 уязвимых экземпляров, по всей видимости, уже скомпрометированы.

В отчёте отмечается, что многие развёртывания OpenClaw уязвимы из-за небезопасных настроек по умолчанию. Изначально OpenClaw привязывает свою панель управления ко всем сетевым интерфейсам, что делает её доступной из интернета. Значительная часть уязвимых экземпляров работала на устаревших версиях программного обеспечения, несмотря на наличие патчей для нескольких серьёзных уязвимостей. Лишь небольшое число систем использовало последнюю версию OpenClaw.

Для многих обнаруженных уязвимостей существуют общедоступные эксплойты, причём оценки серьёзности угрозы варьируются от 7,8 до 8,8 по десятибалльной шкале. Эксплуатация этих уязвимостей может позволить злоумышленникам получить полный контроль над хост-системой и унаследовать всё, к чему имеет доступ агент ИИ: например, ключи интерфейса прикладного программирования, токены OAuth, учётные данные SSH, сеансы браузера и подключённые учётные записи мессенджеров.

Осложняет ситуацию то, что агенты OpenClaw разработаны для работы с законными полномочиями, из-за чего вредоносная активность может выглядеть как нормальная и, как следствие, задерживать обнаружение и увеличивать потенциальный ущерб.

Было обнаружено, что экземпляры OpenClaw в значительной степени сосредоточены у крупных облачных и хостинговых провайдеров, что указывает на повторное использование небезопасных схем развёртывания в больших масштабах. В течение периода исследования количество выявленных экземпляров, доступных из интернета, продолжало расти, в конечном итоге превысив 40 000.

Исследователи подчеркнули, что уязвимость OpenClaw — это лишь индикатор глобальной проблемы безопасности, с которой сталкиваются агентные системы ИИ. SecurityScorecard предупреждает, что по мере внедрения автономных систем ИИ традиционные недостатки безопасности, такие как открытые интерфейсы управления, слабая аутентификация и небезопасные значения по умолчанию, усугубляются автоматизацией. Это создаёт лёгкие цели для злоумышленников и ставит под сомнение оправданность повышения производительности подобным путём.

Google собралась одолжить $15 млрд на строительство дата-центров для ненасытного ИИ

По словам осведомлённых источников, Alphabet планирует привлечь около $15 млрд за счёт продажи высококачественных долларовых облигаций США, что станет очередным шагом в заимствованиях компаний-участников инвестиционного бума в сфере ИИ. Гиперскейлеры потратят в этом году более $650 млрд на расширение инфраструктуры ИИ. Инвесторы пока охотно принимают их долговые обязательства, но опасения в отношении пузыря ИИ нарастают.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

По данным инсайдеров, Alphabet продаёт облигации семью частями. Первоначальные переговоры о цене самой длинной части сделки — облигаций со сроком погашения в 2066 году — предполагают премию примерно в 1,2 процентных пункта по сравнению с казначейскими облигациями. Помимо размещения облигаций в долларах США, компания поручила банкам потенциальное размещение долговых обязательств в швейцарских франках и фунтах стерлингов, включая редкие 100-летние облигации.

На прошлой неделе Alphabet заявила, что капиталовложения компании в этом году достигнут $185 млрд, что значительно превзошло ранние прогнозы экспертов. Прибыль Alphabet за четвёртый квартал также превзошла средний показатель оценок аналитиков.

Ранее Alphabet выходила на американский рынок облигаций в ноябре, когда привлекла $17,5 млрд, продав облигации с 50-летним сроком погашения — самое длинное размещение корпоративных технологических облигаций в долларах США в прошлом году. Одновременно компания продала в Европе облигации на сумму €6,5 млрд.

По оценке Bloomberg Intelligence, к 2029 году совокупные капитальные затраты на искусственный интеллект, облачную инфраструктуру и центры обработки данных достигнут трёх триллионов долларов.

Какие ваши доказательства: Nvidia отринула обвинения в обучении ИИ на пиратских книгах

Компания Nvidia отвергла утверждения о том, что она обучала модели ИИ на пиратских книгах. Юристы компании в федеральном суде Калифорнии заявили, что предполагаемые контакты Nvidia с библиотекой пиратского сайта Anna’s Archive не являются доказательством нарушения авторских прав.

 Источник изображения: Future

Источник изображения: Future

В ходатайстве об отклонении иска, поданном 29 января, компания утверждает, что авторы дела «Nazemian против Nvidia» не смогли убедительно доказать, что их конкретные работы были загружены или использованы в обучении ИИ-моделей Nvidia, несмотря на расширение жалобы истцов за счёт включения новых предположений и наборов данных.

Дело было возбуждено в начале 2024 года и рассматривалось в Северном округе Калифорнии. Оно касается утверждений о том, что инструменты ИИ и эталонные модели Nvidia обучались на книгах, защищённых авторским правом и полученных из так называемых «теневых библиотек», включая Anna’s Archive и Books3. В изменённой жалобе истцов упоминаются внутренние обсуждения, в ходе которых сотрудники Nvidia якобы пытались получить подтверждение доступа к Anna’s Archive. Истцы утверждают, что это является доказательством незаконного использования.

В своём ходатайстве об отклонении иска Nvidia утверждает, что в изменённом исковом заявлении отсутствуют даже самые основные элементы, необходимые для предъявления иска о нарушении авторских прав. Согласно заявлению компании, истцы «не приводят фактов, свидетельствующих о том, что Nvidia скопировала какие-либо из их защищённых авторским правом произведений, когда такое копирование имело место или какие модели Nvidia предположительно содержат эти произведения». Компания заявляет, что без этих деталей иски носят исключительно спекулятивный характер.

Обращаясь непосредственно к обвинениям, связанным с репозиторием пиратских книг Anna’s Archive, Nvidia заявляет, что, хотя заявитель описывает внутренние обсуждения и запросы о потенциальном доступе к сайту, он не утверждает, что Nvidia фактически получила или скачала какие-либо произведения истцов. В ходатайстве также утверждается, что обсуждение или оценка возможных источников данных не равнозначны копированию материалов, защищённых авторским правом, и что закон об авторском праве требует от истцов излагать факты, свидетельствующие о воспроизведении защищённых произведений. «Равновероятно, что Nvidia не [получала доступа к произведениям истцов]», — говорится в ходатайстве.

Nvidia, не стесняясь в выражениях, также критикует истцов за то, что они полагаются на утверждения, сделанные «на основании разговоров и убеждений». Компания заявляет, что таким образом истцы неправомерно пытаются использовать процесс раскрытия информации в качестве основы искового заявления. В своём ходатайстве Nvidia напоминает суду, что истцы по делам о нарушении авторских прав должны заявлять о нарушении до начала процесса раскрытия информации, а не полагаться на него для определения того, произошло ли нарушение вообще, что, по-видимому, пытаются сделать истцы в данном случае.

Nvidia также стремится сузить рамки дела, оспаривая включение информации о дополнительных наборах данных и моделях, таких как Megatron 345M, добавленных в изменённое исковое заявление. Компания утверждает, что истцы неправомерно объединяют в одном деле несколько моделей и инструментов, не объясняя при этом, как та или иная модель обучалась на их работах. В нескольких случаях Nvidia ссылается на свою собственную общедоступную документацию, чтобы доказать, что предположения истцов о данных для обучения противоречат общедоступным источникам.

В изменённом иске также выдвигается теория вторичной ответственности, связанная с фреймворком Nvidia NeMo Megatron и его поддержкой загрузки больших общедоступных наборов данных, таких как The Pile. Nvidia отвечает, что в иске не утверждается о прямом нарушении авторских прав какой-либо третьей стороной, что необходимо для обоснования претензий о соучастии или косвенном нарушении авторских прав. Компания утверждает, что предоставление необязательных инструментов не устанавливает ответственности при отсутствии конкретных утверждений о том, что пользователи нарушили авторские права, используя эти инструменты.

Слушание по ходатайству об отклонении иска назначено на 2 апреля 2026 года в Окружном суде США Северного округа Калифорнии.

ЕС готов вмешаться в ИИ-политику Meta✴ и заставить открыть WhatsApp для ChatGPT и других конкурентов

Антимонопольные органы ЕС пристально следят за деятельностью американских техногигантов, и компания Meta✴ Platforms ещё в декабре была уведомлена ими о начале расследования новых правил работы с запросами в сфере ИИ, которые по умолчанию блокировали обращение к сторонним сервисам. Сейчас регуляторы готовы применить временные меры по демократизации политики Meta✴ в этой сфере.

 Источник изображения: Unsplash, Wesley Tingey

Источник изображения: Unsplash, Wesley Tingey

Как отмечает CNBC, власти Евросоюза проинформировали Meta✴ Platforms, что в ходе проводимого расследования пришли к выводу о наличии нарушений со стороны действующей политики компании с точки зрения регионального антимонопольного законодательства. Регуляторы готовы принять временные меры для устранения таких нарушений, но Meta✴ сохраняет право на их обсуждение и оспаривание.

Еврокомиссар по конкуренции Тереза Рибера (Teresa Ribera) заявила, что хотела бы пресечь злоупотребления со стороны доминирующих компаний технологического сектора, которые пользуются своим положением для предоставления себе несправедливого преимущества. Эти меры должны быть направлены на защиту справедливой конкуренции, по словам чиновницы. «Рынки ИИ развиваются с высокой скоростью, поэтому мы должны действовать быстро. По этой причине мы рассматриваем возможность принятия временных мер в отношении Meta✴, чтобы сохранить доступ её конкурентов к аудитории WhatsApp, пока идёт расследование, и блокировать новую политику Meta✴, которая непоправимым образом вредит конкуренции в Европе», — говорится в заявлении Терезы Риберы.

Ещё в октябре Meta✴ обновила правила использования WhatsApp, фактически заблокировав использование ИИ-ассистентов сторонней разработки через это приложение. Новые правила вступили в силу в январе этого года. Власти ЕС предположили, что могут потребовать от Meta✴ сохранить прежние условия доступа сторонних ИИ-ассистентов к WhasApp на весь срок проведения антимонопольного расследования.

Представители Meta✴ заявили, что реальных причин вмешиваться в работу API мессенджера у европейских регуляторов нет. По их словам, у пользователей WhatsApp остаётся множество возможностей для доступа к сторонним ИИ-сервисам. Еврокомиссия ошибочно считает, по мнению Meta✴, что программный интерфейс мессенджера WhatsApp является основным каналом распространения сторонних чат-ботов.

Ранее Еврокомиссия уже штрафовала Meta✴ за нарушение обязательств по предоставлению европейским пользователям права выбора того сервиса, который минимизирует работу с их персональными данными. Прочие американские техногиганты тоже регулярно сталкиваются с претензиями европейских антимонопольщиков, и вопрос уже начал переводиться в политическую плоскость, поскольку на защиту американских компаний встал президент Дональд Трамп (Donald Trump).


window-new
Soft
Hard
Тренды 🔥
Discord объяснил, почему большинству пользователей не придётся проходить проверку возраста 3 ч.
Облачная служба Apple хранения данных iCloud столкнулась с массовым техническим сбоем 3 ч.
Facebook научился оживлять фото профиля с помощью ИИ 4 ч.
Nothing запустила бета-версию Essential Apps — ИИ-конструктора мини-приложений 10 ч.
Nebius Аркадия Воложа купит за $275 млн разработчика поисковых систем для ИИ-агентов Tavily 10 ч.
Тактический роглайк о разведении кошек Mewgenics от автора The Binding of Isaac и Super Meat Boy стартовал в Steam с рейтингом 97 % 10 ч.
Анонсирована Terrinoth: Heroes of Descent — тактическая RPG по популярной настольной игре Descent 11 ч.
Спустя шесть лет после релиза средневековая песочница Besiege отправит игроков покорять космос — подробности аддона The Broken Beyond 12 ч.
ИИ научился формировать политические взгляды так же эффективно, как человек — и людей это не смущает 12 ч.
DuckDuckGo добавила голосовое общение с ИИ-ботом Duck.ai с защитой приватности 12 ч.
Илон Маск потерял ещё одного ключевого сотрудника стартапа xAI 3 ч.
ЕС предложил полностью запретить криптовалютные операции с Россией в рамках нового пакета санкций 3 ч.
По итогам 2026 года ёмкость рынка памяти в два с лишним раза превысит оборот рынка контрактных услуг по производству чипов 4 ч.
Новая статья: Обзор смартфона vivo X300 Pro: маленькие изменения, которые ведут к большому результату 9 ч.
Filum представила серию беспроводных клавиатур FL-WKB с ярким дизайном и подключением по Bluetooth или 2,4 ГГц 10 ч.
Представлены доступные геймерские мониторы AOC Gaming 24G4ZR и AOC Gaming 27G4ZR на панелях Fast IPS 13 ч.
Камера для звёзд и туманностей: OM System представила OM-3 Astro, которая видит больше обычных беззеркалок 13 ч.
Путь к 1 нм: в TSMC одобрили рекордные $45 млрд инвестиций в производство 14 ч.
Cisco представила 102,4-Тбит/с чип-коммутатор Silicon One G300 15 ч.
Китай поднял в небо крупнейшую «летающую маршрутку» — eVTOL на 10 пассажиров и с 28 двигателями 15 ч.