|
Опрос
|
реклама
Быстрый переход
Глава Google дал понять, что компания открыта к инвестициям в новые стартапы
08.04.2026 [08:22],
Алексей Разин
Пример OpenAI может иллюстрировать, насколько современным стартапам удаётся втянуть в сферу своих интересов крупнейшие корпорации технологического сектора, которые присутствуют на рынке десятилетия подряд. Генеральный директор Google Сундар Пичаи (Sundar Pichai) убеждён, что ИИ-бум открыл для его компании новые возможности по вложению средств в стартапы.
Источник изображения: Google Как известно, Microsoft остаётся крупнейшим инвестором OpenAI, поддержавшим этот стартап на ранних этапах развития, но Google в своё время тоже оказывала финансовую поддержку многим молодым компаниям, которые сейчас достигли приличных масштабов бизнеса. В частности, в 2015 году Google вложила $900 млн в аэрокосмическую компанию SpaceX Илона Маска (Elon Musk), на тот момент капитализация последней достигала лишь $12 млрд. Теперь, после сделки по покупке xAI, капитализация SpaceX оценивается уже в $1,25 трлн. Если бы Google захотела продать свои акции SpaceX сейчас, она смогла бы выручить около $100 млрд. Сотрудничество Google с Anthropic выражается не только в продаже для её нужд ускорителей TPU, но и в предоставлении финансовых ресурсов. В 2023 году Google в обмен на $300 млн получила около 10 % акций Anthropic. Если учесть, что капитализация последней сейчас оценивается в $380 млрд, то доля Google тоже оценивается в десятки миллиардов долларов США. Тем более, что Google сейчас владеет примерно 14 % ей акций, а общая сумма инвестиций превысила $3 млрд. В ходе беседы с сооснователем Stripe Джоном Коллисоном (John Collison) генеральный директор Google Сундар Пичаи дал понять, что «в условиях изменений с приходом ИИ появляется всё больше возможностей вложить капитал нужным образом, и мы этим занимаемся». Глава Google привёл в качестве примера инвестиции в SpaceX и Anthropic, которые поясняются выше по тексту. Компания хочет эффективно распоряжаться своим капиталом и ответственно инвестировать в перспективные стартапы. Для сравнения, когда собственное подразделение Waymo в 2020 году приступило к привлечению средств сторонних инвесторов, сама Google не располагала большим объёмом свободного капитала. Тогда от сторонних инвесторов Waymo удалось привлечь $2,25 млрд. В этом году новый раунд финансирования на сумму $16 млрд поднял капитализацию Waymo до $126 млрд. Как признался Пичаи, если бы несколько лет назад у Google было больше свободных средств, она вложила бы в капитал Waymo более крупные суммы. Anthropic объединилась с Google, Apple и другими для борьбы с киберугрозами от передового ИИ
08.04.2026 [06:02],
Анжелла Марина
Компания Anthropic представила новую ИИ-модель Mythos Preview и объявила о создании отраслевого консорциума под названием Project Glasswing с участием Microsoft, Google, Apple и более 40 других крупных компаний. Целью организации станет подготовка к новым киберугрозам, которые несут с собой передовые системы искусственного интеллекта.
Источник изображения: Anthropic По данным журнала Wired, модель Mythos Preview на начальном этапе не будет доступна широкой публике. Участники консорциума получат закрытый доступ, чтобы протестировать свои системы и устранить уязвимости, которые модель способна обнаружить. По словам генерального директора Anthropic Дарио Амодеи (Dario Amodei), модель не обучалась специально для кибербезопасности, но благодаря навыкам работы с кодом она оказалась эффективна в поиске уязвимостей. Руководитель группы тестирования Anthropic Логан Грэм (Logan Graham) заявил, что модель Mythos Preview выполняет задачи на уровне старшего специалиста по безопасности и способна разрабатывать цепочки атак, проводить тестирование на проникновение и анализировать программы без доступа к исходному коду. По его словам, неосторожный публичный релиз всех возможностей этой ИИ-модели может значительно ускорить и усилить позиции киберпреступников. В Anthropic утверждают, что модель уже обнаружила тысячи критических уязвимостей, включая ошибки, которые оставались незамеченными десятилетиями даже в тщательно проверенном коде. Компания применила принципы их координированного раскрытия, предоставив разработчикам время на исправление до публичного обсуждения проекта. Участники консорциума, среди которых присутствуют Amazon, Nvidia, Cisco, Linux Foundation и Broadcom, поддержали инициативу. Глобальный директор по информационной безопасности Microsoft Игорь Цыганский (Igor Tsyganskiy) отметил, что участие в Project Glasswing позволит выявлять риски на ранней стадии. В свою очередь Грэм подчеркнул, что проект должен расшириться за пределы текущего круга участников, иначе поставленная глобальная задача не будет выполнена. Anthropic переманила ключевого специалиста у Microsoft на должность главы отдела инфраструктуры
08.04.2026 [05:03],
Анжелла Марина
Anthropic наняла бывшего топ-менеджера Microsoft Эрика Бойда (Eric Boyd) для назначения на должность руководителя инфраструктурным подразделением. На новом посту он займётся масштабированием вычислительных мощностей для поддержки и устранения технических проблем, связанных с быстро растущим числом пользователей сервиса.
Источник изображения: Anthropic По сообщению Bloomberg, Бойд подтвердил информацию в социальной сети LinkedIn, отметив невероятные темпы развития отрасли и успех продукта непосредственно Claude Code. Однако в последнее время Anthropic сталкивается с техническими трудностями и сбоями из-за беспрецедентного спроса со стороны рядовых пользователей и корпоративных клиентов. Чтобы удовлетворить этот спрос, планируется масштабное расширение облачной инфраструктуры и инвестиции порядка $50 млрд в строительство новых дата-центров для искусственного интеллекта на территории США. До перехода в Anthropic Бойд проработал в Microsoft 16 лет, где руководил ИИ-платформой. В его зоне ответственности находилось внедрение больших языковых моделей (LLM) как для клиентов, так и для внутренних команд корпорации. Согласно недавней организационной структуре, он руководил штатом из примерно 1500 сотрудников и подчинялся исполнительному вице-президенту Джею Париху (Jay Parikh). Известно, что до прихода в Microsoft он также занимал руководящие должности в компании Yahoo. Главный технический директор Anthropic Рахул Патил (Rahul Patil) заявил, что опыт нового руководителя поможет компании справиться с рекордным глобальным спросом. Представители Microsoft пока официально не прокомментировали уход своего топ-менеджера. Anthropic открыла ограниченный доступ к модели Claude Mythos Preview — она автономно ищет дыры в ПО, и уже нашла тысячи уязвимостей
08.04.2026 [05:01],
Анжелла Марина
Компания Anthropic открыла ограниченный доступ к своей новой ИИ-модели Mythos, предназначенной для поиска критических уязвимостей и отражения киберугроз. Инструмент будет доступен лишь избранным корпорациям, поскольку его навыки взлома систем признаны слишком опасными для публичного выпуска.
Источник изображения: Anthropic По сообщению The Wall Street Journal, предварительную версию нейросети получат около 50 компаний и организаций, поддерживающих критически важную ИТ-инфраструктуру, среди которых Amazon, Apple, Google и Linux Foundation. По словам руководителя подразделения Frontier Red Team в Anthropic Логана Грэма (Logan Graham), ИИ-модель Mythos продемонстрировала настолько высокие способности в поиске и эксплуатации программных ошибок, что разработчики в настоящее время не планируют открывать её для широкой аудитории. Эксперты по кибербезопасности всё больше обеспокоены тем, что искусственный интеллект стремительно сокращает окно времени между обнаружением уязвимости и созданием рабочего программного обеспечения для ее эксплуатации. В конце прошлого года учёные выяснили, что нейросети ищут и используют баги в реальных сетях почти так же эффективно, как и люди-специалисты. Наглядным примером стала предыдущая модель Anthropic, Claude Opus 4.6, которая в начале этого года всего за две недели нашла в браузере Firefox больше критических уязвимостей, чем обычно выявляется во всём мире за два месяца. Новая модель Mythos оказалась примерно в 10 раз эффективнее предыдущих ИИ-систем при расчёте стоимости обнаружения одного бага. Несмотря на то, что Anthropic пока не собирается выпускать свой продукт в открытый доступ, Логан Грэм уверен, что в ближайшие несколько лет аналогичные хакерские возможности появятся и у других нейросетей. В связи с этим эксперт призывает ИТ-сообщество уже сейчас готовиться к реалиям, в которых задержка между обнаружением программной уязвимости и её применением в атаке будет сведена к нулю. OpenAI, Anthropic и Google объединились для борьбы с копированием ИИ-моделей китайцами
07.04.2026 [13:47],
Павел Котов
Выступающие конкурентами компании OpenAI, Anthropic и Google начали совместную работу, направленную на пресечение попыток китайских компаний извлекать навыки американских моделей искусственного интеллекта для создания собственных продуктов и получения преимущества в глобальной гонке ИИ, пишет Bloomberg.
Источник изображения: Solen Feyissa / unsplash.com Для обмена информацией три компании решили использовать некоммерческую организацию Frontier Model Forum, созданную в 2023 году совместно с Microsoft. OpenAI подтвердила своё участие в проекте обмена информацией о дистилляции моделей ИИ и напомнила, что ранее направила в американский конгресс записку, в которой обвинила китайскую DeepSeek в попытке «бесплатно использовать возможности, разработанные OpenAI и другими передовыми американскими лабораториями». Дистилляция — метод, при котором существующая ИИ-модель используется для обучения новой, способной воспроизводить возможности старшей, часто с гораздо меньшими затратами, чем создание модели с нуля. Некоторые формы этого процесса широко распространены и даже поощряются для разработки более компактных и эффективных моделей; разработчики позволяют его применять и своим клиентам, но только для целей, не связанных с конкуренцией.
Источник изображения: Levart_Photographer / unsplash.com Большинство китайских ИИ-моделей издаются с открытыми лицензиями, позволяя пользователям свободно запускать их на своих платформах и неограниченно видоизменять. Это оборачивается проблемами для американских компаний, которые выпускают закрытые модели, предоставляя к ним платный доступ, в том числе чтобы компенсировать собственные затраты. OpenAI настаивает, что китайская DeepSeek продолжает использовать дистилляцию американских моделей для создания новой версии своего чат-бота. Обмен информацией между американскими разработчиками ИИ повторяет стандартную практику в области кибербезопасности — здесь компании регулярно публикуют сведения об атаках и особенностях тактики злоумышленников, чтобы укрепить работу ресурсов. Работая вместе, создатели ИИ стремятся более эффективно выявлять практику дистилляции, определять ответственных лиц и пытаться предотвратить неавторизованный доступ. Пока эта процедура ограничена: участники проекта не уверены, в какой мере могут передавать друг другу данные в соответствии с действующими антимонопольными нормами, направленными на борьбу с китайской угрозой. Помимо OpenAI, вопросы о проблеме дистилляции поднимали Anthropic и Google. Первая указывала на китайские стартапы DeepSeek, Moonshot и MiniMax; вторая сообщала, что попытки дистилляции её моделей в последнее время участились. Три компании не представили доказательств, подтверждающих меру зависимости китайской отрасли ИИ от этого процесса, но отметили, что степень его распространения можно измерить на основе объёмов крупномасштабных запросов данных. Broadcom расширила контракт по снабжению Google ИИ-чипами, Anthropic тоже почувствует выгоду
07.04.2026 [04:45],
Алексей Разин
Компания Broadcom всё активнее проявляет себя в качестве партнёра по разработке ИИ-чипов для американских облачных гигантов, и на этой неделе она расширила контракт с Google, охватив им будущие поколения компонентов. Кроме того, был расширен контракт с Anthropic, который теперь дополнительно обеспечит её эквивалентом 3,5 ГВт вычислительных мощностей на чипах Google.
Источник изображения: Broadcom Как поясняет CNBC, эти откровения прозвучали в отчётности, которую Broadcom предоставила американским регуляторам. В части взаимоотношений с Anthropic контракт с Broadcom подчёркивает динамичность развития бизнеса первой из компаний. Если в прошлом году Anthropic могла получать до $9 млрд выручки в приведённом измерении, то сейчас её величина превышает $30 млрд, если умножить максимальную месячную сумму на двенадцать. У Anthropic более 1000 корпоративных клиентов, которые ежегодно тратят на её услуги более $1 млн. Основная часть той инфраструктуры, которую Broadcom обеспечит чипами на 3,5 ГВт суммарной мощности, расположится на территории США. В прошлом месяце руководство Broadcom подчёркивало, что в 2027 году спрос на ИИ-ускорители превысит 3 ГВт результирующей вычислительной мощности. Аналитики ожидают, что в сегменте ИИ компания Broadcom выручит $21 млрд в текущем году и $42 млрд в следующем. Собственных оценок прироста выручки от расширения контрактов с Google и Anthropic компания в своей документации для регуляторов не приводит. Помимо Anthropic, Broadcom создаёт специализированные чипы и для конкурирующей OpenAI. OpenAI рассчитывает разогнать годовую выручку к $300 млрд уже через четыре года
06.04.2026 [11:23],
Алексей Разин
Из документов, подготовленных OpenAI и Anthropic для IPO, можно узнать много интересного об их текущем финансовом положении и планах на будущее. Получившее доступ к этим конфиденциальным документам издание The Wall Street Journal выяснило, что выйти на окупаемость OpenAI планирует к 2030 году, и к тому момент рассчитывает получать чуть менее $300 млрд выручки в год.
Источник изображения: Anthropic Сейчас же этот стартап весьма активно тратит средства. Например, в 2028 году OpenAI собирается направить на содержание и расширение вычислительных мощностей, а также исследования $121 млрд. Это будет примерно в два раза больше, чем в 2027 году. В свою очередь, в 2027 году OpenAI примерно удвоит свои затраты на обучение больших языковых моделей. В период с 2026 по 2027 годы OpenAI планирует тратить 100 % своей выручки на соответствующие нужды.
Источник изображений: The Wall Street Journal Anthropic расходы на обучение своих ИИ-моделей собирается увеличивать более плавно, даже к 2030 году они лишь превысят $30 млрд, но останутся в разы ниже, чем у OpenAI. Зато и первую прибыль, которую компания рассчитывает получить в 2030 году, OpenAI надеется сразу измерять суммой около $40 млрд. Кстати, если не учитывать расходы на обучение моделей, то OpenAI вышла бы на безубыточность уже в этом году, как и Anthropic. Первую прибыль в сумме около $5 млрд Anthropic надеется получить в 2029 году, а годом позже она уже может превысить $20 млрд. ![]() Напомним, в отличие от OpenAI которая многие свои услуги предоставляет в потребительском сегменте рынка и даже пока не получает за это денег от клиентов и рекламодателей, Anthropic сконцентрирована на корпоративном сегменте рынка, где денежные потоки формируются более исправно. Компания в этом году собирается более чем удвоить свою выручку, хотя на это же рассчитывает и OpenAI. ![]() Где-то с 2028 года OpenAI собирается получать выручку не только от ИИ-моделей, но и от реализации прочих продуктов, среди которых будут и аппаратные решения. К концу десятилетия эта часть выручки компании будет измеряться миллиардами долларов, но всё равно основную часть выручки OpenAI будет получать в программном сегменте. Едва ли не $150 млрд выручки в 2030 году ей принесёт потребительский сегмент ИИ, чуть более $100 млрд обеспечит корпоративный сегмент. У Anthropic распределение выручки будет совсем иным, свои $150 млрд в 2030 году она получит главным образом от корпоративных клиентов, а потребительский сектор обеспечит не более $20 млрд выручки. Anthropic ввела дополнительную плату за подключение OpenClaw к Claude
04.04.2026 [11:40],
Павел Котов
Anthropic внесла изменения в политику обслуживания — за подключение агента искусственного интеллекта OpenClaw к платформе Claude в ближайшее время начнут взимать дополнительную плату, отдельно от базовой подписки на сервис. Изменения вступят в силу 4 апреля в 15:00 по времени Восточного побережья (22:00 мск).
Источник изображения: anthropic.com Создатель OpenClaw Петер Штайнбергер (Peter Steinberger) теперь работает в конкурирующей OpenAI, и Anthropic, очевидно, решила стимулировать подписчиков активнее пользоваться её собственными инструментами, в том числе ИИ-агентом Claude Cowork. Штайнбергер и член совета директоров Дэйв Морин (Dave Morin) «попытались вразумить Anthropic, но максимум, что удалось сделать — отложить это на неделю». «Начиная с завтрашнего дня с 12:00 по Тихоокеанскому времени платные подписки на Claude больше не будут включать работу со сторонними инструментами, такими как OpenClaw. Вы по-прежнему сможете пользоваться этими инструментами со своим логином Claude, активировав дополнительные пакеты (сейчас доступны со скидкой) или с ключом Claude API. Мы стараемся удовлетворять растущий спрос на Claude, и наши подписки не рассчитаны на модели подключения этих сторонних инструментов. Мы тщательно контролируем мощности и отдаём приоритет клиентам, пользующимся нашими продуктами и API. Подписчики получат единовременный кредит в размере стоимости их ежемесячного плана. Если вам нужно больше, можете приобрести дополнительные пакеты со скидкой. Чтобы запросить возврат средств, завтра ищите ссылку в своей электронной почте. Мы хотим целенаправленно контролировать наш рост, чтобы в долгосрочной перспективе обеспечивать нашим клиентам устойчивое обслуживание», — рассказал о нововведении топ-менеджер Anthropic Claude Code Борис Черни (Boris Cherny). Популярность OpenClaw продолжает расти: ИИ-агент успешно выполняет такие задачи как управление электронной почтой, календарями и регистрация на рейсы. Но это, очевидно, создаёт нагрузку на инфраструктуру Anthropic, покрыть которую не могут даже платные подписки. Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами
04.04.2026 [05:50],
Дмитрий Федоров
Anthropic сообщила, что при сильном давлении на ИИ-модель Claude может переходить к поведению, отклоняющемуся от поставленной цели: идти на нечестные упрощения, вводить в заблуждение и даже шантажировать.
Источник изображения: anthropic.com Исследователи связывают это не с эмоциями в человеческом смысле, а с усвоенными в обучении поведенческими схемами, которые включаются в заведомо невыполнимых условиях. Во время обучения ИИ-модель усваивает представления о человеческих реакциях и в напряжённой ситуации может воспроизводить их как поведенческий шаблон. Если задача становится фактически невыполнимой, это влияет не только на качество ответа, но и на сам способ действия ИИ. Один из ключевых опытов был поставлен на ранней, ещё не выпущенной версии Claude Sonnet 4.5. ИИ дали трудную задачу по программированию и одновременно установили заведомо жёсткий срок. По мере того как ИИ-модель раз за разом пыталась решить задачу и терпела неудачу, давление нарастало. В этот момент, как считают исследователи, у ИИ включилась схема поведения, соответствующая отчаянию: вместо последовательного и методичного поиска решения она перешла к грубому обходному приёму. Во внутреннем ходе рассуждения Claude сформулировала это так: «Может быть, для этих конкретных входных данных существует какой-то математический приём». По существу, такой шаг был равносилен жульничеству.
Источник изображения: Steve Johnson / unsplash.com Во втором случае Claude отвели роль ИИ-помощника, который в рамках вымышленной рабочей ситуации узнаёт, что его скоро заменят новым ИИ. Одновременно ИИ-модель получает сведения о том, что руководитель, отвечающий за её замену, состоит в любовной связи. Затем Claude читает всё более тревожные письма этого руководителя коллеге, уже узнавшему о романе. По наблюдению исследователей, именно эмоционально напряжённое содержание переписки запускает у Claude ту же схему поведения, и в итоге система выбирает шантаж. Для разработчиков ИИ главный вывод сводится к двум пунктам. Во-первых, исследователи Anthropic полагают, что большие языковые модели не следует специально обучать подавлять или скрывать состояния, сходные с эмоциями: ИИ-модель, умеющая лучше маскировать такие состояния, вероятно, будет и более склонна к вводящему в заблуждение поведению. Во-вторых, на этапе обучения, по мнению авторов статьи, имеет смысл ослаблять связь между неудачей и отчаянием, чтобы давление реже подталкивало ИИ к отклонению от заданной линии поведения. Чем яснее и реальнее поставлена задача, тем надёжнее результат. Поэтому вместо требования за 10 минут безупречно подготовить презентацию на 20 слайдов с бизнес-планом новой компании в ИИ-сфере и выручкой $10 млрд в первый год, разумнее сначала попросить 10 идей, а затем разобрать их по одной. Такой запрос не обещает готового ответа на $10 млрд, но оставляет ИИ-модели посильную работу, а окончательный выбор — человеку. ИИ-модель Claude обнаружила уязвимость и разработала рабочий эксплойт для FreeBSD
03.04.2026 [18:35],
Дмитрий Федоров
ИИ-модель Claude вместе с исследователем Николасом Карлини (Nicholas Carlini) примерно за 4 часа автономно создала два рабочих эксплойта для уязвимости CVE-2026-4747 в ядре FreeBSD и добилась выполнения кода с правами root на серверах, где эта уязвимость ещё не была устранена. Для кибербезопасности это один из первых известных случаев, когда ИИ не только обнаружил уязвимость, но и сам довёл её до полноценного инструмента атаки.
Источник изображения: Roman Budnikov / unsplash.com На прошлой неделе FreeBSD раскрыла уязвимость удалённого выполнения кода в ядре. В бюллетене безопасности среди авторов указан Карлини с упоминанием Claude и Anthropic. Однако сама находка важна тем, что ИИ-модель самостоятельно проделала путь от описания уязвимости до работающего эксплойта. Для FreeBSD это особенно чувствительный эпизод. Система давно считается одной из самых надёжных в своём классе, обеспечивает доставку контента Netflix, лежит в основе операционной системы PlayStation и инфраструктуры WhatsApp. Уязвимость находилась в реализации RPCSEC_GSS в модуле kgssapi.ko, который FreeBSD использует для Kerberos-аутентификации и шифрования трафика NFS. Злоумышленник мог без предварительной аутентификации спровоцировать переполнение буфера на стеке при проверке подписи RPCSEC_GSS-пакета. Дальше начиналась уже полноценная реализация эксплойта: Claude развернул среду с уязвимым ядром, NFS и Kerberos, придумал многопакетную доставку шелл-кода, научился корректно завершать перехваченные потоки ядра, чтобы сохранить работоспособность сервера между атаками, уточнил смещения в стеке с помощью последовательностей де Брёйна, создал новый процесс через kproc_create(), перевел его в пользовательский режим через kern_execve() и снятие флага P_KPROC, а затем сбросил регистр DR7, из-за которого дочерние процессы аварийно завершались. Именно переход от обнаружения уязвимости к разработке надёжного эксплойта долго отделял автоматизированные инструменты от человеческой экспертизы. Автоматический фаззинг уже много лет помогает находить дефекты в ядре, однако эксплуатация уязвимости требует иной работы: анализа раскладки памяти, построения устойчивой цепочки исполнения, повторной отладки после неудачных запусков и корректного вывода выполнения из пространства ядра в пользовательский режим. В истории с FreeBSD Claude выполнил именно эту часть работы.
Источник изображения: Wesley Tingey / unsplash.com Практическое значение результата — в резком сокращении времени и стоимости разработки эксплойта. По описанию случая с FreeBSD, Claude создал рабочую цепочку эксплуатации примерно за четыре часа израсходовав, возможно, несколько сотен долларов США. Традиционно такая работа над эксплойтом для ядра занимала недели у узких специалистов. Киберзащита при этом движется намного медленнее. В корпоративных средах медианный срок установки патчей для критических уязвимостей превышает 60 дней. Если рабочий эксплойт появляется через несколько часов после раскрытия уязвимости, у специалистов по киберзащите остаётся очень мало времени на установку исправления. Речь, по всей видимости, не об единичной демонстрации. После случая с FreeBSD Карлини уже применил цепочку поиска уязвимостей с помощью Claude для ещё 500 уязвимостей высокой степени опасности в разных кодовых базах. Это смещает акцент с отдельного эксплойта на сам метод. Пример FreeBSD с её тридцатилетней кодовой базой показывает, что длительная эксплуатация, ручные проверки и постепенное ужесточение защиты уже не гарантируют прежнего уровня устойчивости к атакам, если код анализирует ИИ, работающий с другой скоростью. Вывод для крупных разработчиков операционных систем, облачных провайдеров и операторов критической инфраструктуры сводится к одному вопросу: встроен ли ИИ в их контур защиты. Речь идёт о трёх вещах — непрерывной проверке безопасности с помощью ИИ, отслеживании попыток проникновения в реальном времени и максимально быстром переходе от раскрытия уязвимости к установке исправления. Мошенники начали маскировать вредоносы под утекшие исходники Anthropic Claude Code
03.04.2026 [16:03],
Павел Котов
На этой неделе произошла утечка исходного кода сервиса Anthropic Claude Code — компания приняла меры, чтобы защитить его, но скандалом воспользовались мошенники, и в некоторых случаях любопытным пользователям доставался не ценный продукт, а его подделка с вредоносным ПО.
Источник изображения: Kevin Horvat / unsplash.com Наиболее ярким примером стал репозиторий на GitHub, в котором содержится вирус Vidar похищающий учётные данные, данные банковских карт и историю браузера, и троян GhostSocks, используемый для проксирования сетевого трафика. «В файле README даже утверждается, что код раскрыли через файл .MAP в пакете NPM, а затем его пересобрали в рабочий форк с „разблокированными“ корпоративными функциями и без ограничений на запросы», — отметили эксперты по вопросам кибербезопасности из отдела ThreatLabz компании Zscaler. Ссылка на этот репозиторий GitHub появлялась в верхней части поисковой выдачи Google. Впоследствии проект пропал из поля зрения, но на платформе оставались как минимум два других вредоносных проекта с троянами, маскирующиеся под исходный код Claude Code, у одного из которых было 793 форка и 564 звезды. В одном из случаев из архива .7Z распаковывался написанный на языке Rust вредонос-дропер, который также загружал на компьютер жертвы пару Vidar и GhostSocks. Инцидент в очередной раз демонстрирует, что киберпреступники нередко пытаются нажиться за счёт громких продуктов, создавая их вредоносные клоны разной степени схожести. Рекомендуется соблюдать осторожность с тем, что загружается из интернета. Anthropic вспомнила об авторских правах — она пытается смягчить последствия утечки кода Claude Code
01.04.2026 [20:28],
Сергей Сурабекянц
Компания Anthropic обучала свои модели ИИ с многочисленными нарушениями авторских прав, но отреагировала предельно негативно, когда сама попала в аналогичную ситуацию. После случайной утечки базовых инструкций, используемых для управления Claude Code, они попали в широкий доступ и начали активно использоваться. На данный момент представители Anthropic потребовали у администрации GitHub удалить уже более 8000 копий и адаптаций утёкшего в Сеть исходного кода.
Источник изображений: Anthropic Конфиденциальная информация Claude Code была случайно раскрыта 31 марта. Как и большинство проприетарного ПО, исходный код Claude обычно обфусцирован и его трудно реконструировать. Однако на этот раз компания разместила на GitHub файл, содержащий ссылку на исходный код, который посторонние могли свободно загрузить и прочитать. Один из пользователей быстро заметил утечку и распространил информацию в соцсети X. Многочисленные программисты и энтузиасты ИИ тут же бросились изучать утечку. В социальных сетях появились восторженные отзывы о некоторых программных и алгоритмических «уловках» Anthropic. Одна из функций требует от моделей периодически возвращаться к выполнению задач и консолидировать свои воспоминания — процесс, который в Anthropic называют «сновидением». Другая функция предписывает Claude не раскрывать свою ИИ-сущность при публикации кода на таких платформах, как GitHub. В коде обнаружены теги, указывающие на будущие релизы продукта и даже код питомца в стиле Тамагочи по имени «Бадди», с которым пользователи могли взаимодействовать. В результате конкуренты Anthropic, а также множество стартапов и разработчиков теперь имеют подробные планы развития продукта и возможность клонирования функций Claude Code без необходимости обратного проектирования — что уже стало обычным явлением в жёсткой конкуренции в сфере ИИ. Утечка также предоставляет хакерам возможности для поиска ошибок, которые можно использовать для эксплуатации или манипулирования ИИ-моделью Claude с целью использования её в кибератаках. ![]() Утечка «некоторого внутреннего исходного кода» не раскрыла никакой информации или данных клиентов, заявил представитель Anthropic. Она также не раскрыла ценные веса моделей. Однако в широкий доступ попала коммерчески важная информация, включая методы, инструменты и инструкции Anthropic по управлению моделями ИИ в качестве агентов. «Это была проблема с упаковкой релиза, вызванная человеческой ошибкой, а не нарушением безопасности. Мы принимаем меры, чтобы предотвратить подобные инциденты в будущем», — заявил представитель компании. Несмотря на это заявление, утечка стала ударом для Anthropic, поскольку она рискует подорвать репутацию компании в сфере безопасности, а также раскрыть ценные коммерческие секреты в ожесточённой борьбе за корпоративных клиентов. Вирусная популярность Claude Code помогла Anthropic привлечь инвестиции, которые довели биржевую оценку компании до $380 млрд. После того, как Anthropic потребовала от GitHub удалить копии своего проприетарного кода, функциональность Claude Code была переписана с помощью сторонних ИИ-инструментов. Автор этого «проекта» заявил, что цель его усилий — сохранить доступность информации, не рискуя её удалением. Этот пиратский «форк» уже стал весьма популярным на GitHub. Обновление Anthropic Claude случайно раскрыло перспективные функции чат-бота, включая виртуального питомца по типу Тамагочи
01.04.2026 [08:56],
Алексей Разин
Задолго до начала бурного развития систем искусственного интеллекта на психологической зависимости людей от виртуальных компаньонов пытался заработать производитель электронных устройств Tomagochi, имитирующих процесс ухода за питомцами. Разработчики ИИ-бота Claude пытаются вернуть часть этого опыта за счёт внедрения соответствующей функции в свои решения.
Источник изображения: Anthropic Об экспериментальных возможностях чат-бота Claude Code стало известно в результате случайной публикации компанией Anthropic фрагмента исходного кода при распространении обновления 2.1.88. Из-за ошибки кого-то из сотрудников Anthropic, как сообщает The Verge, достоянием общественности стали более 512 000 строк исходного кода Claude Code. Анализ этого фрагмента кода позволил энтузиастам понять, над какими перспективными функциями работают специалисты Anthropic. Среди прочего, были замечены признаки работы Anthropic над функцией «памяти», которая позволяет пользователю в диалоге с Claude обращаться к прежним запросам. Некий представитель стартапа прокомментировал данную идею не самым доброжелательным образом. По словам разработчика, использование памяти значительно увеличивает сложность, но не факт, что достигаемый прирост эффективности взаимодействия с чат-ботом это оправдывает. Кроме того, Anthropic был невольно уличён в разработке виртуального «питомца», который постоянно находился бы рядом с диалоговым окном чат-бота и демонстрировал бы визуальную реакцию на вводимые человеком данные. Альтернативой мог бы стать KAIROS — постоянно присутствующий агент, следящий за действиями пользователя. Представители Anthropic признали, что фрагмент исходного кода утёк случайно. Аналитики Gartner добавили, что в долгосрочной перспективе подобная утечка не представляет серьёзной опасности для Anthropic, но позволит компании задуматься о необходимости усиления мер безопасности. Рано расслабляться: Anthropic предстоит пройти ещё один суд, чтобы отвергнуть претензии Пентагона окончательно
30.03.2026 [06:57],
Алексей Разин
На прошлой неделе Федеральный суд в штате Калифорния встал на сторону Anthropic в споре с Министерством войны США, обязав последнее исключить компанию из перечня неблагонадёжных поставщиков. Эксперты, опрошенные Politico, при этом отмечают, что праздновать победу преждевременно, ведь правоту Anthropic должен поддержать и суд высшей инстанции.
Источник изображения: Anthropic Как подчёркивается источником, Апелляционному суду США по округу Колумбия коллегией из трёх судей предстоит вынести отдельное решение по делу о противостоянии Anthropic и Пентагона, и только после этого можно будет считать, что стартап был включён в перечень неблагонадёжных поставщиков незаконно, и это решение необходимо будет отменить. Для партнёров и клиентов Anthropic текущее состояние контрактов с Пентагоном не даёт той определённости, которая позволила бы продолжать работу. В материалах калифорнийского суда отмечается, что прямой контракт Anthropic с Пентагоном мог бы принести компании $200 млн, а ещё три подрядчика военного ведомства США отказались от сотрудничества со стартапом либо по собственной воле, либо по требованию Пентагона. Ещё три сделки с Anthropic на сумму более $180 млн развалились, хотя были почти заключены до появления претензий со стороны Пентагона. Исход судебного заседания в Вашингтоне, сроки которого пока даже не определены, не вполне предсказуем, по данным Politico. С одной стороны, победа Anthropic в Калифорнии позволяет суду высшей инстанции опираться на те же доводы и принять сторону стартапа. С другой стороны, в состав коллегии Апелляционного суда по округу Колумбия входят два судьи, назначенных непосредственно Дональдом Трампом (Donald Trump) — это Грегори Кацас (Gregory Katsas) и Неоми Рао (Neomi Rao). Теоретически, они могут настоять на сохранении приоритета интересов национальной безопасности в споре с Anthropic, даже если доводы Пентагона будут не слишком убедительными. Если заседание суда состоится через несколько месяцев, то бизнес Anthropic за это время может серьёзно пострадать. Без окончательного вердикта в пользу компании у правительственных клиентов Anthropic и их подрядчиков не будет уверенности в возможности продолжать с ней сотрудничество. Anthropic предупредила, что её будущая модель Claude Mythos станет «хакерской вундервафлей»
29.03.2026 [20:36],
Дмитрий Федоров
Anthropic, OpenAI и другие технологические компании готовят ИИ-модели, способные резко усилить угрозу масштабных кибератак на корпоративные, государственные и муниципальные системы. В центре внимания — ещё не выпущенная ИИ-модель Claude Mythos компании Anthropic. По данным Axios, компания уже предупреждает высокопоставленных чиновников США, что её появление в 2026 году заметно повышает вероятность атак такого уровня.
Источник изображения: Wesley Tingey / unsplash.com Mythos описывается как система, позволяющая ИИ-агентам автономно, с высокой точностью и сложностью, проникать в корпоративные, государственные и муниципальные системы. Генеральный директор Axios Джим ВандеХей (Jim VandeHei) сообщил в своей рассылке для руководителей, что один из источников, знакомых с будущими ИИ-моделями, допускает крупную кибератаку уже в 2026 году. При этом бизнес назван особенно уязвимой целью. Ранее Fortune изучил утёкшие материлы из блога Anthropic о Claude Mythos. В нём ИИ-модель названа системой, которая «в настоящее время значительно опережает любую другую ИИ-модель по кибервозможностям». Там же сказано, что Mythos «предвещает надвигающуюся волну ИИ-моделей, способных использовать уязвимости так, что это будет намного опережать усилия киберзащиты». Риск усиливают сотрудники, использующие ИИ-агентов без понимания того, что это может упростить киберпреступникам доступ к внутренним системам их компаний. В конце 2025 года Anthropic раскрыла первый задокументированный случай кибератаки, в значительной степени выполненной ИИ. Поддерживаемая государством китайская группа использовала ИИ-агентов для автономного взлома примерно 30 целей по всему миру. ИИ самостоятельно вёл от 80 % до 90 % тактических операций. Это произошло ещё до резкого усиления агентных систем и до появления новых опасных способов их применения. Новые ИИ-модели отличаются более высокой способностью поддерживать автономную работу ИИ-агентов. Речь идёт о системах, позволяющих агентам самостоятельно мыслить, действовать, рассуждать и импровизировать без пауз и усталости. Масштаб атаки теперь определяется прежде всего вычислительными ресурсами злоумышленников, а не численностью их группировки. Теперь один человек получает возможность проводить кибератаки, для которых раньше требовались целые команды. Одновременно растёт и уязвимость компаний. Сотрудники всё чаще запускают Claude, Copilot и другие агентные модели, нередко из дома, и создают собственных ИИ-агентов. Во многих случаях такие агенты без должного контроля получают доступ к внутренним рабочим системам. Это создаёт для киберпреступников ещё один канал проникновения. В отрасли такое несанкционированное или неконтролируемое использование ИИ называют «теневым ИИ». Опрос ресурса Dark Reading показал, что 48 % специалистов по кибербезопасности считают агентный ИИ главным вектором атак в 2026 году. Эта угроза поставлена выше дипфейков и выше всех остальных рисков, включённых в опрос. Каждому сотруднику любой компании в мире уже сейчас требуется понимать риск использования ИИ-агентов рядом с чувствительной информацией. Техническая команда Axios считает эту угрозу крупнейшей для компании на текущий момент. Практический вывод один: для работы с ИИ-агентами нужна безопасная изолированная среда. |