Сегодня 19 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → mythos

Американские ведомства стали игнорировать запрет на сотрудничество с Anthropic — модель Mythos оказалась слишком хороша

Федеральные ведомства и правительственные чиновники США стали негласно игнорировать запрет главы государства Дональда Трампа (Donald Trump) на сотрудничество с компанией Anthropic, стало известно Politico.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Центр стандартов и инноваций в области искусственного интеллекта при Министерстве торговли США сейчас активно тестирует способности передовой ИИ-модели Anthropic Mythos к взлому систем, узнали журналисты издания. Подтвердить эту информацию в Reuters не смогли; в Anthropic, Белом доме и самом Минторге комментариев не предоставили. Сотрудники как минимум трёх комитетов конгресса США за последнюю неделю проводили или запрашивали у Anthropic брифинги, чтобы узнать о возможностях сканирования Mythos киберсистем.

Anthropic обсуждает возможности Mythos даже с самой администрацией Трампа, сообщил накануне сооснователь компании Джек Кларк (Jack Clark). Белый дом не смутил тот факт, что из-за непреодолимых разногласий по контракту Пентагон прекратил сотрудничество с лабораторией. Характер и подробности переговоров Anthropic с правительством США, а также то, какие ведомства участвуют в них, пока установить не удалось.

Anthropic анонсировала ИИ-модель Mythos 7 апреля, объявив её своей самой совершенной системой «для программирования и выполнения агентских задач», сообщил разработчик — модель способна действовать в автономном режиме.

Anthropic открыла ограниченный доступ к модели Claude Mythos Preview — она автономно ищет дыры в ПО, и уже нашла тысячи уязвимостей

Компания Anthropic открыла ограниченный доступ к своей новой ИИ-модели Mythos, предназначенной для поиска критических уязвимостей и отражения киберугроз. Инструмент будет доступен лишь избранным корпорациям, поскольку его навыки взлома систем признаны слишком опасными для публичного выпуска.

 Источник изображения: Anthropic

Источник изображения: Anthropic

По сообщению The Wall Street Journal, предварительную версию нейросети получат около 50 компаний и организаций, поддерживающих критически важную ИТ-инфраструктуру, среди которых Amazon, Apple, Google и Linux Foundation. По словам руководителя подразделения Frontier Red Team в Anthropic Логана Грэма (Logan Graham), ИИ-модель Mythos продемонстрировала настолько высокие способности в поиске и эксплуатации программных ошибок, что разработчики в настоящее время не планируют открывать её для широкой аудитории.

Эксперты по кибербезопасности всё больше обеспокоены тем, что искусственный интеллект стремительно сокращает окно времени между обнаружением уязвимости и созданием рабочего программного обеспечения для ее эксплуатации. В конце прошлого года исследователи из Стэнфордского университета выяснили, что нейросети ищут и используют баги в реальных сетях почти так же эффективно, как и люди-специалисты. Наглядным примером стала предыдущая модель Anthropic, Claude Opus 4.6, которая в начале этого года всего за две недели нашла в браузере Firefox больше критических уязвимостей, чем обычно выявляется во всём мире за два месяца.

Новая модель Mythos оказалась примерно в 10 раз эффективнее предыдущих ИИ-систем при расчёте стоимости обнаружения одного бага. Несмотря на то, что Anthropic пока не собирается выпускать свой продукт в открытый доступ, Логан Грэм уверен, что в ближайшие несколько лет аналогичные хакерские возможности появятся и у других нейросетей. В связи с этим эксперт призывает ИТ-сообщество уже сейчас готовиться к реалиям, в которых задержка между обнаружением программной уязвимости и её применением в атаке будет сведена к нулю.

Anthropic предупредила, что её будущая модель Claude Mythos станет «хакерской вундервафлей»

Anthropic, OpenAI и другие технологические компании готовят ИИ-модели, способные резко усилить угрозу масштабных кибератак на корпоративные, государственные и муниципальные системы. В центре внимания — ещё не выпущенная ИИ-модель Claude Mythos компании Anthropic. По данным Axios, компания уже предупреждает высокопоставленных чиновников США, что её появление в 2026 году заметно повышает вероятность атак такого уровня.

 Источник изображения: Wesley Tingey / unsplash.com

Источник изображения: Wesley Tingey / unsplash.com

Mythos описывается как система, позволяющая ИИ-агентам автономно, с высокой точностью и сложностью, проникать в корпоративные, государственные и муниципальные системы. Генеральный директор Axios Джим ВандеХей (Jim VandeHei) сообщил в своей рассылке для руководителей, что один из источников, знакомых с будущими ИИ-моделями, допускает крупную кибератаку уже в 2026 году. При этом бизнес назван особенно уязвимой целью.

Ранее Fortune изучил утёкшие материлы из блога Anthropic о Claude Mythos. В нём ИИ-модель названа системой, которая «в настоящее время значительно опережает любую другую ИИ-модель по кибервозможностям». Там же сказано, что Mythos «предвещает надвигающуюся волну ИИ-моделей, способных использовать уязвимости так, что это будет намного опережать усилия киберзащиты». Риск усиливают сотрудники, использующие ИИ-агентов без понимания того, что это может упростить киберпреступникам доступ к внутренним системам их компаний.

В конце 2025 года Anthropic раскрыла первый задокументированный случай кибератаки, в значительной степени выполненной ИИ. Поддерживаемая государством китайская группа использовала ИИ-агентов для автономного взлома примерно 30 целей по всему миру. ИИ самостоятельно вёл от 80 % до 90 % тактических операций. Это произошло ещё до резкого усиления агентных систем и до появления новых опасных способов их применения.

Новые ИИ-модели отличаются более высокой способностью поддерживать автономную работу ИИ-агентов. Речь идёт о системах, позволяющих агентам самостоятельно мыслить, действовать, рассуждать и импровизировать без пауз и усталости. Масштаб атаки теперь определяется прежде всего вычислительными ресурсами злоумышленников, а не численностью их группировки. Теперь один человек получает возможность проводить кибератаки, для которых раньше требовались целые команды.

Одновременно растёт и уязвимость компаний. Сотрудники всё чаще запускают Claude, Copilot и другие агентные модели, нередко из дома, и создают собственных ИИ-агентов. Во многих случаях такие агенты без должного контроля получают доступ к внутренним рабочим системам. Это создаёт для киберпреступников ещё один канал проникновения. В отрасли такое несанкционированное или неконтролируемое использование ИИ называют «теневым ИИ».

Опрос ресурса Dark Reading показал, что 48 % специалистов по кибербезопасности считают агентный ИИ главным вектором атак в 2026 году. Эта угроза поставлена выше дипфейков и выше всех остальных рисков, включённых в опрос. Каждому сотруднику любой компании в мире уже сейчас требуется понимать риск использования ИИ-агентов рядом с чувствительной информацией. Техническая команда Axios считает эту угрозу крупнейшей для компании на текущий момент. Практический вывод один: для работы с ИИ-агентами нужна безопасная изолированная среда.


window-new
Soft
Hard
Тренды 🔥