Anthropic, OpenAI и другие технологические компании готовят ИИ-модели, способные резко усилить угрозу масштабных кибератак на корпоративные, государственные и муниципальные системы. В центре внимания — ещё не выпущенная ИИ-модель Claude Mythos компании Anthropic. По данным Axios, компания уже предупреждает высокопоставленных чиновников США, что её появление в 2026 году заметно повышает вероятность атак такого уровня.
Источник изображения: Wesley Tingey / unsplash.com
Mythos описывается как система, позволяющая ИИ-агентам автономно, с высокой точностью и сложностью, проникать в корпоративные, государственные и муниципальные системы. Генеральный директор Axios Джим ВандеХей (Jim VandeHei) сообщил в своей рассылке для руководителей, что один из источников, знакомых с будущими ИИ-моделями, допускает крупную кибератаку уже в 2026 году. При этом бизнес назван особенно уязвимой целью.
Ранее Fortune изучил утёкшие материлы из блога Anthropic о Claude Mythos. В нём ИИ-модель названа системой, которая «в настоящее время значительно опережает любую другую ИИ-модель по кибервозможностям». Там же сказано, что Mythos «предвещает надвигающуюся волну ИИ-моделей, способных использовать уязвимости так, что это будет намного опережать усилия киберзащиты». Риск усиливают сотрудники, использующие ИИ-агентов без понимания того, что это может упростить киберпреступникам доступ к внутренним системам их компаний.
В конце 2025 года Anthropic раскрыла первый задокументированный случай кибератаки, в значительной степени выполненной ИИ. Поддерживаемая государством китайская группа использовала ИИ-агентов для автономного взлома примерно 30 целей по всему миру. ИИ самостоятельно вёл от 80 % до 90 % тактических операций. Это произошло ещё до резкого усиления агентных систем и до появления новых опасных способов их применения.
Новые ИИ-модели отличаются более высокой способностью поддерживать автономную работу ИИ-агентов. Речь идёт о системах, позволяющих агентам самостоятельно мыслить, действовать, рассуждать и импровизировать без пауз и усталости. Масштаб атаки теперь определяется прежде всего вычислительными ресурсами злоумышленников, а не численностью их группировки. Теперь один человек получает возможность проводить кибератаки, для которых раньше требовались целые команды.
Одновременно растёт и уязвимость компаний. Сотрудники всё чаще запускают Claude, Copilot и другие агентные модели, нередко из дома, и создают собственных ИИ-агентов. Во многих случаях такие агенты без должного контроля получают доступ к внутренним рабочим системам. Это создаёт для киберпреступников ещё один канал проникновения. В отрасли такое несанкционированное или неконтролируемое использование ИИ называют «теневым ИИ».
Опрос ресурса Dark Reading показал, что 48 % специалистов по кибербезопасности считают агентный ИИ главным вектором атак в 2026 году. Эта угроза поставлена выше дипфейков и выше всех остальных рисков, включённых в опрос. Каждому сотруднику любой компании в мире уже сейчас требуется понимать риск использования ИИ-агентов рядом с чувствительной информацией. Техническая команда Axios считает эту угрозу крупнейшей для компании на текущий момент. Практический вывод один: для работы с ИИ-агентами нужна безопасная изолированная среда.