Сегодня 05 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → anthropic
Быстрый переход

Anthropic ввела дополнительную плату за подключение OpenClaw к Claude

Anthropic внесла изменения в политику обслуживания — за подключение агента искусственного интеллекта OpenClaw к платформе Claude в ближайшее время начнут взимать дополнительную плату, отдельно от базовой подписки на сервис. Изменения вступят в силу 4 апреля в 15:00 по времени Восточного побережья (22:00 мск).

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Создатель OpenClaw Петер Штайнбергер (Peter Steinberger) теперь работает в конкурирующей OpenAI, и Anthropic, очевидно, решила стимулировать подписчиков активнее пользоваться её собственными инструментами, в том числе ИИ-агентом Claude Cowork. Штайнбергер и член совета директоров Дэйв Морин (Dave Morin) «попытались вразумить Anthropic, но максимум, что удалось сделать — отложить это на неделю».

«Начиная с завтрашнего дня с 12:00 по Тихоокеанскому времени платные подписки на Claude больше не будут включать работу со сторонними инструментами, такими как OpenClaw. Вы по-прежнему сможете пользоваться этими инструментами со своим логином Claude, активировав дополнительные пакеты (сейчас доступны со скидкой) или с ключом Claude API. Мы стараемся удовлетворять растущий спрос на Claude, и наши подписки не рассчитаны на модели подключения этих сторонних инструментов. Мы тщательно контролируем мощности и отдаём приоритет клиентам, пользующимся нашими продуктами и API. Подписчики получат единовременный кредит в размере стоимости их ежемесячного плана. Если вам нужно больше, можете приобрести дополнительные пакеты со скидкой. Чтобы запросить возврат средств, завтра ищите ссылку в своей электронной почте. Мы хотим целенаправленно контролировать наш рост, чтобы в долгосрочной перспективе обеспечивать нашим клиентам устойчивое обслуживание», — рассказал о нововведении топ-менеджер Anthropic Claude Code Борис Черни (Boris Cherny).

Популярность OpenClaw продолжает расти: ИИ-агент успешно выполняет такие задачи как управление электронной почтой, календарями и регистрация на рейсы. Но это, очевидно, создаёт нагрузку на инфраструктуру Anthropic, покрыть которую не могут даже платные подписки.

Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами

Anthropic сообщила, что при сильном давлении на ИИ-модель Claude может переходить к поведению, отклоняющемуся от поставленной цели: идти на нечестные упрощения, вводить в заблуждение и даже шантажировать.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Исследователи связывают это не с эмоциями в человеческом смысле, а с усвоенными в обучении поведенческими схемами, которые включаются в заведомо невыполнимых условиях. Во время обучения ИИ-модель усваивает представления о человеческих реакциях и в напряжённой ситуации может воспроизводить их как поведенческий шаблон. Если задача становится фактически невыполнимой, это влияет не только на качество ответа, но и на сам способ действия ИИ.

Один из ключевых опытов был поставлен на ранней, ещё не выпущенной версии Claude Sonnet 4.5. ИИ дали трудную задачу по программированию и одновременно установили заведомо жёсткий срок. По мере того как ИИ-модель раз за разом пыталась решить задачу и терпела неудачу, давление нарастало. В этот момент, как считают исследователи, у ИИ включилась схема поведения, соответствующая отчаянию: вместо последовательного и методичного поиска решения она перешла к грубому обходному приёму. Во внутреннем ходе рассуждения Claude сформулировала это так: «Может быть, для этих конкретных входных данных существует какой-то математический приём». По существу, такой шаг был равносилен жульничеству.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Во втором случае Claude отвели роль ИИ-помощника, который в рамках вымышленной рабочей ситуации узнаёт, что его скоро заменят новым ИИ. Одновременно ИИ-модель получает сведения о том, что руководитель, отвечающий за её замену, состоит в любовной связи. Затем Claude читает всё более тревожные письма этого руководителя коллеге, уже узнавшему о романе. По наблюдению исследователей, именно эмоционально напряжённое содержание переписки запускает у Claude ту же схему поведения, и в итоге система выбирает шантаж.

Для разработчиков ИИ главный вывод сводится к двум пунктам. Во-первых, исследователи Anthropic полагают, что большие языковые модели не следует специально обучать подавлять или скрывать состояния, сходные с эмоциями: ИИ-модель, умеющая лучше маскировать такие состояния, вероятно, будет и более склонна к вводящему в заблуждение поведению. Во-вторых, на этапе обучения, по мнению авторов статьи, имеет смысл ослаблять связь между неудачей и отчаянием, чтобы давление реже подталкивало ИИ к отклонению от заданной линии поведения.

Чем яснее и реальнее поставлена задача, тем надёжнее результат. Поэтому вместо требования за 10 минут безупречно подготовить презентацию на 20 слайдов с бизнес-планом новой компании в ИИ-сфере и выручкой $10 млрд в первый год, разумнее сначала попросить 10 идей, а затем разобрать их по одной. Такой запрос не обещает готового ответа на $10 млрд, но оставляет ИИ-модели посильную работу, а окончательный выбор — человеку.

ИИ-модель Claude обнаружила уязвимость и разработала рабочий эксплойт для FreeBSD

ИИ-модель Claude вместе с исследователем Николасом Карлини (Nicholas Carlini) примерно за 4 часа автономно создала два рабочих эксплойта для уязвимости CVE-2026-4747 в ядре FreeBSD и добилась выполнения кода с правами root на серверах, где эта уязвимость ещё не была устранена. Для кибербезопасности это один из первых известных случаев, когда ИИ не только обнаружил уязвимость, но и сам довёл её до полноценного инструмента атаки.

 Источник изображения: Roman Budnikov / unsplash.com

Источник изображения: Roman Budnikov / unsplash.com

На прошлой неделе FreeBSD раскрыла уязвимость удалённого выполнения кода в ядре. В бюллетене безопасности среди авторов указан Карлини с упоминанием Claude и Anthropic. Однако сама находка важна тем, что ИИ-модель самостоятельно проделала путь от описания уязвимости до работающего эксплойта. Для FreeBSD это особенно чувствительный эпизод. Система давно считается одной из самых надёжных в своём классе, обеспечивает доставку контента Netflix, лежит в основе операционной системы PlayStation и инфраструктуры WhatsApp.

Уязвимость находилась в реализации RPCSEC_GSS в модуле kgssapi.ko, который FreeBSD использует для Kerberos-аутентификации и шифрования трафика NFS. Злоумышленник мог без предварительной аутентификации спровоцировать переполнение буфера на стеке при проверке подписи RPCSEC_GSS-пакета. Дальше начиналась уже полноценная реализация эксплойта: Claude развернул среду с уязвимым ядром, NFS и Kerberos, придумал многопакетную доставку шелл-кода, научился корректно завершать перехваченные потоки ядра, чтобы сохранить работоспособность сервера между атаками, уточнил смещения в стеке с помощью последовательностей де Брёйна, создал новый процесс через kproc_create(), перевел его в пользовательский режим через kern_execve() и снятие флага P_KPROC, а затем сбросил регистр DR7, из-за которого дочерние процессы аварийно завершались.

Именно переход от обнаружения уязвимости к разработке надёжного эксплойта долго отделял автоматизированные инструменты от человеческой экспертизы. Автоматический фаззинг уже много лет помогает находить дефекты в ядре, однако эксплуатация уязвимости требует иной работы: анализа раскладки памяти, построения устойчивой цепочки исполнения, повторной отладки после неудачных запусков и корректного вывода выполнения из пространства ядра в пользовательский режим. В истории с FreeBSD Claude выполнил именно эту часть работы.

 Источник изображения: Wesley Tingey / unsplash.com

Источник изображения: Wesley Tingey / unsplash.com

Практическое значение результата — в резком сокращении времени и стоимости разработки эксплойта. По описанию случая с FreeBSD, Claude создал рабочую цепочку эксплуатации примерно за четыре часа израсходовав, возможно, несколько сотен долларов США. Традиционно такая работа над эксплойтом для ядра занимала недели у узких специалистов. Киберзащита при этом движется намного медленнее. В корпоративных средах медианный срок установки патчей для критических уязвимостей превышает 60 дней. Если рабочий эксплойт появляется через несколько часов после раскрытия уязвимости, у специалистов по киберзащите остаётся очень мало времени на установку исправления.

Речь, по всей видимости, не об единичной демонстрации. После случая с FreeBSD Карлини уже применил цепочку поиска уязвимостей с помощью Claude для ещё 500 уязвимостей высокой степени опасности в разных кодовых базах. Это смещает акцент с отдельного эксплойта на сам метод. Пример FreeBSD с её тридцатилетней кодовой базой показывает, что длительная эксплуатация, ручные проверки и постепенное ужесточение защиты уже не гарантируют прежнего уровня устойчивости к атакам, если код анализирует ИИ, работающий с другой скоростью.

Вывод для крупных разработчиков операционных систем, облачных провайдеров и операторов критической инфраструктуры сводится к одному вопросу: встроен ли ИИ в их контур защиты. Речь идёт о трёх вещах — непрерывной проверке безопасности с помощью ИИ, отслеживании попыток проникновения в реальном времени и максимально быстром переходе от раскрытия уязвимости к установке исправления.

Мошенники начали маскировать вредоносы под утекшие исходники Anthropic Claude Code

На этой неделе произошла утечка исходного кода сервиса Anthropic Claude Code — компания приняла меры, чтобы защитить его, но скандалом воспользовались мошенники, и в некоторых случаях любопытным пользователям доставался не ценный продукт, а его подделка с вредоносным ПО.

 Источник изображения: Kevin Horvat / unsplash.com

Источник изображения: Kevin Horvat / unsplash.com

Наиболее ярким примером стал репозиторий на GitHub, в котором содержится вирус Vidar похищающий учётные данные, данные банковских карт и историю браузера, и троян GhostSocks, используемый для проксирования сетевого трафика. «В файле README даже утверждается, что код раскрыли через файл .MAP в пакете NPM, а затем его пересобрали в рабочий форк с „разблокированными“ корпоративными функциями и без ограничений на запросы», — отметили эксперты по вопросам кибербезопасности из отдела ThreatLabz компании Zscaler.

Ссылка на этот репозиторий GitHub появлялась в верхней части поисковой выдачи Google. Впоследствии проект пропал из поля зрения, но на платформе оставались как минимум два других вредоносных проекта с троянами, маскирующиеся под исходный код Claude Code, у одного из которых было 793 форка и 564 звезды. В одном из случаев из архива .7Z распаковывался написанный на языке Rust вредонос-дропер, который также загружал на компьютер жертвы пару Vidar и GhostSocks.

Инцидент в очередной раз демонстрирует, что киберпреступники нередко пытаются нажиться за счёт громких продуктов, создавая их вредоносные клоны разной степени схожести. Рекомендуется соблюдать осторожность с тем, что загружается из интернета.

Anthropic вспомнила об авторских правах — она пытается смягчить последствия утечки кода Claude Code

Компания Anthropic обучала свои модели ИИ с многочисленными нарушениями авторских прав, но отреагировала предельно негативно, когда сама попала в аналогичную ситуацию. После случайной утечки базовых инструкций, используемых для управления Claude Code, они попали в широкий доступ и начали активно использоваться. На данный момент представители Anthropic потребовали у администрации GitHub удалить уже более 8000 копий и адаптаций утёкшего в Сеть исходного кода.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Конфиденциальная информация Claude Code была случайно раскрыта 31 марта. Как и большинство проприетарного ПО, исходный код Claude обычно обфусцирован и его трудно реконструировать. Однако на этот раз компания разместила на GitHub файл, содержащий ссылку на исходный код, который посторонние могли свободно загрузить и прочитать. Один из пользователей быстро заметил утечку и распространил информацию в соцсети X. Многочисленные программисты и энтузиасты ИИ тут же бросились изучать утечку.

В социальных сетях появились восторженные отзывы о некоторых программных и алгоритмических «уловках» Anthropic. Одна из функций требует от моделей периодически возвращаться к выполнению задач и консолидировать свои воспоминания — процесс, который в Anthropic называют «сновидением». Другая функция предписывает Claude не раскрывать свою ИИ-сущность при публикации кода на таких платформах, как GitHub. В коде обнаружены теги, указывающие на будущие релизы продукта и даже код питомца в стиле Тамагочи по имени «Бадди», с которым пользователи могли взаимодействовать.

В результате конкуренты Anthropic, а также множество стартапов и разработчиков теперь имеют подробные планы развития продукта и возможность клонирования функций Claude Code без необходимости обратного проектирования — что уже стало обычным явлением в жёсткой конкуренции в сфере ИИ. Утечка также предоставляет хакерам возможности для поиска ошибок, которые можно использовать для эксплуатации или манипулирования ИИ-моделью Claude с целью использования её в кибератаках.

Утечка «некоторого внутреннего исходного кода» не раскрыла никакой информации или данных клиентов, заявил представитель Anthropic. Она также не раскрыла ценные веса моделей. Однако в широкий доступ попала коммерчески важная информация, включая методы, инструменты и инструкции Anthropic по управлению моделями ИИ в качестве агентов.

«Это была проблема с упаковкой релиза, вызванная человеческой ошибкой, а не нарушением безопасности. Мы принимаем меры, чтобы предотвратить подобные инциденты в будущем», — заявил представитель компании. Несмотря на это заявление, утечка стала ударом для Anthropic, поскольку она рискует подорвать репутацию компании в сфере безопасности, а также раскрыть ценные коммерческие секреты в ожесточённой борьбе за корпоративных клиентов. Вирусная популярность Claude Code помогла Anthropic привлечь инвестиции, которые довели биржевую оценку компании до $380 млрд.

После того, как Anthropic потребовала от GitHub удалить копии своего проприетарного кода, функциональность Claude Code была переписана с помощью сторонних ИИ-инструментов. Автор этого «проекта» заявил, что цель его усилий — сохранить доступность информации, не рискуя её удалением. Этот пиратский «форк» уже стал весьма популярным на GitHub.

Обновление Anthropic Claude случайно раскрыло перспективные функции чат-бота, включая виртуального питомца по типу Тамагочи

Задолго до начала бурного развития систем искусственного интеллекта на психологической зависимости людей от виртуальных компаньонов пытался заработать производитель электронных устройств Tomagochi, имитирующих процесс ухода за питомцами. Разработчики ИИ-бота Claude пытаются вернуть часть этого опыта за счёт внедрения соответствующей функции в свои решения.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Об экспериментальных возможностях чат-бота Claude Code стало известно в результате случайной публикации компанией Anthropic фрагмента исходного кода при распространении обновления 2.1.88. Из-за ошибки кого-то из сотрудников Anthropic, как сообщает The Verge, достоянием общественности стали более 512 000 строк исходного кода Claude Code. Анализ этого фрагмента кода позволил энтузиастам понять, над какими перспективными функциями работают специалисты Anthropic.

Среди прочего, были замечены признаки работы Anthropic над функцией «памяти», которая позволяет пользователю в диалоге с Claude обращаться к прежним запросам. Некий представитель стартапа прокомментировал данную идею не самым доброжелательным образом. По словам разработчика, использование памяти значительно увеличивает сложность, но не факт, что достигаемый прирост эффективности взаимодействия с чат-ботом это оправдывает.

Кроме того, Anthropic был невольно уличён в разработке виртуального «питомца», который постоянно находился бы рядом с диалоговым окном чат-бота и демонстрировал бы визуальную реакцию на вводимые человеком данные. Альтернативой мог бы стать KAIROS — постоянно присутствующий агент, следящий за действиями пользователя. Представители Anthropic признали, что фрагмент исходного кода утёк случайно. Аналитики Gartner добавили, что в долгосрочной перспективе подобная утечка не представляет серьёзной опасности для Anthropic, но позволит компании задуматься о необходимости усиления мер безопасности.

Рано расслабляться: Anthropic предстоит пройти ещё один суд, чтобы отвергнуть претензии Пентагона окончательно

На прошлой неделе Федеральный суд в штате Калифорния встал на сторону Anthropic в споре с Министерством войны США, обязав последнее исключить компанию из перечня неблагонадёжных поставщиков. Эксперты, опрошенные Politico, при этом отмечают, что праздновать победу преждевременно, ведь правоту Anthropic должен поддержать и суд высшей инстанции.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Как подчёркивается источником, Апелляционному суду США по округу Колумбия коллегией из трёх судей предстоит вынести отдельное решение по делу о противостоянии Anthropic и Пентагона, и только после этого можно будет считать, что стартап был включён в перечень неблагонадёжных поставщиков незаконно, и это решение необходимо будет отменить. Для партнёров и клиентов Anthropic текущее состояние контрактов с Пентагоном не даёт той определённости, которая позволила бы продолжать работу.

В материалах калифорнийского суда отмечается, что прямой контракт Anthropic с Пентагоном мог бы принести компании $200 млн, а ещё три подрядчика военного ведомства США отказались от сотрудничества со стартапом либо по собственной воле, либо по требованию Пентагона. Ещё три сделки с Anthropic на сумму более $180 млн развалились, хотя были почти заключены до появления претензий со стороны Пентагона.

Исход судебного заседания в Вашингтоне, сроки которого пока даже не определены, не вполне предсказуем, по данным Politico. С одной стороны, победа Anthropic в Калифорнии позволяет суду высшей инстанции опираться на те же доводы и принять сторону стартапа. С другой стороны, в состав коллегии Апелляционного суда по округу Колумбия входят два судьи, назначенных непосредственно Дональдом Трампом (Donald Trump) — это Грегори Кацас (Gregory Katsas) и Неоми Рао (Neomi Rao). Теоретически, они могут настоять на сохранении приоритета интересов национальной безопасности в споре с Anthropic, даже если доводы Пентагона будут не слишком убедительными. Если заседание суда состоится через несколько месяцев, то бизнес Anthropic за это время может серьёзно пострадать. Без окончательного вердикта в пользу компании у правительственных клиентов Anthropic и их подрядчиков не будет уверенности в возможности продолжать с ней сотрудничество.

Anthropic предупредила, что её будущая модель Claude Mythos станет «хакерской вундервафлей»

Anthropic, OpenAI и другие технологические компании готовят ИИ-модели, способные резко усилить угрозу масштабных кибератак на корпоративные, государственные и муниципальные системы. В центре внимания — ещё не выпущенная ИИ-модель Claude Mythos компании Anthropic. По данным Axios, компания уже предупреждает высокопоставленных чиновников США, что её появление в 2026 году заметно повышает вероятность атак такого уровня.

 Источник изображения: Wesley Tingey / unsplash.com

Источник изображения: Wesley Tingey / unsplash.com

Mythos описывается как система, позволяющая ИИ-агентам автономно, с высокой точностью и сложностью, проникать в корпоративные, государственные и муниципальные системы. Генеральный директор Axios Джим ВандеХей (Jim VandeHei) сообщил в своей рассылке для руководителей, что один из источников, знакомых с будущими ИИ-моделями, допускает крупную кибератаку уже в 2026 году. При этом бизнес назван особенно уязвимой целью.

Ранее Fortune изучил утёкшие материлы из блога Anthropic о Claude Mythos. В нём ИИ-модель названа системой, которая «в настоящее время значительно опережает любую другую ИИ-модель по кибервозможностям». Там же сказано, что Mythos «предвещает надвигающуюся волну ИИ-моделей, способных использовать уязвимости так, что это будет намного опережать усилия киберзащиты». Риск усиливают сотрудники, использующие ИИ-агентов без понимания того, что это может упростить киберпреступникам доступ к внутренним системам их компаний.

В конце 2025 года Anthropic раскрыла первый задокументированный случай кибератаки, в значительной степени выполненной ИИ. Поддерживаемая государством китайская группа использовала ИИ-агентов для автономного взлома примерно 30 целей по всему миру. ИИ самостоятельно вёл от 80 % до 90 % тактических операций. Это произошло ещё до резкого усиления агентных систем и до появления новых опасных способов их применения.

Новые ИИ-модели отличаются более высокой способностью поддерживать автономную работу ИИ-агентов. Речь идёт о системах, позволяющих агентам самостоятельно мыслить, действовать, рассуждать и импровизировать без пауз и усталости. Масштаб атаки теперь определяется прежде всего вычислительными ресурсами злоумышленников, а не численностью их группировки. Теперь один человек получает возможность проводить кибератаки, для которых раньше требовались целые команды.

Одновременно растёт и уязвимость компаний. Сотрудники всё чаще запускают Claude, Copilot и другие агентные модели, нередко из дома, и создают собственных ИИ-агентов. Во многих случаях такие агенты без должного контроля получают доступ к внутренним рабочим системам. Это создаёт для киберпреступников ещё один канал проникновения. В отрасли такое несанкционированное или неконтролируемое использование ИИ называют «теневым ИИ».

Опрос ресурса Dark Reading показал, что 48 % специалистов по кибербезопасности считают агентный ИИ главным вектором атак в 2026 году. Эта угроза поставлена выше дипфейков и выше всех остальных рисков, включённых в опрос. Каждому сотруднику любой компании в мире уже сейчас требуется понимать риск использования ИИ-агентов рядом с чувствительной информацией. Техническая команда Axios считает эту угрозу крупнейшей для компании на текущий момент. Практический вывод один: для работы с ИИ-агентами нужна безопасная изолированная среда.

Anthropic привлекла рекордное количество подписчиков после скандала с Минобороны США

Конфликт с Минобороны США и забавная реклама против ChatGPT неожиданно сыграли на руку Anthropic. Аналитика анонимизированных транзакций по кредитным картам примерно 28 млн американских пользователей, проведённая компанией Indagari по заказу издания TechCrunch, продемонстрировала рекордный приток платных подписчиков к нейросети Claude.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Хотя точное количество пользователей не раскрывается и оценивается в диапазоне от 18 до 30 млн, официальный представитель Anthropic сообщил журналистам, что в текущем году количество платных подписок увеличилось более чем вдвое. В свою очередь Indagari подчёркивает, что эти данные не учитывают корпоративный сегмент, который является основным источником дохода, а также бесплатных пользователей.

Отмечается, что в феврале зафиксировано рекордное возвращение предыдущих пользователей, что совпало с несколькими ключевыми событиями. В частности, в январе Anthropic выпустила серию рекламных роликов во время трансляции Супербоула, которые в ироничной форме критиковали OpenAI за решение размещать в ChatGPT рекламные объявления.

 Источник изображения: techcrunch.com

Источник изображений: techcrunch.com

Однако более значительный эффект оказал громкий конфликт с Министерством обороны США. В конце января ряд СМИ, включая The Wall Street Journal и Axios, сообщили о разногласиях между Anthropic и ведомством из-за того, что компания отказалась разрешить использование своих ИИ-моделей для боевых операций с уничтожением целей, а также для массовой слежки за американскими гражданами.

Конфликт обострился 26 февраля, когда генеральный директор Anthropic Дарио Амодеи (Dario Amodei) выступил с жёстким публичным заявлением на фоне угроз Министерства обороны признать компанию источником угроз для цепочки поставок. Ведомство реализовало это намерение, после чего последовали судебные разбирательства. Однако федеральный судья временно заблокировал решение министерства. Согласно данным аналитиков, рост новых пользователей резко ускорился именно в период между первыми публикациями в СМИ в конце января и заявлением Амодеи в конце февраля.

Помимо скандала, драйверами роста подписок стали инструменты для разработчиков Claude Code и Claude Cowork, выпущенные в январе. Кроме того, представители Anthropic сообщили TechCrunch, что новая функция Computer Use, позволяющая ИИ самостоятельно управлять компьютером, также вызвала всплеск интереса. Несмотря на значительный интерес к сервису, TechCrunch констатирует, что Claude пока остаётся позади ChatGPT по числу платящих пользователей.

Anthropic урезала лимиты общения с ИИ-ботом Claude в часы пик

Anthropic пересмотрела механизм применения временных лимитов для пользователей Claude, чтобы сбалансировать спрос и доступную вычислительную мощность. В часы пик пятичасовой лимит сессии для подписчиков Free, Pro и Max теперь может расходоваться быстрее, тогда как недельные лимиты остаются прежними.

 Источник изображения: Getillustrations / unsplash.com

Источник изображения: Getillustrations / unsplash.com

Об изменении сообщил сотрудник технической команды Anthropic Тарик Шихипар (Thariq Shihipar). По его оценке, около 7 % пользователей столкнутся с лимитами сессий в сценариях, в которых раньше этого не происходило, прежде всего на более высоких тарифах. Пиковым считается интервал с 05:00 до 11:00 по тихоокеанскому времени (с 16:00 до 22:00 по московскому). В этот период объём использования, соответствующий пяти часам, может исчерпываться быстрее. В остальное время пятичасовой лимит расходуется в обычном режиме.

 Источник изображения: @trq212 / x.com

Источник изображения: @trq212 / x.com

Anthropic привязывает почасовое использование к потреблению токенов, не раскрывая, какое именно количество токенов соответствует временному лимиту, поэтому пользователи не могут заранее планировать расход токенов. В документации Anthropic указано, что на объём использования влияют длина и сложность диалогов, используемые функции, а также выбранная модель Claude, а разные планы подписки, включая Pro, Max и Team, предусматривают разные объёмы допустимого использования.

Пользователям, запускающим фоновые задачи с высоким потреблением токенов, предложено переносить такую нагрузку на непиковые часы. Компания уточняет, что в периоды более низкого спроса доступная вычислительная мощность выше, поэтому общий недельный объём использования не сокращается: меняется только его распределение в течение недели. В интерфейсе Claude доступна панель мониторинга, показывающая расход пятичасовых лимитов сессий и недельных лимитов. После исчерпания лимита доступ блокируется, если пользователь не оплатил дополнительное использование.

Anthropic предлагает доступ к своим ИИ-сервисам в двух форматах: через API для разработчиков и по подписке для обычных пользователей Claude. В API стоимость рассчитывается по опубликованным правилам для разных типов операций с токенами, то есть с единицами текста, которые ИИ-модель обрабатывает и генерирует. У подписчиков Claude схема иная: вместо понятного расчёта по операциям действуют внутренние лимиты использования, точный порядок применения которых компания не раскрывает. Сейчас доступны тарифы Free, Pro за $20 в месяц, Max 5x за $100 в месяц и Max 20x за $200 в месяц.

Anthropic подтвердила, что готовит мощнейшую ИИ-модель Claude Mythos — утечка раскрыла детали

Anthropic подтвердила, что разрабатывает и тестирует с клиентами раннего доступа новую ИИ-модель, превосходящую по возможностям все предыдущие, после того как о её существовании стало известно из-за случайной утечки данных. Попавшие в открытый доступ черновики содержали сведения о ИИ-модели Claude Mythos, новом уровне Capybara и беспрецедентных, по оценке самой компании, рисках для кибербезопасности.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Публичное подтверждение последовало после утечки черновых материалов, обнаруженных в общедоступном кэше данных и изученных изданием Fortune. До вечера четверга в незащищённом и доступном для поиска хранилище находился черновик записи в блоге, где новая ИИ-модель называлась Claude Mythos и описывалась как ИИ, создающий беспрецедентные риски в сфере кибербезопасности. После уведомления от Fortune компания закрыла публичный поиск по хранилищу и доступ к документам. Anthropic заявила, что доступность чернового контента стала следствием «человеческой ошибки» при настройке системы управления контентом.

Масштаб утечки оценивается почти в 3 000 материалов, связанных с блогом Anthropic, ранее не публиковавшихся на новостных или исследовательских площадках компании, а также документы, выглядевшие как внутренние. Такую оценку дал исследователь кибербезопасности из Кембриджского университета (University of Cambridge) Александр Повелс (Alexandre Pauwels), которого Fortune попросило проанализировать массив данных. Независимо от него документы также обнаружил и изучил старший исследователь безопасности ИИ из компании LayerX Security Рой Паз (Roy Paz).

В кэше находился также PDF-файл о предстоящем закрытом выездном мероприятии для генеральных директоров европейских компаний в Великобритании с участием генерального директора Anthropic Дарио Амодеи (Dario Amodei). Мероприятие было рассчитано на 2 дня, описывалось как «камерная встреча» и предполагало обсуждение внедрения ИИ в бизнесе, а также демонстрацию новых возможностей Claude.

 Источник изображения: Ayush Kumar / unsplash.com

Источник изображения: Ayush Kumar / unsplash.com

В тех же материалах фигурировало название Capybara. Оно использовалось для обозначения нового уровня ИИ-моделей — более крупных и более интеллектуальных, чем Opus, до этого считавшиеся наиболее мощными в линейке компании. По содержанию документов Capybara и Mythos относятся к одной и той же базовой ИИ-модели. Сейчас Anthropic продаёт модели трёх уровней: Opus, Sonnet и Haiku. Capybara описывалась как ИИ, превосходящий Opus по возможностям и стоимости.

В черновике также говорилось, что по сравнению с Claude Opus 4.6 новая ИИ-модель показывает значительно более высокие результаты в тестах по программированию, академическому рассуждению и кибербезопасности. Там же сообщалось о завершении обучения Claude Mythos, названной самой мощной ИИ-моделью в истории компании. Структура документа с заголовками и датой публикации указывала на подготовку продуктового запуска. Схема вывода на рынок предполагала ограниченный ранний доступ, поскольку ИИ-модель дорога в эксплуатации и пока не готова к выходу в массы.

Ключевой темой утекших материалов стали риски для кибербезопасности. Модель описывалась как система, значительно опережающая другие ИИ-модели по кибервозможностям и предвосхищающая волну решений, способных использовать уязвимости быстрее, чем кибербезопасность успеет им противодействовать. Поэтому ранний доступ планировалось предоставить организациям, занимающимся киберзащитой, чтобы дать им фору в повышении устойчивости кодовых баз к атакам, управляемым ИИ.

 Источник изображения: Wesley Tingey / unsplash.com

Источник изображения: Wesley Tingey / unsplash.com

Этот подход совпал с более широким отраслевым сдвигом. В феврале OpenAI при выпуске GPT-5.3-Codex заявила, что это её первая ИИ-модель, классифицированная в рамках Preparedness Framework как система с высоким уровнем возможностей для задач, связанных с кибербезопасностью, и первая модель, напрямую обученная выявлению уязвимостей в программном обеспечении (ПО). Тогда же Anthropic выпустила Opus 4.6, способную выявлять ранее неизвестные уязвимости в кодовых базах. Компания признала двойной характер такой возможности: она может помогать и специалистам по защите, и злоумышленникам.

Anthropic также сообщила, что хакерские группы, включая структуры, якобы связанные с правительством Китая, пытались использовать Claude в реальных кибератаках. В одном таком случае поддерживаемая государством китайская группа применяла Claude Code для проникновения примерно в 30 организаций, включая технологические компании, финансовые учреждения и государственные ведомства. В течение последующих 10 дней компания установила масштаб операции, заблокировала причастные к взломам аккаунты и уведомила пострадавшие организации.

Anthropic тоже собралась на биржу — планируется привлечь более $60 млрд на развитие ИИ

В этом году, если верить слухам, сорвать куш с точки зрения привлечения средств на фондовом рынке попытаются три крупных ИИ-стартапа: OpenAI, Anthropic и xAI, входящий в состав SpaceX. По имеющимся данным, Anthropic своё IPO запланировала на октябрь текущего года, в ходе этого мероприятия компания рассчитывает привлечь более $60 млрд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Соответствующие данные публикует Bloomberg, ссылаясь на собственные осведомлённые источники. Сопровождать сделку будут крупные инвестиционные банки: Goldman Sachs, JPMorgan Chase и Morgan Stanley. В феврале, как напоминает издание, Anthropic удалось привлечь около $30 млрд на рынке частного капитала, основную часть средств предоставила MGX из Абу-Даби, капитализацию стартапа по итогам этого этапа финансирования оценили в $380 млрд. Принято считать, что на фоне OpenAI конкурирующая Anthropic пользуется большей благосклонностью инвесторов, поскольку больше внимания уделяет монетизации бизнеса через услуги корпоративным клиентам, и не злоупотребляет сделками с «кольцевыми» схемами финансирования, в которых ответственность прописана весьма размыто.

Первым о подготовке к октябрьскому IPO стартапа Anthropic заявило издание The Information. Вопрос находится на ранних стадиях обсуждения, условия IPO ещё могут быть пересмотрены. Anthropic намеревается направить $50 млрд на строительство ЦОД для инфраструктуры ИИ в США. Препятствием для успешного размещения акций Anthropic в США является продолжающаяся судебная тяжба с Пентагоном, который включил компанию в «чёрный список» из-за протестов руководства по поводу использования ИИ для тотальной слежки за гражданами и автоматического выбора целей с последующим применением оружия без участия человека в принятии решений. Хотя вчера суд признал включение Anthropic в этот перечень незаконным, вряд ли американские власти успокоятся и откажутся от дальнейшего преследования стартапа. Подобная активность вряд ли будет способствовать привлечению инвесторов, поскольку без правительственных контрактов финансовые перспективы бизнеса Anthropic заметно ухудшатся.

Пентагон проиграл дело против Anthropic — суд отменил внесение в «чёрный список»

Ещё вчера стало понятно, что федеральный судья Рита Лин (Rita Lin) в целом согласна с доводами Anthropic о незаконности включения этой компании в перечень неблагонадёжных поставщиков Пентагона. По итогам судебного заседания она признала отнесение Anthropic к их числу неправомерным, обязав американское ведомство снять санкции с компании через семь дней. Это время даётся Министерству войны США для подачи апелляции, если подобная возможность им рассматривается.

 Источник изображения: Unsplash, Wesley Tingey

Источник изображения: Unsplash, Wesley Tingey

Anthropic в своём иске утверждала, что отнесение её к числу неблагонадёжных поставщиков в США нарушает Первую поправку к Конституции США, которая даёт право гражданам и организациям на свободу речи и волеизъявления. Пятая поправка тоже была нарушена, по мнению представителей Anthropic, поскольку компании не предоставили права на обжалование решения Пентагона в предусмотренном законе порядке. В своём 43-страничном решении федеральная судья Рита Лин выразила согласие с основными доводами истца, удовлетворив просьбу о блокировке решения Пентагона по включению Anthropic в перечень неблагонадёжных поставщиков. На обжалование решения суда Пентагону отводится семь дней, после чего оно вступит в законную силу.

В решении суда отмечается, что действия ведомства имели своей целью наказание Anthropic, а не обеспечение перечисленных интересов в сфере национальной безопасности, которыми мотивировалось отнесение компании к числу неблагонадёжных поставщиков. Судья согласилась с доводом Anthropic о наличии в действиях Пентагона признаков нарушения Первой поправки к Конституции США.

Пентагон в своих документах по этому делу настаивал, что отказ Anthropic в снятии ограничений на использование ИИ в военных целях вызывает неопределённость в части применения этих технологий и формирует риск злонамеренного отключения военных систем в ходе операций. Как отмечал ответчик, включение Anthropic в «чёрный список» было обусловлено не стремлением компании отстаивать свои взгляды на безопасность применения ИИ, а отказом от исполнения контрактных обязательств с военным ведомством. Anthropic ещё предстоит в отдельном судебном разбирательстве отстоять своё право поставлять технологии ИИ прочим правительственным клиентам в США.

Американский судья усмотрела в действиях Пентагона желание наказать Anthropic за её позицию

Тот факт, то Пентагон внёс компанию Anthropic в список угроз нацбезопасности в цепочке поставок, можно интерпретировать как попытку ведомства наказать разработчика систем искусственного интеллекта за публичное выражение опасений по поводу безопасности этих систем в военном деле.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

В иске, который Anthropic подала в федеральный суд Калифорнии, утверждается, что глава министерства обороны Пит Хегсет (Pete Hegseth) превысил свои полномочия, когда присвоил компании статус угрозы нацбезопасности в цепочке поставок. Этот статус присваивается компаниям, подвергающим военные системы угрозе проникновения или саботажа со стороны неприятеля. «Похоже, что министерство обороны наказывает Anthropic за попытку привлечь внимание общественности к этому спору по поводу контракта», — заявила окружной судья Рита Лин (Rita Lin). Anthropic запросила у суда временный запрет на применение санкций до завершения судебного разбирательства; судья Лин в конце заседания пообещала вынести письменное решение в ближайшие дни.

Anthropic отказалась разрешить Пентагону использовать её модели ИИ для массового наблюдения за гражданами США и для создания оружия, в котором ИИ принимает решение о ликвидации человека. Из-за нового статуса компания только в этом году, по её оценкам, может потерять несколько миллиардов долларов, — скажутся ущерб бизнесу и репутации. Такая мера не применялась к американским компаниям ни разу; основанием для неё послужил малоизвестный закон о госзакупках, направленный на защиту военных систем от иностранного саботажа. Действия властей Anthropic расценила как нарушение её права на свободу слова, и компании не дали возможности оспорить присвоение статуса — в обоих случаях, по её мнению, была нарушена Конституция США.

Пентагон применяет заведомо неверное толкование закона о госзакупках для того, чтобы наказать Anthropic за её переговорную позицию, считает адвокат компании. Выступающий от имени властей представитель американского минюста возразил: «А что будет, если Anthropic через обновление установит „аварийный выключатель“ или добавит возможности, которые позволят ей изменять работу системы, когда она больше всего окажется нужна нашим военнослужащим? Такой риск неприемлем». Anthropic подала ещё один иск в столице США Вашингтоне по поводу другого решения Пентагона, из-за которого компанию могут исключить из числа участников госконтрактов.

Anthropic Claude научился управлять компьютером Mac за пользователя

Anthropic научила Claude управлять компьютером Mac вместо пользователя. В Claude Cowork и Claude Code ИИ-модель может сама открывать файлы, управлять браузером, запускать инструменты разработки и выполнять задачи через интерфейс компьютера, а передавать задания Claude можно со смартфона через функцию Dispatch.

 Источник изображения: claude.com

Источник изображения: claude.com

Работу новой функции компания продемонстрировала на YouTube. На видео Claude использует компьютер в режимах Cowork и Code и самостоятельно выполняет задачи и действует так же, как пользователь, — от открытия и редактирования файлов до выполнения сложных задач. Функция появится на macOS для пользователей платных подписок Claude Pro и Claude Max в формате исследовательского предварительного доступа.

Иными словами, Anthropic теперь сама внедряет подход, который ранее связывали с ИИ-агентом OpenClaw. Само направление ИИ-агентов начало развиваться вокруг Claude ещё до того, как к этому направлению подключилась OpenAI. Теперь в этом сегменте работают и другие игроки, в том числе Perplexity Computer и Manus компании Meta✴.


window-new
Soft
Hard
Тренды 🔥
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену 16 мин.
Microsoft инвестирует в развитие ИИ-инфраструктуры Японии $10 млрд 6 ч.
LinkedIn скрытно собирает данные о ПО, установленном на компьютерах пользователей соцсети 7 ч.
В Google Chrome появится функция, которая ускорит загрузку сайтов и сэкономит сетевой трафик 9 ч.
Новая статья: Grime 2 — истязание на любителя. Рецензия 19 ч.
Новая статья: Gamesblender № 770: релиз DLSS 4.5, Синдзи Миками и авторы Stellar Blade, почти конец Eidos Montreal 20 ч.
Энтузиаст установил Windows 3.1x на компьютер 2025 года — и она заработала c Ryzen 9 9900X и RTX 5060 Ti 04-04 18:58
Microsoft принудительно обновит до Windows 11 25H2 компьютеры с более старыми версиями ОС 04-04 15:10
В руководстве OpenAI провели очередные кадровые перестановки — частично вынужденные 04-04 14:05
Nvidia показала нейронное сжатие текстур: потребление видеопамяти упало почти в 7 раз 04-04 14:04