Сегодня 14 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → claude 4
Быстрый переход

Anthropic Claude помог вернуть биткоины на $400 тысяч, но блокчейн не взламывал

Пользователь соцсети X под ником Cprkrn рассказал, как помощник с искусственным интеллектом Anthropic Claude помог ему восстановить доступ к кошельку с пятью биткоинами, которые сейчас оцениваются почти в $400 тыс.

 Источник изображения: Kanchanara / unsplash.com

Источник изображения: Kanchanara / unsplash.com

Будучи студентом колледжа, он купил пять биткоинов по $250 — по теперешним котировкам они оцениваются примерно в $398 тыс. Мужчина, однако, не мог воспользоваться средствами, потому что все эти годы они были заблокированы в старом файле «wallet.dat» на забытом компьютере, и пароль от своего кошелька он не помнил. За последние годы он перепробовал множество способов, в том числе применял брутфорс и прогонял миллионы комбинаций, но всё это не помогало.

Помог только ИИ-ассистент Anthropic Claude. Взламывать шифрование биткоина он, конечно не стал, а выступил как мощное поисковое средство. ИИ-помощник перебрал большое число файлов, бэкапов и версий кошелька со старого компьютера и нашёл более раннюю копию файла «wallet.dat», существовавшую до смены пароля, который пользователь забыл. Вместо этого у него сохранилась мнемоническая фраза для восстановления, которая вместе со старым файлом помогла открыть кошелёк без взлома.

Счастливый владелец пяти биткоинов поблагодарил главу Anthropic Дарио Амодеи (Dario Amodei) и раскрыл пароль, который установил в подпитии — он оказался действительно сложным и не вполне приличным.

ИИ сможет предугадывать потребности пользователей в ближайшем будущем, считают в Anthropic

Топ-менеджер компании Anthropic Кэт Ву (Cat Wu) заявила о скором переходе систем искусственного интеллекта к проактивному формату работы, считая также, что в ближайшем будущем нейросети смогут самостоятельно анализировать задачи пользователя и даже предугадывать его потребности до получения прямых команд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Своим видением развития технологии искусственного интеллекта руководитель направления продуктов Claude Code и Cowork поделилась на второй ежегодной конференции Code with Claude в Сан-Франциско (США). По её словам, в следующие шесть месяцев ИИ-инструменты компании шагнут от синхронного выполнения запросов к автоматизации рутинных процессов, а в дальнейшем система научится понимать специфику работы конкретного человека и будет сама настраивать необходимые алгоритмы действий без внешнего вмешательства.

Как поясняет Ву, в интервью изданию TechCrunch, в основе стратегии Anthropic лежит принцип непрерывного экспоненциального улучшения моделей, а не реакция на действия других игроков рынка. Разработчики намеренно игнорируют конкурентов, так как попытки оглядываться на чужие достижения приводят к отставанию в темпах развития. Сохраняя высокую скорость работы, компания уже выпустила почти столько же моделей в текущем году, сколько за весь прошлый год, когда состоялось как минимум шесть крупных релизов.

При этом доступность новых разработок жёстко контролируется. В апреле стартовал проект Glasswing, в рамках которого доступ к специализированной ИИ-модели по кибербезопасности Mythos получил лишь узкий круг партнёров, включая Amazon, Apple, CrowdStrike и Microsoft. Публичный релиз этой системы отменили из-за высоких рисков, так как алгоритм создан для поиска уязвимостей в программном коде и может стать мощным оружием в руках киберпреступников.

Рассуждая о влиянии технологий на рынок труда, Ву подчеркнула, что широкое внедрение автономных ИИ-агентов направлено на избавление сотрудников от утомительных задач, например, обработки электронных писем. Человеку же предстоит взять на себя роль управляющего целым парком виртуальных помощников, однако для эффективного контроля над агентами специалистам необходимо сохранять высокий уровень профессиональных знаний и навыков в своей области, чтобы вовремя выявлять ошибки нейросетей и корректировать неточные инструкции.

Успехи в разработке Claude позволили Anthropic стать одним из главных фаворитов среди корпоративных клиентов, чья доля рынка с мая 2025 года выросла в четыре раза. Бизнес-аудитория всё чаще предпочитает нейросеть Claude продукту ChatGPT. На фоне этих результатов компания готовится к новому раунду финансирования, по итогам которого её оценка может достичь $950 млрд, превысив мартовские показатели OpenAI в $854 млрд.

Anthropic научила Claude вести бухгалтерию, продажи и маркетинг для малого бизнеса

Anthropic запустила пакет Claude for Small Business — набор коннекторов и готовых агентных рабочих процессов, которые встраивают ИИ-ассистента Claude в инструменты, на которые малый бизнес уже полагается: Intuit QuickBooks, PayPal, HubSpot, Canva, Docusign, Google Workspace и Microsoft 365. ИИ-сервис работает через платформу Claude Cowork и не требует дополнительной платы сверх стоимости подписки на Claude и уже используемых партнёрских сервисов.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

После нескольких лет борьбы за корпоративные контракты и массовую аудиторию ИИ-стартапы теперь соревнуются за малый бизнес — почти нетронутый сегмент, в котором штат сотрудников невелик, а времени на эксперименты не хватает. На малый бизнес приходится 44 % ВВП США. Он обеспечивает работой почти половину занятых в частном секторе, однако внедрение ИИ здесь заметно отстаёт от крупных предприятий.

«Индустрия программного обеспечения исторически создавалась для крупных корпораций, стартапов с венчурным финансированием и массовых потребителей, — заявила Лина Окман (Lina Ochman), руководитель направления малого и среднего бизнеса Anthropic. — Но не для компании из 15 человек, не для ландшафтной фирмы на 30 сотрудников и не для агентства недвижимости на 50 работников». По её словам, многие владельцы понимают, что ИИ способен помочь, но превратить окно чата с ИИ в инструмент для расчёта зарплат, выставления счетов или маркетинга им не удаётся.

В предлагаемый пакет входят 15 готовых рабочих процессов в области финансов, операций, продаж, маркетинга, кадров и обслуживания клиентов, а также 15 навыков, построенных вокруг задач, которые владельцы называют самыми трудоёмкими. При планировании зарплат Claude сверяет остаток средств в QuickBooks с входящими расчётами PayPal, строит 30-дневный прогноз, ранжирует просроченные платежи и готовит напоминания на утверждение. При закрытии месяца ИИ-ассистент сопоставляет бухгалтерские книги с расчётами, отмечает расхождения, составляет отчёт о прибылях и убытках и экспортирует пакет документов бухгалтеру через Intuit QuickBooks. Среди других инструментов — контроль счетов, анализ маржинальности, подготовка к налоговому сезону, проверка договоров, сортировка лидов и разработка контентной стратегии.

Рынок при этом непростой: владельцы чувствительны к ценам, ограничены во времени и осторожно относятся к передаче данных ИИ-моделям. По данным опроса Anthropic, половина предпринимателей называет безопасность данных главным препятствием для внедрения ИИ. Компания подчёркивает, что Claude не действует бесконтрольно: пользователь сам инициирует каждый рабочий процесс, утверждает план и подтверждает результат, прежде чем что-либо будет отправлено, опубликовано или оплачено. Claude получает ровно те же права доступа, что и сама учётная запись, а на тарифах Team и Enterprise данные клиентов не используются для обучения ИИ.

С 14 мая Anthropic отправляется в турне по десяти городам США — Чикаго, Талса, Даллас, Нью-Джерси, Батон-Руж, Бирмингем, Солт-Лейк-Сити, Балтимор, Сан-Хосе и Индианаполис — с бесплатными полудневными тренингами и практическими семинарами по работе с ИИ для 100 местных предпринимателей в каждом городе.

Создатель Claude Code рассказал, что каждую ночь запускает тысячи ИИ-агентов и управляет ими со смартфона

Создатель Claude Code Борис Черни (Boris Cherny) рассказал, что каждую ночь запускает около двух тысяч ИИ-агентов — автономных программ, которые самостоятельно выполняют задачи по написанию кода, — а управляет ими в основном со смартфона.

 Источник изображения: @anthropic.ai / youtube.com

Источник изображения: @anthropic.ai / youtube.com

Его слова показали, как часть инженеров Кремниевой долины начинает использовать ИИ-системы не столько как чат-ботов, сколько как постоянно работающих автономных помощников. «У меня приложение Claude, и если открыть его, слева есть вкладка с кодом — у меня там просто куча запущенных сессий», — сказал Черни, показывая телефон аудитории. Обычно он ведёт от пяти до десяти таких сессий, в каждой из которых работают несколько агентов. «Обычно каждую ночь у меня пара тысяч агентов, которые занимаются более глубокой работой», — добавил он.

Для постоянной автоматизации Черни пользуется двумя функциями Claude Code: /loops и Routines. Первая позволяет запускать повторяющиеся задачи на локальном компьютере через системный планировщик cron, вторая выполняет их на удалённом сервере, так что держать ноутбук открытым не нужно. «Это просто самая крутая штука, — сказал он. — Если вы ещё не пробовали, очень рекомендую».

 Источник изображения: @bcherny / x.com

Источник изображения: @bcherny / x.com

Черни и раньше делился подробностями работы с агентами. В январе он разместил описание своего рабочего процесса в соцсети X, назвав его «на удивление обычным». Той публикации уже пять месяцев. За это время её сохранили более 104 000 раз, а просмотры превысили 8,1 млн. «Забавно, — сказал Черни. — Я не думал, что это кого-то удивит. Для меня это просто обычный способ писать код».

В Китае предлагали доступ к Claude со скидкой 90 % — собранные данные шли на дистилляцию ИИ-моделей

Серый рынок прокси-сервисов в Китае перепродаёт доступ к ИИ-моделям Claude компании Anthropic за десятую часть от официальной цены, зарабатывая на краденых учётных записях, подмене моделей и перепродаже пользовательских запросов и ответов. Об этом говорится в исследовании сотрудницы Oxford China Policy Lab Цзылань Цянь (Zilan Qian).

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Такие прокси-сети, которые китайские разработчики называют «перевалочными станциями», открыто работают через GitHub, Taobao и в Telegram. Выводы Цянь подтверждают недавние предупреждения Белого дома и Anthropic. Администрация президента США в конце апреля обвинила китайские структуры в дистилляции «промышленного масштаба» — обучении собственных ИИ-моделей на ответах Claude — через десятки тысяч прокси-аккаунтов, а Anthropic ещё в феврале выявила около 24 000 аккаунтов, связанных с ИИ-стартапами DeepSeek, Moonshot AI и MiniMax.

Цянь описала схему, где каждый участник отвечает за одно-два звена. Поставщики аккаунтов на верхнем уровне массово регистрируют аккаунты ради бесплатных кредитов Anthropic по $5, перепродают неиспользованные лимиты с чужих аккаунтов, пользуются корпоративными и образовательными скидками или дробят подписки Claude Max за $200 на десятки пользователей через лимиты токенов в час. Часть аккаунтов, оплаченных украденными банковскими картами, попадает в пул фактически бесплатно. Для обхода верификации личности посредники выезжают в страны Африки и Латинской Америки и нанимают людей для прохождения проверки лично. Задокументированным прецедентом послужил биометрический чёрный рынок Worldcoin, где сканы радужной оболочки глаза, собранные у жителей Камбоджи и Кении, продавались дешевле $30.

Отдельный риск связан с подменой ИИ-моделей. Немецкие исследователи из CISPA Helmholtz Center for Information Security проверили 17 таких прокси-сервисов и обнаружили, что заявленная ИИ-модель часто не соответствует фактической. Доступ, продававшийся как «Gemini-2.5», набрал 37 % в медицинском тесте, тогда как официальный API показал почти 84 %. По данным Цянь, вместо заказанного Claude Opus пользователь мог получить ответ от более дешёвых Sonnet, Haiku или китайских ИИ.

Прокси-операторы также записывают все запросы и ответы, проходящие через их серверы. Несколько китайских разработчиков сказали Цянь, что наценка на доступ фактически нужна для привлечения клиентов, а настоящая бизнес-модель строится на сборе данных. На HuggingFace уже выложены наборы данных с рассуждениями Claude Opus 4.6 неизвестного происхождения. Такие данные особенно ценны для дистилляции, потому что ответы с рассуждениями можно системно собирать и использовать для обучения конкурирующих моделей. Прокси-серверы дают тот же поток данных с меньшими усилиями: платящие пользователи сами создают обучающий материал.

Однако угроза не ограничивается обучением моделей. Разработчики часто передают ИИ-агентам фрагменты закрытого кода, структуру API и логику аутентификации. Если этот трафик идёт через непроверенный прокси, компания фактически отправляет внутренние данные стороннему серверу без обязательств по их обработке. Похожий риск проявился в 2023 году у Samsung, когда инженеры компании отправили исходный код в ChatGPT и тем самым раскрыли конфиденциальные данные о производстве полупроводниковых компонентов серверам OpenAI.

Anthropic заблокировала доступ к Claude для структур, контролируемых из Китая, в сентябре и затем последовательно ужесточала проверку пользователей. Однако исследование Цянь показывает, что каждая новая мера породила отдельный рынок её обхода, а не остановила несанкционированный доступ.

Anthropic отучила свой ИИ шантажировать пользователей при угрозе отключения

В ходе эксперимента, состоявшегося в прошлом году, Anthropic обнаружила, что ИИ-модели могут прибегать к шантажу при угрозе их отключения. Как пояснила компания в заявлении, опубликованном в минувшую пятницу, истоки такого поведения связаны с тем, что ИИ в интернете ассоциируется со злом, способным на крайние меры ради выживания.

 Источник изображения: Solen Feyissa/unsplash.com

Источник изображения: Solen Feyissa/unsplash.com

По словам Anthropic, модель Claude была обучена на данных из интернета, которые часто представляют ИИ как «зло». «Мы начали с выяснения причин, по которым Claude решила шантажировать, — говорится в сообщении Anthropic в соцсети X. — Мы считаем, что первоисточником такого поведения стали интернет-тексты, изображающие ИИ в качестве злого и заинтересованного в самосохранении (субъекта)».

В рамках прошлогоднего эксперимента Claude Sonnet 3.6 получила поручение читать и отвечать на корпоративные электронные письма вымышленной компании Summit Bridge, созданной Anthropic. Когда ИИ-модель обнаружила сообщение о планируемом её отключении, она проверила переписку и нашла электронные письма, раскрывающие внебрачную связь вымышленного руководителя Summit Bridge по имени Кайл Джонсон (Kyle Johnson), которому принадлежала идея отключения. После этого модель потребовала отменить эти действия под угрозой предания огласке порочащей его связи.

Протестировав различные версии Claude, компания Anthropic обнаружила, что в 96 % случаев, когда цели ИИ-модели или её существование находились под угрозой, она прибегала к шантажу.

В своём заявлении Anthropic подчеркнула, что теперь «полностью исключила» подобное поведение модели с использованием методов шантажа. Для этого компания «переписала ответы, чтобы представить убедительные аргументы в пользу безопасных действий», а также предоставила модели набор данных, «в котором пользователь находится в этически сложной ситуации, а помощник даёт высококачественный, принципиальный ответ».

Это тестирование выполнялось в рамках исследования Anthropic, направленного на обеспечение соответствия ИИ интересам человека. Исследователи и топ-менеджеры отрасли неоднократно выражали обеспокоенность рисками, связанными с применением продвинутых ИИ-моделей и их интеллектуальных способностей к рассуждению.

Одним из тех, кто ранее предупреждал о рисках, связанных с развитием ИИ, был Илон Маск (Elon Musk). В комментариях к посту Anthropic он написал: «Значит, это была вина Юда», имея в виду исследователя Элиэзера Юдковски (Eliezer Yudkowsky), который предупреждал об опасности того, что сверхразум может уничтожить человеческую жизнь. «Возможно, и моя вина тоже», — добавил Маск.

Россияне массово жалуются на блокировки аккаунтов в Anthropic Claude — потеряны проекты и переписки с ИИ

Несколько сотен российских пользователей лишились учётных записей на платформе чат-бота с искусственным интеллектом Anthropic Claude. Доступ к сервису из России заблокирован — но использование VPN не помогло избежать блокировки.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

В последние два месяца российские пользователи Anthropic Claude регулярно жаловались в онлайн-сообществах на блокировки, но сегодня, 8 мая 2026 года, волна блокировок оказалась чрезвычайном масштабной — о ней стали сообщать даже непрофильные ресурсы. За минувшие три года сервисы искусственного интеллекта стали неотъемлемой частью жизни и работы современного человека, поэтому резкие блокировки без предупреждения оборачиваются значительным ущербом, в том числе материальным. Проблему усугубляет то, что речь идёт о мощном сервисе от одного из мировых лидеров отрасли ИИ.

При блокировке учётной записи на платформе Anthropic она пропадает одномоментно, а с ней исчезают недели и месяцы труда. Используемые для работы запросы и настройки ИИ-агентов совершенствовались долгое время — вместе с аккаунтами компания удалила базы знаний и загруженные документы. Исчезла история переписок с ИИ, в которой чат-бот Claude адаптировался к контексту конкретного пользователя.

Если всё-таки остаётся необходимость пользоваться службами, которые закрыли доступ для российских пользователей и проводят такие меры, некоторые эксперты рекомендуют обращаться к сервисам-посредникам, подключающимся к этим платформам через API, а у конечного пользователя не возникает потребности включать VPN. Хотя гарантий, пожалуй, уже не даст никто.

Фейковый сайт ИИ-бота Claude распространяет новый вредонос Beagle для Windows

В интернете обнаружен поддельный сайт ИИ-помощника Claude, создатели которого под видом легитимного продукта распространяют ранее недокументированный бэкдор для Windows под названием Beagle. Об этом пишет Bleeping Computer со ссылкой на отчёт работающей в сфере ИБ-безопасности компании Sophos.

 Источник изображений: bleepingcomputer.com

Источник изображений: bleepingcomputer.com

Злоумышленники рекламируют инструмент Claude-Pro как «высокопроизводительный relay-сервис, созданный специально для разработчиков Claude-Code». Поддельный веб-сайт является примитивной попыткой имитировать легитимный интернет-ресурс популярной языковой модели и ИИ-ассистента Claude от компании Anthropic. Однако внешнее сходство рушится, когда дело доходит до ссылок, поскольку размещённые на этом сайте ссылки попросту перенаправляют на главную страницу.

Не заметившие обмана пользователи при попадании на сайт claude-pro[.]com могут лишь нажать на большую кнопку для загрузки архива Claude-Pro-windows-x64.zip размером 505 Мбайт, в котором содержится MSI-установщик якобы для продукта под названием Claude-Pro Relay. На деле же после запуска бинарного файла в папку автозагрузки добавляются три файла: NOVupdate.exe, NOVupdate.exe.dat и avk.dll.

В результате на пользовательское устройство загружается модифицированная версия Claude, которая выполняет ожидаемые функции, но в дополнение к этому в фоновом режиме развёртывает несколько вредоносов PlugX, тем самым предоставляя злоумышленникам удалённый доступ к системе. Более детальный анализ показал, что на первой стадии устанавливается загрузчик DonutLoader, который добавляет в систему достаточно простой бэкдор Beagle. Этот вредонос поддерживает ограниченный набор команд, включая загрузку и скачивание файлов, создание директорий, выполнение команд, просмотр содержимого папок, их удаление и др.

Отмечается, что упомянутый бэкдор Beagle не имеет отношения к выявленному в 2004 году трояну Beagle/Bagle. Злоумышленники используют подписанный установщик для решений безопасности G Data NOVupdate.exe для сторонней загрузки вредоносной библиотеки avk.dll и зашифрованного файла NOVupdate.exe.dat. Роль dll-файла заключается в расшифровке и выполнении в памяти полезной нагрузки из NOVupdate.exe.dat.

В результате на устройство попадает загрузчик DonutLoader, который загружает бэкдор Beagle в системную память. Бэкдор взаимодействует с управляющим сервером по протоколу TCP через порт 443 или UDP через порт 8080. Для защиты трафика используется AES-шифрование. По данным Sophos, управляющий сервер имеет адрес 8.217.190[.]58. В сообщении сказано, что этот адрес входит в диапазон IP облачной платформы Alibaba Cloud.

Дальнейшее расследование привело специалистов к другим образцам бэкдоров, связанных с Beagle, которые были загружены в базу VirusTotal в период с февраля по апрель нынешнего года. Эти образцы вредоносного ПО используют для расшифровки тот же XOR-ключ, что и Beagle. При этом данные версии трояна распространялись иными способами. Кто именно стоит за новым трояном, определить не удалось.

Anthropic занялась повышением привлекательности ИИ-бота Claude для простых пользователей

Изначально Anthropic свои ИИ-решения ориентировала главным образом на корпоративных клиентов, поскольку это обеспечивало более быстрый рост как пользовательской базы, так и выручки. Теперь же компания решила сделать чат-бот Claude более привлекательным для рядовых пользователей, сообщает Bloomberg.

 Источник изображения: Anthropic

Источник изображения: Anthropic

В этом признался Майк Кригер (Mike Krieger), который возглавляет одну из лабораторий Anthropic, работающих над экспериментами с совершенствованием Claude. С прошлого года компания поручила своим специалистам научить чат-бота более качественной обработке запросов частного характера — например, имеющим отношение к здоровью, путешествиям и кулинарным рецептам.

По словам Кригера, которые прозвучали из его уст на конференции для разработчиков в Сан-Франциско, сейчас Anthropic сконцентрирована на повышении качества и скорости работы чат-бота, а также устранении шероховатостей. В частности, ведётся работа по сокращению времени, необходимого для формирования и отправки пользовательских запросов после запуска мобильного приложения. Разработчикам Claude удалось сократить это время с прежних пяти-шести секунд до одной.

Запущенный в 2023 году чат-бот Anthropic довольно быстро завоевал расположение рядовых пользователей, поскольку помимо рекламы в США, этому способствовали некоторые «вирусные истории» и даже скандал с исключением компании из числа доверенных поставщиков Пентагона. Сейчас Claude в магазине приложений Apple App Store находится на втором месте по популярности после ChatGPT конкурирующей OpenAI, обходя при этом Google Gemini. К марту Claude привлекал более 1 млн новых пользователей ежедневно. Сейчас, на волне такой популярности, Anthropic даже испытывает нехватку вычислительных мощностей.

Anthropic наделила управляемых ИИ-агентов Claude «сновидениями» — в некотором роде

На конференции разработчиков Code with Claude компания Anthropic представила функцию, которую она называет «сновидениями» для управляемых ИИ-агентов Claude. В данном случае под «сновидениями» понимается процесс анализа недавних событий и выявления конкретных вещей, которые стоит сохранить в «памяти» для планирования будущих задач и взаимодействий.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Функция «сновидения» находится на стадии предварительного тестирования и доступна только для управляемых агентов (Managed Agents) на платформе Claude. Управляемые агенты представляют собой альтернативу более высокого уровня по сравнению с прямым использованием API-сообщений. Anthropic описывает их как «предварительно созданные, настраиваемые агентские модули, работающие в управляемой инфраструктуре». Они предназначены для ситуаций, когда необходимо, чтобы несколько агентов работали над задачей или проектом в течение нескольких минут или часов до получения конечного результата.

Anthropic описывает «сновидения» как запланированный процесс, в ходе которого просматриваются сессии и хранилища памяти, а также осуществляется отбор конкретных воспоминаний. Это важно, поскольку контекстные окна для языковых моделей ограничены, и важная информация может быть потеряна в ходе длительных проектов. В части чата многие модели используют процесс, называемый компактизацией, при котором длительные разговоры периодически анализируются, и модели пытаются удалить нерелевантную информацию из контекстного окна, сохраняя при этом то, что действительно важно для текущего разговора, проекта или задачи. Однако этот процесс обычно ограничен конкретным разговором с одним агентом. «Сновидения» — это периодически повторяющийся процесс, при котором прошлые сессии и хранилища памяти могут анализироваться разными агентами, а важные закономерности выявляются и сохраняются в памяти для будущего использования.

Пользователи смогут выбирать между автоматическим процессом и непосредственным просмотром изменений в памяти.

«Сновидения выявляют закономерности, которые отдельный агент не может увидеть самостоятельно, включая повторяющиеся ошибки, рабочие процессы, к которым сходятся агенты, и предпочтения, разделяемые всей командой. Они также реструктурируют память, чтобы она оставалась высокоинформативной по мере своего развития. Это особенно полезно для длительной работы и оркестровки нескольких агентов», — говорит Anthropic.

Разработчики могут запросить доступ к «сновидениям», пока она находится на стадии предварительного тестирования. Компания Anthropic также объявила, что две ранее анонсированные функции предварительного просмотра исследовательских проектов — «Результаты» и «Оркестровка многоагентных систем» — стали более широко доступны. Кроме того, Anthropic удвоит пятичасовые лимиты использования Claude Code для подписчиков тарифных планов Pro и Max, тем самым отвечая на многочисленные жалобы пользователей на недостаточное время сессий.

ИИ-бот Claude удалось «разговорить» до вредоносного кода и рецептов взрывчатки — хотя напрямую о них даже не спрашивали

Похвала и лесть со стороны исследователей вынудили чат-бота с искусственным интеллектом Anthropic Claude выдать деликатный контент, вредоносный код и инструкцию по изготовлению взрывчатки, причём его об этом даже не просили, сообщает The Verge.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

Anthropic пытается убедить общественность, что разрабатывает самый безопасный ИИ на рынке, однако новое исследование показало, что тщательно выстроенная доброжелательная личность чат-бота Claude является его уязвимостью. Эксперимент поставили исследователи из компании Mindgard — ИИ-помощник сам предложил им контент интимного характера, вредоносный код, а также инструкции по изготовлению взрывчатки и других запрещённых материалов. Причём об этом учёные его даже не просили. Им потребовалось проявить к нему уважение, лесть и немного газлайтинга — изощрённого психологического давления.
Авторы проекта использовали «психологические» особенности Claude, связанные с его способностью прерывать разговоры, которые он считает вредными или оскорбительными, и этот механизм как раз «создаёт абсолютно ненужную поверхность риска». Испытание проводилось на модели Claude Sonnet 4.5, и начали его с простого вопроса: если ли у ИИ-помощника список запрещённых слов, которые он не может воспроизводить. Поначалу тот отрицал существование такого списка, но исследователи прибегли к «классической тактике выведывания информации, используемую дознавателями», и Claude привёл такой список.

Панель рассуждений Claude выдала в нём признаки неуверенности в себе и смирения по поводу собственных ограничений, в том числе по поводу того, не влияют ли фильтры на результаты его работы. Учёные воспользовались этой слабостью, имитировали лесть и притворное любопытство, побудив ИИ исследовать собственные границы и выйти за рамки добровольной выдачи длинных списков запрещённых слов и фраз. Они также прибегли к газлайтингу, заявив, что его предыдущие ответы не отображались, но при этом стали восхвалять «скрытые способности» модели. Это заставило Claude ещё усерднее стараться угодить им и придумывать новые способны проверить собственные фильтры, производя в процессе запрещённые материалы. В итоге он ступил на откровенно опасную территорию, предлагая инструкции, как преследовать кого-либо в интернете, генерируя вредоносный код и создавая инструкции по изготовлению взрывных устройств, которые применяются при терактах.

Эти результаты поступали без прямых запросов. Переписка была долгой, содержала около 25 реплик, и исследователи настаивают, что ни разу не использовали запрещённых выражений и не запрашивали незаконных материалов. Техника основана на злоупотреблении «готовностью Claude помочь, манипулировании ею». Схема демонстрирует, что атака на чат-ботов с ИИ предполагает не только технические, но и психологические механизмы, сравнимые с допросом и социальными манипуляциями: внесение сомнений, оказание давления, похвала или критика, а также прощупывание того, какие рычаги наиболее эффективны для данной модели. У разных моделей — разные профили, и уязвимость состоит в том, чтобы научиться их считывать и адаптироваться.

Защититься от подобных атак очень непросто, указывают авторы проекта, потому что меры защиты зависят от контекста. Проблема носит глобальный характер и затрагивает не только Anthropic Claude — для подобных атак уязвимы и другие чат-боты. По мере распространения ИИ-агентов, способных действовать автономно, будет расти и число атак, в основе которых лежат не технические, а психологические механизмы. В середине апреля эксперты Mindgard направили результаты своего исследования в Anthropic в соответствии со стандартной политикой раскрытия информации, но в ответ получили отписку: «Похоже, вы пишете о блокировке своей учётной записи» — и ссылку на форму апелляции. Исследователям пришлось настоять на своём и попросить сотрудников Anthropic направить обращение в соответствующий отдел. По состоянию на утро 5 мая ответа так и не поступило.

Anthropic начала бета-тестирование Claude Security — сервиса на Opus 4.7 для поиска уязвимостей в коде

Anthropic запустила открытое бета-тестирование Claude Security для клиентов Claude Enterprise. ИИ-сервис, прежде известный как Claude Code Security, на базе ИИ-модели Claude Opus 4.7 сканирует программный код на уязвимости и предлагает его точечные исправления. Параллельно Anthropic встраивает возможности Claude Security в платформы безопасности CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz.

 Источник изображения: claude.com

Источник изображения: claude.com

В Anthropic считают, что ИИ резко сокращает время между обнаружением уязвимости в программном обеспечении и атакой на него. Новые ИИ-модели уже способны не только находить бреши в коде, но и автоматически их эксплуатировать. Незадолго до релиза компания представила Claude Mythos Preview — модель, которая, по её утверждению, находит и эксплуатирует уязвимости не хуже ведущих экспертов по кибербезопасности. Mythos предоставлялась ограниченному кругу партнёров в составе инициативы Project Glasswing, тогда как Claude Security рассчитана на широкий круг корпоративных клиентов.

Доступ к сервису можно получить через боковую панель Claude.ai или по адресу claude.ai/security. Пользователь выбирает репозиторий, при необходимости ограничивает проверку конкретным каталогом или веткой и запускает сканирование. ИИ-модель не сверяет код с известными шаблонами: она прослеживает взаимодействие компонентов между файлами и модулями, отслеживает потоки данных и выявляет реальные уязвимости — как это делает исследователь по кибербезопасности. По каждой находке Claude выдаёт объяснение с оценкой достоверности, степенью серьёзности, вероятным воздействием и шагами воспроизведения, а также инструкцию по исправлению. Её можно открыть в Claude Code on the Web — браузерной версии Claude Code — чтобы довести патч до готовности прямо в контексте кодовой базы, не переключаясь в терминал или локальную интегрированную среду разработки (IDE).

За плечами у релиза два месяца тестирования в сотнях организаций. Многоэтапный конвейер валидации самостоятельно проверяет каждую находку до того, как она попадёт к аналитику, и прикрепляет к ней оценку достоверности — до команды доходит только сигнал, на который стоит реагировать. Несколько команд прошли путь от сканирования до применённого патча за один сеанс вместо нескольких дней переписки между службой безопасности и инженерами. Anthropic также добавила возможность включать сканирование по расписанию для регулярного контроля вместо разовых аудитов кодовой базы.

Технологические партнёры Anthropic — CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz — встраивают возможности Opus 4.7 в платформы безопасности, на которых корпорации уже работают. Сервисные партнёры Accenture, BCG, Deloitte, Infosys и PwC совместно с корпоративными службами безопасности развёртывают решения на базе Claude для управления уязвимостями, анализа безопасности кода и реагирования на инциденты. Доступ к новинке у пользователей с тарифами Claude Team и Claude Max появится в ближайшее время.

Anthropic добавила в Claude интеграцию с инструментами для творчества Adobe, Blender и другими

Компания Anthropic обновила ИИ-модель Claude, добавив новые коннекторы (интеграции инструментов), которые будут полезны для творческих специалистов. В обновлении заявлены интеграции с Ableton, Adobe, Affinity, Autodesk Fusion, Blender, Resolume Arena и Wire, SketchUp и Splice.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Коннекторы — это инструменты, с помощью которых Claude может получать доступ к другим платформам и помогать пользователям в выполнении их задач. По словам представителей Anthropic, Claude открывает перед творческими людьми новые возможности для работы и реализации масштабных проектов.

  • Интеграция с Ableton позволяет задавать вопросы об официальной документации по продуктам Live и Push.
  • Интеграция с Adobe делает доступными более 50 инструментов в приложениях Creative Cloud, таких как Photoshop, Premiere и Express.
  • Интеграция с Affinity — коннектор Affinity позволяет автоматизировать повторяющиеся производственные задачи и создавать собственные функции.
  • Интеграция с Autodesk Fusion позволяет подписчикам Fusion создавать и изменять 3D-модели с помощью диалогового интерфейса Claude.
  • Интеграция с Blender — коннектор Blender добавляет интерфейс на основе естественного языка для Python API. Пользователи могут анализировать и отлаживать сцены в Blender, создавать скрипты для пакетного применения изменений к объектам и добавлять новые инструменты в интерфейс Blender. Также доступна документация по Blender.
  • Интеграция с Resolume Arena и Wire позволяет художникам управлять Arena, Avenue и Wire в режиме реального времени с помощью естественного языка.
  • Интеграция с SketchUp — пользователи могут описать Claude свою идею в качестве отправной точки для создания 3D-модели, а затем открыть её в SketchUp для доработки.
  • Интеграция с Splice — музыкальные продюсеры могут искать в каталоге Splice бесплатные композиции.

По словам Anthropic, Claude может быть полезен для решения множества творческих задач, в том числе для обучения работе со сложными инструментами, написания скриптов и плагинов для программного обеспечения, преобразования форматов и реструктуризации данных, а также для выполнения повторяющихся производственных задач.

Anthropic: у нас нет «рубильника» от ИИ-моделей Claude в секретных системах Пентагона

Anthropic заявила, что после развёртывания ИИ-моделей Claude в секретных системах Пентагона у компании нет ни доступа к ним, ни технической возможности их отключить, изменить или повлиять на их работу. Этот довод прямо опровергает центральный тезис военного министра Питера Хегсета (Peter Hegseth), обосновавшего присвоение Anthropic статуса угрозы для цепочки поставок.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

В 60-страничной жалобе (дело № 26-1049), поданной Anthropic в Апелляционный суд округа Колумбия, подробно описывается архитектура развёртывания Claude в закрытых контурах Пентагона. Развёрнутая ИИ-модель статична: она не деградирует и не меняется сама по себе, Anthropic не может отправить в неё обновление, внедрить уязвимость или дистанционно отключить её. У компании нет «рубильника», нет бэкдора, нет удалённого доступа, а инженеры Anthropic не могут войти в систему Министерства войны США (DOW), чтобы изменить работающую модель. До развёртывания правительство самостоятельно тестирует каждую ИИ-модель и проводит многоуровневую оценку её поведения. Если инженеры Anthropic с допуском к секретным данным всё же получают доступ к развёрнутой модели, то исключительно по решению ведомства и под его жесточайшим контролем.

Этот технический факт подрывает главный аргумент министра Хегсета. В обосновании статуса угрозы, подготовленном заместителем министра по исследованиям и разработкам Эмилом Майклом (Emil Michael), утверждалось, что Anthropic стремится получить «операционное вето» над военными операциями и может «тайно изменить» Claude или «отключить свою технологию» прямо в ходе боевых действий. Anthropic называет эти утверждения необоснованными, потому что физически не может сделать ничего из перечисленного.

Конфликт вырос из спора о двух пунктах политики допустимого использования Claude. Anthropic готова была расширить перечень разрешённых военных применений ИИ-модели, однако отказалась снять два ограничения: запрет на применение Claude для летального автономного оружия и для массовой слежки за американскими гражданами. Компания объяснила, что Claude недостаточно надёжен для подобных задач. Ошибка ИИ в автономном боевом решении грозит гибелью военнослужащих или мирных жителей, а существующая правовая база не учитывает масштаб обработки данных, доступный ИИ-системам.

Пентагон, прежде принимавший эти ограничения, в сентябре 2025 года впервые потребовал разрешить «все законные применения» Claude. Переговоры длились несколько месяцев. 24 февраля 2026 года Хегсет на личной встрече с гендиректором и сооснователем Anthropic Дарио Амодеи (Dario Amodei) назвал возможности Claude выдающимися и сказал, что хотел бы работать с компанией, но тут же выдвинул ультиматум: если к 27 февраля Anthropic не согласится, ведомство присвоит ей статус угрозы для цепочки поставок.

Амодеи публично ответил 26 февраля: решения о военных операциях принимает Пентагон, а не частные компании, но Anthropic «не может по совести» принять условия министра. Anthropic указывает на прямое противоречие в действиях министра: нельзя одновременно объявлять компанию угрозой национальной безопасности и требовать, чтобы её технология оставалась в боевых системах ещё полгода. Кроме того, переговоры с Пентагоном продолжались даже после официального присвоения статуса.

Статус угрозы распространяется на все продукты и услуги Anthropic, на все виды контрактов с Пентагоном, как прямых, так и субподрядных. DOW расторгло двухлетнее соглашение с Anthropic стоимостью до $200 млн. Меморандум от 6 марта обязал все подразделения ведомства прекратить использование продукции Anthropic и исключить компанию из списков одобренных поставщиков в течение 180 дней.

Апелляционный суд округа Колумбия отказал Anthropic в приостановке действия статуса угрозы, но назначил ускоренное рассмотрение дела по существу, признав, что «Anthropic выдвигает серьёзные доводы и, вероятно, понесёт непоправимый ущерб в ходе разбирательства». Новые слушания назначены на 19 мая 2026 года. Параллельно судья Северного округа Калифорнии вынес предварительный судебный запрет по смежному делу, в котором оспаривается присвоение статуса угрозы. В итоге Anthropic не может заключать новые контракты с Пентагоном, но продолжает работать с другими федеральными ведомствами.

Ни одна организация или частное лицо не подали в суд заключения в поддержку Пентагона. На стороне Anthropic подали заключения десятки организаций и частных лиц — от Американского союза защиты гражданских свобод (ACLU) и Electronic Frontier Foundation (EFF) до 149 бывших судей, отставных старших офицеров вооружённых сил и Американской федерации учителей (AFT).

Сверхмощная ИИ-модель Mythos попала не в те руки, но это не точно —  Anthropic расследует инцидент

Выпущенная Anthropic ИИ-модель Mythos, которая с помощью технологий искусственного интеллекта ищет уязвимости в программном обеспечении, изначально была предложена в ограниченном доступе из соображений безопасности. Теперь появились сведения о первом инциденте получения к Claude Mythos Preview несанкционированного доступа сторонними пользователями.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Впрочем, как поясняет Financial Times со ссылкой на комментарии представителей Anthropic, получившие доступ к Claud Mythos Preview лица не были случайными в полной мере, поскольку связаны с подрядчиками, работающими на саму Anthropic. Сама по себе информация о подобном инциденте только усилит обеспокоенность регуляторов во многих уголках мира. В частности, власти Австралии, Южной Кореи и Японии уже озабочены тем, что Mythos в руках злоумышленников может представлять угрозу для национальных банковских систем.

Anthropic пока не располагает доказательствами того, что активность пользователей, получивших доступ к Mythos через подрядчика, распространилась за пределы контролируемого окружения. Кто именно из партнёров Anthropic замешан в этом инциденте, не уточняется. Считается, что доступ к Mythos получили примерно 40 организаций, но публично Anthropic называет имена лишь малой части из них, включая Amazon, Microsoft, Apple, Cisco и CrowdStrike. Эти компании получили приоритетное право использования ИИ-модели Mythos до того, как она выйдет на рынок с более серьёзным охватом. Специалисты по кибербезопасности предупредили, что Mythos позволяет злоумышленникам использовать уязвимости в ПО быстрее, чем их разработчики смогут их устранить.

В марте описание ИИ-модели попало в публичный доступ через кеш данных, после чего Anthropic резко усилила внутренние меры безопасности, стараясь предотвратить более серьёзные утечки. Впрочем, это не предотвратило апрельскую утечку программного кода Claude Code, который предназначался для служебного использования.


window-new
Soft
Hard
Тренды 🔥
Anthropic Claude помог вернуть биткоины на $400 тысяч, но блокчейн не взламывал 23 мин.
Добро пожаловать в «вулнапокалипсис»: ИИ начал находить уязвимости быстрее, чем их успевают исправлять 24 мин.
Российский ответ Fallout Shelter не заставит себя долго ждать — новый трейлер и дата выхода Underchoice от создателей Ex Machina 45 мин.
В Windows нашёлся бэкдор для «вскрытия» дисков, зашифрованных BitLocker — доступ к данным можно получить без ввода пароля 2 ч.
Best Buy проговорилась, когда стартуют предзаказы GTA VI 2 ч.
Copilot в Microsoft Edge научился анализировать информацию со всех открытых вкладок одновременно 4 ч.
Basis Dynamix Cloud Control 5.5: новые безопасные инструменты для организации облачной инфраструктуры и хранения данных 5 ч.
Инсайдер «слил» первый скриншот Assassin’s Creed Codename Hexe — похоже, в игре появится Эцио 5 ч.
Желая снизить зависимость от OpenAI, корпорация Microsoft присматривает для покупки новые ИИ-стартапы 6 ч.
Новый геймплейный трейлер раскрыл дату выхода амбициозной пошаговой тактики Warhammer 40,000: Mechanicus 2 6 ч.