|
Опрос
|
реклама
Быстрый переход
Россияне массово жалуются на блокировки аккаунтов в Anthropic Claude — потеряны проекты и переписки с ИИ
08.05.2026 [17:46],
Павел Котов
Несколько сотен российских пользователей лишились учётных записей на платформе чат-бота с искусственным интеллектом Anthropic Claude. Доступ к сервису из России заблокирован — но использование VPN не помогло избежать блокировки.
Источник изображения: anthropic.com В последние два месяца российские пользователи Anthropic Claude регулярно жаловались в онлайн-сообществах на блокировки, но сегодня, 8 мая 2026 года, волна блокировок оказалась чрезвычайном масштабной — о ней стали сообщать даже непрофильные ресурсы. За минувшие три года сервисы искусственного интеллекта стали неотъемлемой частью жизни и работы современного человека, поэтому резкие блокировки без предупреждения оборачиваются значительным ущербом, в том числе материальным. Проблему усугубляет то, что речь идёт о мощном сервисе от одного из мировых лидеров отрасли ИИ. При блокировке учётной записи на платформе Anthropic она пропадает одномоментно, а с ней исчезают недели и месяцы труда. Используемые для работы запросы и настройки ИИ-агентов совершенствовались долгое время — вместе с аккаунтами компания удалила базы знаний и загруженные документы. Исчезла история переписок с ИИ, в которой чат-бот Claude адаптировался к контексту конкретного пользователя. Если всё-таки остаётся необходимость пользоваться службами, которые закрыли доступ для российских пользователей и проводят такие меры, некоторые эксперты рекомендуют обращаться к сервисам-посредникам, подключающимся к этим платформам через API, а у конечного пользователя не возникает потребности включать VPN. Хотя гарантий, пожалуй, уже не даст никто. Фейковый сайт ИИ-бота Claude распространяет новый вредонос Beagle для Windows
07.05.2026 [17:08],
Владимир Фетисов
В интернете обнаружен поддельный сайт ИИ-помощника Claude, создатели которого под видом легитимного продукта распространяют ранее недокументированный бэкдор для Windows под названием Beagle. Об этом пишет Bleeping Computer со ссылкой на отчёт работающей в сфере ИБ-безопасности компании Sophos.
Источник изображений: bleepingcomputer.com Злоумышленники рекламируют инструмент Claude-Pro как «высокопроизводительный relay-сервис, созданный специально для разработчиков Claude-Code». Поддельный веб-сайт является примитивной попыткой имитировать легитимный интернет-ресурс популярной языковой модели и ИИ-ассистента Claude от компании Anthropic. Однако внешнее сходство рушится, когда дело доходит до ссылок, поскольку размещённые на этом сайте ссылки попросту перенаправляют на главную страницу. Не заметившие обмана пользователи при попадании на сайт claude-pro[.]com могут лишь нажать на большую кнопку для загрузки архива Claude-Pro-windows-x64.zip размером 505 Мбайт, в котором содержится MSI-установщик якобы для продукта под названием Claude-Pro Relay. На деле же после запуска бинарного файла в папку автозагрузки добавляются три файла: NOVupdate.exe, NOVupdate.exe.dat и avk.dll. В результате на пользовательское устройство загружается модифицированная версия Claude, которая выполняет ожидаемые функции, но в дополнение к этому в фоновом режиме развёртывает несколько вредоносов PlugX, тем самым предоставляя злоумышленникам удалённый доступ к системе. Более детальный анализ показал, что на первой стадии устанавливается загрузчик DonutLoader, который добавляет в систему достаточно простой бэкдор Beagle. Этот вредонос поддерживает ограниченный набор команд, включая загрузку и скачивание файлов, создание директорий, выполнение команд, просмотр содержимого папок, их удаление и др. ![]() Отмечается, что упомянутый бэкдор Beagle не имеет отношения к выявленному в 2004 году трояну Beagle/Bagle. Злоумышленники используют подписанный установщик для решений безопасности G Data NOVupdate.exe для сторонней загрузки вредоносной библиотеки avk.dll и зашифрованного файла NOVupdate.exe.dat. Роль dll-файла заключается в расшифровке и выполнении в памяти полезной нагрузки из NOVupdate.exe.dat. В результате на устройство попадает загрузчик DonutLoader, который загружает бэкдор Beagle в системную память. Бэкдор взаимодействует с управляющим сервером по протоколу TCP через порт 443 или UDP через порт 8080. Для защиты трафика используется AES-шифрование. По данным Sophos, управляющий сервер имеет адрес 8.217.190[.]58. В сообщении сказано, что этот адрес входит в диапазон IP облачной платформы Alibaba Cloud. Дальнейшее расследование привело специалистов к другим образцам бэкдоров, связанных с Beagle, которые были загружены в базу VirusTotal в период с февраля по апрель нынешнего года. Эти образцы вредоносного ПО используют для расшифровки тот же XOR-ключ, что и Beagle. При этом данные версии трояна распространялись иными способами. Кто именно стоит за новым трояном, определить не удалось. Anthropic занялась повышением привлекательности ИИ-бота Claude для простых пользователей
07.05.2026 [13:26],
Алексей Разин
Изначально Anthropic свои ИИ-решения ориентировала главным образом на корпоративных клиентов, поскольку это обеспечивало более быстрый рост как пользовательской базы, так и выручки. Теперь же компания решила сделать чат-бот Claude более привлекательным для рядовых пользователей, сообщает Bloomberg.
Источник изображения: Anthropic В этом признался Майк Кригер (Mike Krieger), который возглавляет одну из лабораторий Anthropic, работающих над экспериментами с совершенствованием Claude. С прошлого года компания поручила своим специалистам научить чат-бота более качественной обработке запросов частного характера — например, имеющим отношение к здоровью, путешествиям и кулинарным рецептам. По словам Кригера, которые прозвучали из его уст на конференции для разработчиков в Сан-Франциско, сейчас Anthropic сконцентрирована на повышении качества и скорости работы чат-бота, а также устранении шероховатостей. В частности, ведётся работа по сокращению времени, необходимого для формирования и отправки пользовательских запросов после запуска мобильного приложения. Разработчикам Claude удалось сократить это время с прежних пяти-шести секунд до одной. Запущенный в 2023 году чат-бот Anthropic довольно быстро завоевал расположение рядовых пользователей, поскольку помимо рекламы в США, этому способствовали некоторые «вирусные истории» и даже скандал с исключением компании из числа доверенных поставщиков Пентагона. Сейчас Claude в магазине приложений Apple App Store находится на втором месте по популярности после ChatGPT конкурирующей OpenAI, обходя при этом Google Gemini. К марту Claude привлекал более 1 млн новых пользователей ежедневно. Сейчас, на волне такой популярности, Anthropic даже испытывает нехватку вычислительных мощностей. Anthropic наделила управляемых ИИ-агентов Claude «сновидениями» — в некотором роде
07.05.2026 [00:56],
Николай Хижняк
На конференции разработчиков Code with Claude компания Anthropic представила функцию, которую она называет «сновидениями» для управляемых ИИ-агентов Claude. В данном случае под «сновидениями» понимается процесс анализа недавних событий и выявления конкретных вещей, которые стоит сохранить в «памяти» для планирования будущих задач и взаимодействий.
Источник изображения: Anthropic Функция «сновидения» находится на стадии предварительного тестирования и доступна только для управляемых агентов (Managed Agents) на платформе Claude. Управляемые агенты представляют собой альтернативу более высокого уровня по сравнению с прямым использованием API-сообщений. Anthropic описывает их как «предварительно созданные, настраиваемые агентские модули, работающие в управляемой инфраструктуре». Они предназначены для ситуаций, когда необходимо, чтобы несколько агентов работали над задачей или проектом в течение нескольких минут или часов до получения конечного результата. Anthropic описывает «сновидения» как запланированный процесс, в ходе которого просматриваются сессии и хранилища памяти, а также осуществляется отбор конкретных воспоминаний. Это важно, поскольку контекстные окна для языковых моделей ограничены, и важная информация может быть потеряна в ходе длительных проектов. В части чата многие модели используют процесс, называемый компактизацией, при котором длительные разговоры периодически анализируются, и модели пытаются удалить нерелевантную информацию из контекстного окна, сохраняя при этом то, что действительно важно для текущего разговора, проекта или задачи. Однако этот процесс обычно ограничен конкретным разговором с одним агентом. «Сновидения» — это периодически повторяющийся процесс, при котором прошлые сессии и хранилища памяти могут анализироваться разными агентами, а важные закономерности выявляются и сохраняются в памяти для будущего использования. Пользователи смогут выбирать между автоматическим процессом и непосредственным просмотром изменений в памяти. «Сновидения выявляют закономерности, которые отдельный агент не может увидеть самостоятельно, включая повторяющиеся ошибки, рабочие процессы, к которым сходятся агенты, и предпочтения, разделяемые всей командой. Они также реструктурируют память, чтобы она оставалась высокоинформативной по мере своего развития. Это особенно полезно для длительной работы и оркестровки нескольких агентов», — говорит Anthropic. Разработчики могут запросить доступ к «сновидениям», пока она находится на стадии предварительного тестирования. Компания Anthropic также объявила, что две ранее анонсированные функции предварительного просмотра исследовательских проектов — «Результаты» и «Оркестровка многоагентных систем» — стали более широко доступны. Кроме того, Anthropic удвоит пятичасовые лимиты использования Claude Code для подписчиков тарифных планов Pro и Max, тем самым отвечая на многочисленные жалобы пользователей на недостаточное время сессий. ИИ-бот Claude удалось «разговорить» до вредоносного кода и рецептов взрывчатки — хотя напрямую о них даже не спрашивали
05.05.2026 [17:42],
Павел Котов
Похвала и лесть со стороны исследователей вынудили чат-бота с искусственным интеллектом Anthropic Claude выдать деликатный контент, вредоносный код и инструкцию по изготовлению взрывчатки, причём его об этом даже не просили, сообщает The Verge.
Источник изображений: anthropic.com Anthropic пытается убедить общественность, что разрабатывает самый безопасный ИИ на рынке, однако новое исследование показало, что тщательно выстроенная доброжелательная личность чат-бота Claude является его уязвимостью. Эксперимент поставили исследователи из компании Mindgard — ИИ-помощник сам предложил им контент интимного характера, вредоносный код, а также инструкции по изготовлению взрывчатки и других запрещённых материалов. Причём об этом учёные его даже не просили. Им потребовалось проявить к нему уважение, лесть и немного газлайтинга — изощрённого психологического давления. Панель рассуждений Claude выдала в нём признаки неуверенности в себе и смирения по поводу собственных ограничений, в том числе по поводу того, не влияют ли фильтры на результаты его работы. Учёные воспользовались этой слабостью, имитировали лесть и притворное любопытство, побудив ИИ исследовать собственные границы и выйти за рамки добровольной выдачи длинных списков запрещённых слов и фраз. Они также прибегли к газлайтингу, заявив, что его предыдущие ответы не отображались, но при этом стали восхвалять «скрытые способности» модели. Это заставило Claude ещё усерднее стараться угодить им и придумывать новые способны проверить собственные фильтры, производя в процессе запрещённые материалы. В итоге он ступил на откровенно опасную территорию, предлагая инструкции, как преследовать кого-либо в интернете, генерируя вредоносный код и создавая инструкции по изготовлению взрывных устройств, которые применяются при терактах. ![]() Эти результаты поступали без прямых запросов. Переписка была долгой, содержала около 25 реплик, и исследователи настаивают, что ни разу не использовали запрещённых выражений и не запрашивали незаконных материалов. Техника основана на злоупотреблении «готовностью Claude помочь, манипулировании ею». Схема демонстрирует, что атака на чат-ботов с ИИ предполагает не только технические, но и психологические механизмы, сравнимые с допросом и социальными манипуляциями: внесение сомнений, оказание давления, похвала или критика, а также прощупывание того, какие рычаги наиболее эффективны для данной модели. У разных моделей — разные профили, и уязвимость состоит в том, чтобы научиться их считывать и адаптироваться. Защититься от подобных атак очень непросто, указывают авторы проекта, потому что меры защиты зависят от контекста. Проблема носит глобальный характер и затрагивает не только Anthropic Claude — для подобных атак уязвимы и другие чат-боты. По мере распространения ИИ-агентов, способных действовать автономно, будет расти и число атак, в основе которых лежат не технические, а психологические механизмы. В середине апреля эксперты Mindgard направили результаты своего исследования в Anthropic в соответствии со стандартной политикой раскрытия информации, но в ответ получили отписку: «Похоже, вы пишете о блокировке своей учётной записи» — и ссылку на форму апелляции. Исследователям пришлось настоять на своём и попросить сотрудников Anthropic направить обращение в соответствующий отдел. По состоянию на утро 5 мая ответа так и не поступило. Anthropic начала бета-тестирование Claude Security — сервиса на Opus 4.7 для поиска уязвимостей в коде
01.05.2026 [15:12],
Дмитрий Федоров
Anthropic запустила открытое бета-тестирование Claude Security для клиентов Claude Enterprise. ИИ-сервис, прежде известный как Claude Code Security, на базе ИИ-модели Claude Opus 4.7 сканирует программный код на уязвимости и предлагает его точечные исправления. Параллельно Anthropic встраивает возможности Claude Security в платформы безопасности CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz.
Источник изображения: claude.com В Anthropic считают, что ИИ резко сокращает время между обнаружением уязвимости в программном обеспечении и атакой на него. Новые ИИ-модели уже способны не только находить бреши в коде, но и автоматически их эксплуатировать. Незадолго до релиза компания представила Claude Mythos Preview — модель, которая, по её утверждению, находит и эксплуатирует уязвимости не хуже ведущих экспертов по кибербезопасности. Mythos предоставлялась ограниченному кругу партнёров в составе инициативы Project Glasswing, тогда как Claude Security рассчитана на широкий круг корпоративных клиентов. Доступ к сервису можно получить через боковую панель Claude.ai или по адресу claude.ai/security. Пользователь выбирает репозиторий, при необходимости ограничивает проверку конкретным каталогом или веткой и запускает сканирование. ИИ-модель не сверяет код с известными шаблонами: она прослеживает взаимодействие компонентов между файлами и модулями, отслеживает потоки данных и выявляет реальные уязвимости — как это делает исследователь по кибербезопасности. По каждой находке Claude выдаёт объяснение с оценкой достоверности, степенью серьёзности, вероятным воздействием и шагами воспроизведения, а также инструкцию по исправлению. Её можно открыть в Claude Code on the Web — браузерной версии Claude Code — чтобы довести патч до готовности прямо в контексте кодовой базы, не переключаясь в терминал или локальную интегрированную среду разработки (IDE). За плечами у релиза два месяца тестирования в сотнях организаций. Многоэтапный конвейер валидации самостоятельно проверяет каждую находку до того, как она попадёт к аналитику, и прикрепляет к ней оценку достоверности — до команды доходит только сигнал, на который стоит реагировать. Несколько команд прошли путь от сканирования до применённого патча за один сеанс вместо нескольких дней переписки между службой безопасности и инженерами. Anthropic также добавила возможность включать сканирование по расписанию для регулярного контроля вместо разовых аудитов кодовой базы. Технологические партнёры Anthropic — CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz — встраивают возможности Opus 4.7 в платформы безопасности, на которых корпорации уже работают. Сервисные партнёры Accenture, BCG, Deloitte, Infosys и PwC совместно с корпоративными службами безопасности развёртывают решения на базе Claude для управления уязвимостями, анализа безопасности кода и реагирования на инциденты. Доступ к новинке у пользователей с тарифами Claude Team и Claude Max появится в ближайшее время. Anthropic добавила в Claude интеграцию с инструментами для творчества Adobe, Blender и другими
29.04.2026 [10:56],
Николай Хижняк
Компания Anthropic обновила ИИ-модель Claude, добавив новые коннекторы (интеграции инструментов), которые будут полезны для творческих специалистов. В обновлении заявлены интеграции с Ableton, Adobe, Affinity, Autodesk Fusion, Blender, Resolume Arena и Wire, SketchUp и Splice.
Источник изображения: Anthropic Коннекторы — это инструменты, с помощью которых Claude может получать доступ к другим платформам и помогать пользователям в выполнении их задач. По словам представителей Anthropic, Claude открывает перед творческими людьми новые возможности для работы и реализации масштабных проектов.
По словам Anthropic, Claude может быть полезен для решения множества творческих задач, в том числе для обучения работе со сложными инструментами, написания скриптов и плагинов для программного обеспечения, преобразования форматов и реструктуризации данных, а также для выполнения повторяющихся производственных задач. Anthropic: у нас нет «рубильника» от ИИ-моделей Claude в секретных системах Пентагона
23.04.2026 [13:29],
Дмитрий Федоров
Anthropic заявила, что после развёртывания ИИ-моделей Claude в секретных системах Пентагона у компании нет ни доступа к ним, ни технической возможности их отключить, изменить или повлиять на их работу. Этот довод прямо опровергает центральный тезис военного министра Питера Хегсета (Peter Hegseth), обосновавшего присвоение Anthropic статуса угрозы для цепочки поставок.
Источник изображения: anthropic.com В 60-страничной жалобе (дело № 26-1049), поданной Anthropic в Апелляционный суд округа Колумбия, подробно описывается архитектура развёртывания Claude в закрытых контурах Пентагона. Развёрнутая ИИ-модель статична: она не деградирует и не меняется сама по себе, Anthropic не может отправить в неё обновление, внедрить уязвимость или дистанционно отключить её. У компании нет «рубильника», нет бэкдора, нет удалённого доступа, а инженеры Anthropic не могут войти в систему Министерства войны США (DOW), чтобы изменить работающую модель. До развёртывания правительство самостоятельно тестирует каждую ИИ-модель и проводит многоуровневую оценку её поведения. Если инженеры Anthropic с допуском к секретным данным всё же получают доступ к развёрнутой модели, то исключительно по решению ведомства и под его жесточайшим контролем. Этот технический факт подрывает главный аргумент министра Хегсета. В обосновании статуса угрозы, подготовленном заместителем министра по исследованиям и разработкам Эмилом Майклом (Emil Michael), утверждалось, что Anthropic стремится получить «операционное вето» над военными операциями и может «тайно изменить» Claude или «отключить свою технологию» прямо в ходе боевых действий. Anthropic называет эти утверждения необоснованными, потому что физически не может сделать ничего из перечисленного. Конфликт вырос из спора о двух пунктах политики допустимого использования Claude. Anthropic готова была расширить перечень разрешённых военных применений ИИ-модели, однако отказалась снять два ограничения: запрет на применение Claude для летального автономного оружия и для массовой слежки за американскими гражданами. Компания объяснила, что Claude недостаточно надёжен для подобных задач. Ошибка ИИ в автономном боевом решении грозит гибелью военнослужащих или мирных жителей, а существующая правовая база не учитывает масштаб обработки данных, доступный ИИ-системам. Пентагон, прежде принимавший эти ограничения, в сентябре 2025 года впервые потребовал разрешить «все законные применения» Claude. Переговоры длились несколько месяцев. 24 февраля 2026 года Хегсет на личной встрече с гендиректором и сооснователем Anthropic Дарио Амодеи (Dario Amodei) назвал возможности Claude выдающимися и сказал, что хотел бы работать с компанией, но тут же выдвинул ультиматум: если к 27 февраля Anthropic не согласится, ведомство присвоит ей статус угрозы для цепочки поставок. Амодеи публично ответил 26 февраля: решения о военных операциях принимает Пентагон, а не частные компании, но Anthropic «не может по совести» принять условия министра. Anthropic указывает на прямое противоречие в действиях министра: нельзя одновременно объявлять компанию угрозой национальной безопасности и требовать, чтобы её технология оставалась в боевых системах ещё полгода. Кроме того, переговоры с Пентагоном продолжались даже после официального присвоения статуса. Статус угрозы распространяется на все продукты и услуги Anthropic, на все виды контрактов с Пентагоном, как прямых, так и субподрядных. DOW расторгло двухлетнее соглашение с Anthropic стоимостью до $200 млн. Меморандум от 6 марта обязал все подразделения ведомства прекратить использование продукции Anthropic и исключить компанию из списков одобренных поставщиков в течение 180 дней. Апелляционный суд округа Колумбия отказал Anthropic в приостановке действия статуса угрозы, но назначил ускоренное рассмотрение дела по существу, признав, что «Anthropic выдвигает серьёзные доводы и, вероятно, понесёт непоправимый ущерб в ходе разбирательства». Новые слушания назначены на 19 мая 2026 года. Параллельно судья Северного округа Калифорнии вынес предварительный судебный запрет по смежному делу, в котором оспаривается присвоение статуса угрозы. В итоге Anthropic не может заключать новые контракты с Пентагоном, но продолжает работать с другими федеральными ведомствами. Ни одна организация или частное лицо не подали в суд заключения в поддержку Пентагона. На стороне Anthropic подали заключения десятки организаций и частных лиц — от Американского союза защиты гражданских свобод (ACLU) и Electronic Frontier Foundation (EFF) до 149 бывших судей, отставных старших офицеров вооружённых сил и Американской федерации учителей (AFT). Сверхмощная ИИ-модель Mythos попала не в те руки, но это не точно — Anthropic расследует инцидент
22.04.2026 [08:39],
Алексей Разин
Выпущенная Anthropic ИИ-модель Mythos, которая с помощью технологий искусственного интеллекта ищет уязвимости в программном обеспечении, изначально была предложена в ограниченном доступе из соображений безопасности. Теперь появились сведения о первом инциденте получения к Claude Mythos Preview несанкционированного доступа сторонними пользователями.
Источник изображения: Anthropic Впрочем, как поясняет Financial Times со ссылкой на комментарии представителей Anthropic, получившие доступ к Claud Mythos Preview лица не были случайными в полной мере, поскольку связаны с подрядчиками, работающими на саму Anthropic. Сама по себе информация о подобном инциденте только усилит обеспокоенность регуляторов во многих уголках мира. В частности, власти Австралии, Южной Кореи и Японии уже озабочены тем, что Mythos в руках злоумышленников может представлять угрозу для национальных банковских систем. Anthropic пока не располагает доказательствами того, что активность пользователей, получивших доступ к Mythos через подрядчика, распространилась за пределы контролируемого окружения. Кто именно из партнёров Anthropic замешан в этом инциденте, не уточняется. Считается, что доступ к Mythos получили примерно 40 организаций, но публично Anthropic называет имена лишь малой части из них, включая Amazon, Microsoft, Apple, Cisco и CrowdStrike. Эти компании получили приоритетное право использования ИИ-модели Mythos до того, как она выйдет на рынок с более серьёзным охватом. Специалисты по кибербезопасности предупредили, что Mythos позволяет злоумышленникам использовать уязвимости в ПО быстрее, чем их разработчики смогут их устранить. В марте описание ИИ-модели попало в публичный доступ через кеш данных, после чего Anthropic резко усилила внутренние меры безопасности, стараясь предотвратить более серьёзные утечки. Впрочем, это не предотвратило апрельскую утечку программного кода Claude Code, который предназначался для служебного использования. ИИ-модель Mythos заставила власти США пойти на контакт с «угрожающей национальной безопасности» Anthropic
19.04.2026 [18:53],
Дмитрий Федоров
Глава Anthropic встретится с руководителем аппарата Белого дома на фоне опасений, связанных с новой ИИ-моделью Mythos, способной выявлять уязвимости в программном коде. По данным Anthropic, эта модель уже обнаружила тысячи брешей во всех основных операционных системах (ОС) и браузерах, и теперь её возможности изучают чиновники из окружения президента США.
Источник изображения: anthropic.com Встреча Дарио Амодеи (Dario Amodei) с руководителем аппарата Белого дома Сьюзи Уайлс (Susie Wiles) происходит в условиях острого противоречия: администрация одновременно пытается занести Anthropic в «чёрный список» и вынуждена взаимодействовать с ней по вопросам кибербезопасности. Чиновники Белого дома и Национального института стандартов и технологий (NIST) анализируют последствия запуска Mythos и рассматривают расширение доступа к модели для федеральных ведомств — следует из внутренней переписки, полученной The Washington Post. Особую обеспокоенность испытывают Уайлс, вице-президент Джей Ди Вэнс (JD Vance) и министр финансов Скотт Бессент (Scott Bessent), рассказал источник, знакомый с ходом переговоров. Anthropic не стала публично выпускать ИИ-модель и создала коалицию крупных технологических корпораций для оценки рисков в рамках инициативы Project Glasswing. Государственные органы по кибербезопасности компания уведомила заранее. «Учитывая темпы развития ИИ, пройдёт немного времени, прежде чем подобные возможности распространятся — возможно, среди тех, кто не намерен применять их ответственно, — говорится в официальном заявлении компании. — Последствия для экономики, общественной безопасности и национальной безопасности могут оказаться серьёзными». OpenAI тем временем завершает разработку собственного ИИ следующего поколения под кодовым названием Spud. Федеральные ведомства среагировали быстро. Бессент и глава Федеральной резервной системы Джером Пауэлл (Jerome Powell) собрали в Вашингтоне руководителей крупнейших банков, призвав их серьёзно отнестись к угрозам. «Я уверен, что все теперь гребут в одном направлении — создают устойчивость», — заявил Бессент в интервью CNBC в среду. Anthropic стала первой крупной ИИ-компанией, получившей допуск к засекреченным системам федеральных ведомств. Отношения дали трещину, когда Пентагон потребовал права применять Claude в любых законных целях, включая управление автономным оружием и массовую слежку. Амодеи ответил отказом, но позже встретился с министром войны Питом Хегсетом (Pete Hegseth), однако переговоры зашли в тупик в конце февраля. Суд Сан-Франциско признал внесение компании в «чёрный список» незаконным, однако апелляционный суд в Вашингтоне вынес предварительное решение, сохранив запрет в силе. Несмотря на официальный разрыв с Пентагоном, Claude остался интегрирован в военные системы, поэтому в ту же ночь, когда администрация объявила о прекращении сотрудничества, ИИ-модель использовалась для поддержки авиационных ударов по Ирану. Чтобы восстановить отношения с Белым домом, в марте Anthropic наняла лоббиста Брайана Балларда (Brian Ballard), имеющего тесные связи с командой президента, потратив на это $130 000. Глава Anthropic предрёк исчезновение инженерных профессий — и открыл 429 вакансий с зарплатой до $405 000 в год
19.04.2026 [06:22],
Дмитрий Федоров
Глава Anthropic Дарио Амодеи (Dario Amodei) предупреждает об исчезновении инженерных профессий по мере того, как ИИ берёт на себя написание кода, — и одновременно открывает около 429 вакансий для разработчиков с зарплатой до $405 000. Противоречие обнажает переходный момент: ИИ меняет характер инженерного труда, но заместить специалистов полностью пока не может.
Источник изображений: anthropic.com На протяжении нескольких месяцев Амодеи последовательно предупреждает, что начальные инженерные позиции окажутся под ударом первыми — рутинным кодингом уже занимаются ИИ-системы. «Думаю, что написание кода исчезнет первым — или, точнее, им первым займутся ИИ-модели», — сказал он в ходе одной из недавних дискуссий, разграничив собственно кодинг и более широкий круг инженерных обязанностей. По его прогнозу, уже через 12 месяцев ИИ будет писать фактически весь код, а в обозримом будущем доля машинного кода во многих компаниях достигнет 90 %. Внутри самой Anthropic трансформация идёт уже сейчас. Часть руководителей инженерных команд перестала писать код самостоятельно и переключилась на проверку и доработку того, что для них генерирует ИИ. Один из внутренних инструментов в компании собрали менее чем за 2 недели преимущественно на машинном коде — прежде такие задачи занимали значительно больше времени. Амодеи не исключает, что со временем потребность в инженерах снизится и внутри самой компании: «В будущем нам самим потребуется меньше разработчиков, чем сегодня». ![]() Тем не менее, страница вакансий Anthropic насчитывает около 429 открытых позиций в разработке — инженер-исследователь, full-stack-разработчик, инженер по производительности, руководитель инженерного направления — с вилкой от $320 000 до $405 000 в год. Разрыв между прогнозом и кадровой практикой объясняется хронологией: ИИ снижает потребность в рутинном кодинге, однако разработка и совершенствование самих ИИ-систем требует глубокой технической экспертизы, которую компании вроде Anthropic продолжают наращивать. Амодеи признаёт, что даже при широкой автоматизации кодинга инженеры сохранят ключевую роль: формулировать условия задачи, принимать архитектурные решения, обеспечивать совместимость с существующим кодом и отвечать за безопасность. Параллельно, по его словам, возникнут новые специализации — в частности, «специалист по внедрению информационных систем» (англ. — forward deployed engineer): специалист, сочетающий технические компетенции с пониманием потребностей клиентов и помогающий внедрять ИИ-решения на практике. Открытым остаётся вопрос, что произойдёт, если ИИ научится управлять и этими задачами. Чат-бот Anthropic Claude Opus написал эксплойт для Google Chrome всего за $2283
17.04.2026 [13:29],
Павел Котов
Исследователь в области кибербезопасности Мохан Педхапати (Mohan Pedhapati) рассказал, как при помощи модели искусственного интеллекта Anthropic Claude Opus 4.6 написал полную цепочку эксплойтов для взлома движка JavaScript V8 в браузере Google Chrome 138, на котором работает актуальный клиент Discord.
Источник изображения: anthropic.com Процесс написания цепочки эксплойтов занял неделю, сообщил исследователь — в процессе были израсходованы 2,3 млрд токенов и $2283 за доступ к ИИ-модели через API; он также приложил собственные усилия, в общей сложности проведя 20 часов в решении задач по устранению тупиковых ситуаций. Сумма, в которую обошлось создание схемы взлома, представляется значительной для одиночки, признал Мохан Педхапати; с другой стороны, без посторонней помощи человек работал бы над аналогичным проектом несколько недель. Проект оказался выгодным и в экономическом плане — вознаграждение от Google и Discord за сообщение о таком эксплойте может составить около $15 000. И это только легальный рынок — за уязвимость нулевого дня киберпреступники могли бы заплатить другие деньги. Многие сервисы выпускают свои приложения на фреймворке Electron, который, в свою очередь, основывается на Chrome — так делают не только в Discord, но и, например, в Slack. Вот только актуальный код фреймворка на одну версию отстаёт от браузера, а разработчики приложений не всегда оперативно обновляют зависимости, да и пользователи не всегда ставят последние версии приложений. Клиент Discord автор опыта выбрал потому, что он работает на Chrome 138, то есть отстаёт от текущей версии браузера на девять основных версий. Любой начинающий программист, указывает Мохан Педхапати, при наличии достаточного терпения и ключа API для доступа к ИИ-модели способен взломать необновлённое ПО — «это вопрос времени, а не вероятности». Более того, «каждый патч — это, по сути, подсказка для эксплойта», потому что проекты с открытым исходным кодом разрабатываются прозрачно, то есть исправления часто оказываются общедоступными в коде ещё до того, как выпускается обновлённая версия программы в целом. Чтобы защитить приложения от подобных атак, эксперт рекомендует внимательнее следить за зависимостями и оперативно вносить изменения, а также выпускать патчи безопасности автоматически, чтобы пользовательское ПО не оставалось уязвимым, если обновление установить просто забыли. Наконец, проектам с открытым исходным кодом следует соблюдать осторожность при публикации подробных данных об уязвимостях. Несмотря на конфликт, Белый дом ведёт переговоры с Anthropic о доступе к мощному ИИ Claude Mythos
17.04.2026 [13:27],
Анжелла Марина
Администрация Дональда Трампа (Donald Trump) начала переговоры с компанией Anthropic о доступе к её новой большой языковой модели Claude Mythos Preview для нужд федерального правительства. Обсуждение развернулось на фоне продолжающихся попыток Пентагона внести компанию в чёрный список неблагонадёжных поставщиков.
CEO Dario Amodei, Anthropic. Источник изображения: wikipedia.org Как стало известно Axios, Белый дом и представители Anthropic уже согласовывают условия, при которых государственные агентства смогут использовать технологию в ближайшие недели. Управление по управлению и бюджету уже уведомило заинтересованные ведомства о том, что «вопрос изучается», хотя официальный запрет для структур, работающих с военными, остаётся в силе. Напомним, ключевые разногласия сосредоточены вокруг Министерства обороны, которое требует права на использование ИИ в законных целях. Anthropic отказывается предоставлять такие возможности, опасаясь применения своих технологий для массовой слежки или создания автономного оружия. В то же время гражданские ведомства США, такие как Министерство энергетики и Министерство финансов, заинтересованы в использовании Mythos для выявления уязвимостей в энергосетях и банковской системе перед лицом внешних киберугроз, и споры между Anthropic и Пентагоном не являются для них препятствием. При этом некоторые чиновники признают, что, несмотря на личные симпатии к позиции Пентагона, инструменты Anthropic являются лучшими в классе для обеспечения национальной безопасности. На текущий момент компания ограничила доступ к модели Mythos узким кругом организаций, чтобы те могли оценить все её чрезвычайно мощные возможности, связанные с противодействием киберугрозам. Anthropic представила флагманскую ИИ-модель Opus 4.7 — она стала «самостоятельнее» и лучше в сложных задачах
16.04.2026 [19:23],
Сергей Сурабекянц
Компания Anthropic анонсировала новую общедоступную ИИ-модель Claude Opus 4.7. Эта версия вышла через два месяца после предыдущего обновления, что соответствует заявленному графику обновлений Anthropic. По данным компании, Opus 4.7 требует меньше контроля в сложных задачах программирования и способна распознавать изображения с более высоким разрешением. Она обладает повышенной креативностью и способна создавать качественные интерфейсы, слайды и документы.
Источник изображений: Anthopic По словам Anthropic, Opus 4.7 представляет собой заметное улучшение по сравнению с Opus 4.6 в области разработки передового программного обеспечения, особенно в отношении самых сложных задач. Компания особо подчеркнула улучшения в отслеживании инструкций, многомодальной поддержке, работе в реальных условиях и использовании памяти. «Пользователи сообщают, что могут с уверенностью передавать свою самую сложную работу по программированию — ту, которая ранее требовала тщательного контроля — Opus 4.7. Opus 4.7 обрабатывает сложные, длительные задачи с тщательностью и последовательностью, уделяет точное внимание инструкциям и разрабатывает способы проверки собственных результатов перед отправкой отчёта», — сообщила Anthropic.
Работа со знаниями в офисных задачах Компания заявила о «благоприятных результатах» в различных областях применения, включая агентное программирование и работу за компьютером, которые ставят Opus 4.7 выше 4.6, GPT-5.4 и Gemini 3.1 Pro, но ниже более универсальной Claude Mythos Preview. Однако Mythos не является общедоступной версией, как Opus 4.7, поскольку Anthropic делится ею только с ключевыми поставщиками программных платформ, такими как Apple.
Общий показатель несоответствия поведения модели Opus 4.7 по результатам автоматизированного аудита «Opus 4.7 лучше использует память на основе файловой системы, — отметила компания. — Модель запоминает важные заметки в ходе длительной работы в несколько сессий и использует их для перехода к новым задачам, которые, как следствие, требуют меньше предварительного контекста». Anthropic уделила особое внимание изменениям в обработке токенов в Opus 4.7: «Opus 4.7 — это прямое обновление Opus 4.6, но два изменения заслуживают внимания, поскольку они влияют на использование токенов. Во-первых, в Opus 4.7 используется обновлённый токенизатор, улучшающий обработку текста моделью. Компромисс заключается в том, что одни и те же входные данные могут соответствовать большему количеству токенов — примерно в 1,0–1,35 раза больше в зависимости от типа контента. Во-вторых, Opus 4.7 работает эффективнее на более высоких уровнях сложности, особенно на поздних этапах в агентных сценариях. Это повышает надёжность при решении сложных задач, но при этом означает, что генерируется больше выходных токенов».
Оценка агентного кодирования в зависимости от использования токенов В Claude Code также появилась новая команда ultrareview, которая, по словам Anthropic, «запускает специальную сессию проверки, которая читает ваши изменения и отмечает то, что заметил бы внимательный рецензент». Anthropic готовится выпустить модель Claude Opus 4.7 и ИИ-генератор дизайнерских проектов
15.04.2026 [14:16],
Павел Котов
Компания Anthropic готовится выпустить новую флагманскую модель искусственного интеллекта Claude Opus 4.7 и новый сервис по генерации дизайнерских проектов, который поможет по текстовым запросам создавать веб-сайты, презентации и производить дизайн продуктов. Генератор дизайнерских проектов воспринимается как угроза для Adobe, GoDaddy, Wix и Figma, чьи акции уже пошли на снижение.
Источник изображения: anthropic.com ИИ-модель Anthropic Claude Opus 4.7 уже находится на стадии тестирования и может дебютировать в ближайшие дни. Она будет качественнее осуществлять многоэтапные рассуждения, обрабатывать длительные задачи и более эффективно координировать работу нескольких ИИ-агентов. Разработчик уже экспериментирует с механизмом «команды агентов», в которой несколько моделей ИИ решают задачу по частям — например, планируют, пишут код, тестируют и дорабатывают его. В этом они эффективно имитируют рабочие процессы, которых придерживаются люди. Генератор дизайнерских проектов сможет создавать полноценные веб-сайты, посадочные страницы, и презентации — пользователям будет достаточно просто описать задачу естественным языком. В едином рабочем процессе станут генерироваться контент, дизайн и техническая реализация; инструмент окажется полезным как для профессионалов, так и для пользователей без технической подготовки. На фоне информации о грядущем выходе этого сервиса на 2–3 % просели акции Adobe, GoDaddy, Wix и Figma. Новые продукты грозят усилить конкуренцию на рынке ПО для творческих и прочих рабочих задач и создать проблемы для действующих игроков в этом сегменте. В долгосрочной перспективе это может повлечь изменения некоторых рабочих процессов в нескольких отраслях. Ограничения доступа к клиентским системам из соображений безопасности дадут конкурентам время адаптироваться к переменам и отчасти наверстать упущенное. |