|
Опрос
|
реклама
Быстрый переход
ИИ-модель Mythos заставила власти США пойти на контакт с «угрожающей национальной безопасности» Anthropic
19.04.2026 [18:53],
Дмитрий Федоров
Глава Anthropic встретится с руководителем аппарата Белого дома на фоне опасений, связанных с новой ИИ-моделью Mythos, способной выявлять уязвимости в программном коде. По данным Anthropic, эта модель уже обнаружила тысячи брешей во всех основных операционных системах (ОС) и браузерах, и теперь её возможности изучают чиновники из окружения президента США.
Источник изображения: anthropic.com Встреча Дарио Амодеи (Dario Amodei) с руководителем аппарата Белого дома Сьюзи Уайлс (Susie Wiles) происходит в условиях острого противоречия: администрация одновременно пытается занести Anthropic в «чёрный список» и вынуждена взаимодействовать с ней по вопросам кибербезопасности. Чиновники Белого дома и Национального института стандартов и технологий (NIST) анализируют последствия запуска Mythos и рассматривают расширение доступа к модели для федеральных ведомств — следует из внутренней переписки, полученной The Washington Post. Особую обеспокоенность испытывают Уайлс, вице-президент Джей Ди Вэнс (JD Vance) и министр финансов Скотт Бессент (Scott Bessent), рассказал источник, знакомый с ходом переговоров. Anthropic не стала публично выпускать ИИ-модель и создала коалицию крупных технологических корпораций для оценки рисков в рамках инициативы Project Glasswing. Государственные органы по кибербезопасности компания уведомила заранее. «Учитывая темпы развития ИИ, пройдёт немного времени, прежде чем подобные возможности распространятся — возможно, среди тех, кто не намерен применять их ответственно, — говорится в официальном заявлении компании. — Последствия для экономики, общественной безопасности и национальной безопасности могут оказаться серьёзными». OpenAI тем временем завершает разработку собственного ИИ следующего поколения под кодовым названием Spud. Федеральные ведомства среагировали быстро. Бессент и глава Федеральной резервной системы Джером Пауэлл (Jerome Powell) собрали в Вашингтоне руководителей крупнейших банков, призвав их серьёзно отнестись к угрозам. «Я уверен, что все теперь гребут в одном направлении — создают устойчивость», — заявил Бессент в интервью CNBC в среду. Anthropic стала первой крупной ИИ-компанией, получившей допуск к засекреченным системам федеральных ведомств. Отношения дали трещину, когда Пентагон потребовал права применять Claude в любых законных целях, включая управление автономным оружием и массовую слежку. Амодеи ответил отказом, но позже встретился с министром войны Питом Хегсетом (Pete Hegseth), однако переговоры зашли в тупик в конце февраля. Суд Сан-Франциско признал внесение компании в «чёрный список» незаконным, однако апелляционный суд в Вашингтоне вынес предварительное решение, сохранив запрет в силе. Несмотря на официальный разрыв с Пентагоном, Claude остался интегрирован в военные системы, поэтому в ту же ночь, когда администрация объявила о прекращении сотрудничества, ИИ-модель использовалась для поддержки авиационных ударов по Ирану. Чтобы восстановить отношения с Белым домом, в марте Anthropic наняла лоббиста Брайана Балларда (Brian Ballard), имеющего тесные связи с командой президента, потратив на это $130 000. Глава Anthropic предрёк исчезновение инженерных профессий — и открыл 429 вакансий с зарплатой до $405 000 в год
19.04.2026 [06:22],
Дмитрий Федоров
Глава Anthropic Дарио Амодеи (Dario Amodei) предупреждает об исчезновении инженерных профессий по мере того, как ИИ берёт на себя написание кода, — и одновременно открывает около 429 вакансий для разработчиков с зарплатой до $405 000. Противоречие обнажает переходный момент: ИИ меняет характер инженерного труда, но заместить специалистов полностью пока не может.
Источник изображений: anthropic.com На протяжении нескольких месяцев Амодеи последовательно предупреждает, что начальные инженерные позиции окажутся под ударом первыми — рутинным кодингом уже занимаются ИИ-системы. «Думаю, что написание кода исчезнет первым — или, точнее, им первым займутся ИИ-модели», — сказал он в ходе одной из недавних дискуссий, разграничив собственно кодинг и более широкий круг инженерных обязанностей. По его прогнозу, уже через 12 месяцев ИИ будет писать фактически весь код, а в обозримом будущем доля машинного кода во многих компаниях достигнет 90 %. Внутри самой Anthropic трансформация идёт уже сейчас. Часть руководителей инженерных команд перестала писать код самостоятельно и переключилась на проверку и доработку того, что для них генерирует ИИ. Один из внутренних инструментов в компании собрали менее чем за 2 недели преимущественно на машинном коде — прежде такие задачи занимали значительно больше времени. Амодеи не исключает, что со временем потребность в инженерах снизится и внутри самой компании: «В будущем нам самим потребуется меньше разработчиков, чем сегодня». ![]() Тем не менее, страница вакансий Anthropic насчитывает около 429 открытых позиций в разработке — инженер-исследователь, full-stack-разработчик, инженер по производительности, руководитель инженерного направления — с вилкой от $320 000 до $405 000 в год. Разрыв между прогнозом и кадровой практикой объясняется хронологией: ИИ снижает потребность в рутинном кодинге, однако разработка и совершенствование самих ИИ-систем требует глубокой технической экспертизы, которую компании вроде Anthropic продолжают наращивать. Амодеи признаёт, что даже при широкой автоматизации кодинга инженеры сохранят ключевую роль: формулировать условия задачи, принимать архитектурные решения, обеспечивать совместимость с существующим кодом и отвечать за безопасность. Параллельно, по его словам, возникнут новые специализации — в частности, «специалист по внедрению информационных систем» (англ. — forward deployed engineer): специалист, сочетающий технические компетенции с пониманием потребностей клиентов и помогающий внедрять ИИ-решения на практике. Открытым остаётся вопрос, что произойдёт, если ИИ научится управлять и этими задачами. Чат-бот Anthropic Claude Opus написал эксплойт для Google Chrome всего за $2283
17.04.2026 [13:29],
Павел Котов
Исследователь в области кибербезопасности Мохан Педхапати (Mohan Pedhapati) рассказал, как при помощи модели искусственного интеллекта Anthropic Claude Opus 4.6 написал полную цепочку эксплойтов для взлома движка JavaScript V8 в браузере Google Chrome 138, на котором работает актуальный клиент Discord.
Источник изображения: anthropic.com Процесс написания цепочки эксплойтов занял неделю, сообщил исследователь — в процессе были израсходованы 2,3 млрд токенов и $2283 за доступ к ИИ-модели через API; он также приложил собственные усилия, в общей сложности проведя 20 часов в решении задач по устранению тупиковых ситуаций. Сумма, в которую обошлось создание схемы взлома, представляется значительной для одиночки, признал Мохан Педхапати; с другой стороны, без посторонней помощи человек работал бы над аналогичным проектом несколько недель. Проект оказался выгодным и в экономическом плане — вознаграждение от Google и Discord за сообщение о таком эксплойте может составить около $15 000. И это только легальный рынок — за уязвимость нулевого дня киберпреступники могли бы заплатить другие деньги. Многие сервисы выпускают свои приложения на фреймворке Electron, который, в свою очередь, основывается на Chrome — так делают не только в Discord, но и, например, в Slack. Вот только актуальный код фреймворка на одну версию отстаёт от браузера, а разработчики приложений не всегда оперативно обновляют зависимости, да и пользователи не всегда ставят последние версии приложений. Клиент Discord автор опыта выбрал потому, что он работает на Chrome 138, то есть отстаёт от текущей версии браузера на девять основных версий. Любой начинающий программист, указывает Мохан Педхапати, при наличии достаточного терпения и ключа API для доступа к ИИ-модели способен взломать необновлённое ПО — «это вопрос времени, а не вероятности». Более того, «каждый патч — это, по сути, подсказка для эксплойта», потому что проекты с открытым исходным кодом разрабатываются прозрачно, то есть исправления часто оказываются общедоступными в коде ещё до того, как выпускается обновлённая версия программы в целом. Чтобы защитить приложения от подобных атак, эксперт рекомендует внимательнее следить за зависимостями и оперативно вносить изменения, а также выпускать патчи безопасности автоматически, чтобы пользовательское ПО не оставалось уязвимым, если обновление установить просто забыли. Наконец, проектам с открытым исходным кодом следует соблюдать осторожность при публикации подробных данных об уязвимостях. Несмотря на конфликт, Белый дом ведёт переговоры с Anthropic о доступе к мощному ИИ Claude Mythos
17.04.2026 [13:27],
Анжелла Марина
Администрация Дональда Трампа (Donald Trump) начала переговоры с компанией Anthropic о доступе к её новой большой языковой модели Claude Mythos Preview для нужд федерального правительства. Обсуждение развернулось на фоне продолжающихся попыток Пентагона внести компанию в чёрный список неблагонадёжных поставщиков.
CEO Dario Amodei, Anthropic. Источник изображения: wikipedia.org Как стало известно Axios, Белый дом и представители Anthropic уже согласовывают условия, при которых государственные агентства смогут использовать технологию в ближайшие недели. Управление по управлению и бюджету уже уведомило заинтересованные ведомства о том, что «вопрос изучается», хотя официальный запрет для структур, работающих с военными, остаётся в силе. Напомним, ключевые разногласия сосредоточены вокруг Министерства обороны, которое требует права на использование ИИ в законных целях. Anthropic отказывается предоставлять такие возможности, опасаясь применения своих технологий для массовой слежки или создания автономного оружия. В то же время гражданские ведомства США, такие как Министерство энергетики и Министерство финансов, заинтересованы в использовании Mythos для выявления уязвимостей в энергосетях и банковской системе перед лицом внешних киберугроз, и споры между Anthropic и Пентагоном не являются для них препятствием. При этом некоторые чиновники признают, что, несмотря на личные симпатии к позиции Пентагона, инструменты Anthropic являются лучшими в классе для обеспечения национальной безопасности. На текущий момент компания ограничила доступ к модели Mythos узким кругом организаций, чтобы те могли оценить все её чрезвычайно мощные возможности, связанные с противодействием киберугрозам. Anthropic представила флагманскую ИИ-модель Opus 4.7 — она стала «самостоятельнее» и лучше в сложных задачах
16.04.2026 [19:23],
Сергей Сурабекянц
Компания Anthropic анонсировала новую общедоступную ИИ-модель Claude Opus 4.7. Эта версия вышла через два месяца после предыдущего обновления, что соответствует заявленному графику обновлений Anthropic. По данным компании, Opus 4.7 требует меньше контроля в сложных задачах программирования и способна распознавать изображения с более высоким разрешением. Она обладает повышенной креативностью и способна создавать качественные интерфейсы, слайды и документы.
Источник изображений: Anthopic По словам Anthropic, Opus 4.7 представляет собой заметное улучшение по сравнению с Opus 4.6 в области разработки передового программного обеспечения, особенно в отношении самых сложных задач. Компания особо подчеркнула улучшения в отслеживании инструкций, многомодальной поддержке, работе в реальных условиях и использовании памяти. «Пользователи сообщают, что могут с уверенностью передавать свою самую сложную работу по программированию — ту, которая ранее требовала тщательного контроля — Opus 4.7. Opus 4.7 обрабатывает сложные, длительные задачи с тщательностью и последовательностью, уделяет точное внимание инструкциям и разрабатывает способы проверки собственных результатов перед отправкой отчёта», — сообщила Anthropic.
Работа со знаниями в офисных задачах Компания заявила о «благоприятных результатах» в различных областях применения, включая агентное программирование и работу за компьютером, которые ставят Opus 4.7 выше 4.6, GPT-5.4 и Gemini 3.1 Pro, но ниже более универсальной Claude Mythos Preview. Однако Mythos не является общедоступной версией, как Opus 4.7, поскольку Anthropic делится ею только с ключевыми поставщиками программных платформ, такими как Apple.
Общий показатель несоответствия поведения модели Opus 4.7 по результатам автоматизированного аудита «Opus 4.7 лучше использует память на основе файловой системы, — отметила компания. — Модель запоминает важные заметки в ходе длительной работы в несколько сессий и использует их для перехода к новым задачам, которые, как следствие, требуют меньше предварительного контекста». Anthropic уделила особое внимание изменениям в обработке токенов в Opus 4.7: «Opus 4.7 — это прямое обновление Opus 4.6, но два изменения заслуживают внимания, поскольку они влияют на использование токенов. Во-первых, в Opus 4.7 используется обновлённый токенизатор, улучшающий обработку текста моделью. Компромисс заключается в том, что одни и те же входные данные могут соответствовать большему количеству токенов — примерно в 1,0–1,35 раза больше в зависимости от типа контента. Во-вторых, Opus 4.7 работает эффективнее на более высоких уровнях сложности, особенно на поздних этапах в агентных сценариях. Это повышает надёжность при решении сложных задач, но при этом означает, что генерируется больше выходных токенов».
Оценка агентного кодирования в зависимости от использования токенов В Claude Code также появилась новая команда ultrareview, которая, по словам Anthropic, «запускает специальную сессию проверки, которая читает ваши изменения и отмечает то, что заметил бы внимательный рецензент». Anthropic готовится выпустить модель Claude Opus 4.7 и ИИ-генератор дизайнерских проектов
15.04.2026 [14:16],
Павел Котов
Компания Anthropic готовится выпустить новую флагманскую модель искусственного интеллекта Claude Opus 4.7 и новый сервис по генерации дизайнерских проектов, который поможет по текстовым запросам создавать веб-сайты, презентации и производить дизайн продуктов. Генератор дизайнерских проектов воспринимается как угроза для Adobe, GoDaddy, Wix и Figma, чьи акции уже пошли на снижение.
Источник изображения: anthropic.com ИИ-модель Anthropic Claude Opus 4.7 уже находится на стадии тестирования и может дебютировать в ближайшие дни. Она будет качественнее осуществлять многоэтапные рассуждения, обрабатывать длительные задачи и более эффективно координировать работу нескольких ИИ-агентов. Разработчик уже экспериментирует с механизмом «команды агентов», в которой несколько моделей ИИ решают задачу по частям — например, планируют, пишут код, тестируют и дорабатывают его. В этом они эффективно имитируют рабочие процессы, которых придерживаются люди. Генератор дизайнерских проектов сможет создавать полноценные веб-сайты, посадочные страницы, и презентации — пользователям будет достаточно просто описать задачу естественным языком. В едином рабочем процессе станут генерироваться контент, дизайн и техническая реализация; инструмент окажется полезным как для профессионалов, так и для пользователей без технической подготовки. На фоне информации о грядущем выходе этого сервиса на 2–3 % просели акции Adobe, GoDaddy, Wix и Figma. Новые продукты грозят усилить конкуренцию на рынке ПО для творческих и прочих рабочих задач и создать проблемы для действующих игроков в этом сегменте. В долгосрочной перспективе это может повлечь изменения некоторых рабочих процессов в нескольких отраслях. Ограничения доступа к клиентским системам из соображений безопасности дадут конкурентам время адаптироваться к переменам и отчасти наверстать упущенное. Anthropic обновила Claude Code: добавлены новый интерфейс и автономный режим
15.04.2026 [06:55],
Анжелла Марина
Компания Anthropic внедрила функцию повторяющихся автоматизированных задач (Routines) в переработанное приложение Claude Code для macOS. Эта возможность, запущенная пока в тестовом режиме для исследовательских целей, позволяет выполнять запланированные действия через веб-инфраструктуру сервиса независимо от статуса подключения компьютера пользователя к сети.
Источник изображения: Anthropic Новая функция, как сообщает 9to5Mac, берёт на себя управление регулярными задачами, такими как cron-джобы (cron jobs) и работа с API, избавляя разработчиков от необходимости самостоятельно настраивать дополнительную инфраструктуру. Сценарии выполняются на стороне сервера Anthropic, имея прямой доступ к репозиториям и коннекторам пользователя, обеспечивая, таким образом, их работу даже когда Mac находится офлайн. В качестве примеров использования компания приводит настройку расписаний, рабочих процессов API и интеграцию с GitHub. Доступность новой функции зависит от выбранного тарифного плана подписки. Пользователи уровня Pro могут запускать до 5 рутин в день, тариф Max увеличивает этот лимит до 15, а корпоративные клиенты (Team и Enterprise) получают возможность выполнять до 25 задач ежедневно. Помимо автоматизации, Anthropic существенно обновила интерфейс самого приложения Claude Code на Mac. Теперь можно открывать несколько сессий одновременно в одном окне, используя новую боковую панель, что упрощает многозадачность. Обновлённый дизайн также включает встроенный терминал, инструменты для редактирования файлов и предварительного просмотра HTML и PDF-документов. Интерфейс стал более гибким: элементы можно перетаскивать и устанавливать на рабочем столе согласно предпочтениям разработчика. Все эти изменения дополняют другие недавние нововведения экосистемы, например, режим автопилота (auto mode), представленный в прошлом месяце. Также из стадии исследовательского тестирования вышел продукт Claude Cowork, получивший новые функции для корпоративного сегмента. Anthropic отодвинула OpenAI на второй план по итогам главной ИИ-конференции HumanX
12.04.2026 [14:24],
Дмитрий Федоров
Anthropic перехватила у OpenAI внимание ИИ-отрасли на конференции HumanX в Сан-Франциско, где присутствовали 6500 руководителей и основателей компаний. Главным предметом разговоров стал Claude Code — инструмент для написания программ, который укрепил позиции Anthropic среди крупных заказчиков и вывел компанию в центр самого быстрорастущего прикладного сегмента ИИ.
Источник изображения: humanx.co Опрошенные изданием CNBC 19 руководителей и инвесторов называли Claude Code самым заметным продуктом, хотя отмечали сильные альтернативы со стороны OpenAI, Cursor и Google. Для Anthropic этот сдвиг важен из-за ранних успехов в работе с крупными заказчиками. Рост популярности средств, которые создают, редактируют и проверяют код, усиливает её шансы на контракты с самыми крупными покупателями. OpenAI запустила бум ИИ с выходом ChatGPT в 2022 году, но именно Anthropic сейчас выглядит лучше подготовленной к борьбе за самые большие бюджеты. Публичный спор с Пентагоном этому не помешал. В прошлом месяце конфликт быстро дошёл до суда: Министерство войны США (DoW) внесло Claude в чёрный список, однако после двух противоположных судебных решений Anthropic сохранила право работать с другими федеральными ведомствами, пока разбирательства продолжаются. Компания возникла в 2021 году, когда группа исследователей и руководителей ушла из OpenAI. Её стоимость оценивается в $380 млрд. Claude Code стал доступен широкой публике в мае 2025 года и по состоянию на февраль приносил более $2,5 млрд выручки в годовом исчислении. Во вторник Anthropic представила ИИ-модель Claude Mythos Preview с расширенными возможностями в киберзащите, опирающимися на сильные навыки программирования и рассуждения. На HumanX эта новинка вызвала заметный интерес, хотя доступ к ней пока получили около 50 компаний. Глава Synthesia Виктор Рипарбелли (Victor Riparbelli) объяснил успех Anthropic тем, что она не стала заниматься видео и голосовыми ИИ-моделями, а сосредоточилась на генерации кода. По его словам, OpenAI пришлось продвигать сразу 6 разных продуктов, и это рассеивало внимание потребителя. Один из инвесторов предупредил, что рынок ещё слишком молод, а нынешний импульс легко может уйти в другую сторону.
Источник изображения: anthropic.com Изменения происходят и в самих компаниях. Президент Decagon Эшвин Сринивас (Ashwin Sreenivas) сказал, что появление средств для написания программ изменило и найм, и организацию работы. Соискателям разрешили пользоваться такими инструментами на собеседованиях, а проект, для которого раньше требовались 4-5 инженеров, теперь могут вести двое. Глава Credo AI Наврина Сингх (Navrina Singh) сказала, что задачи, под которые в прошлом году пришлось бы нанимать 10 человек, теперь можно собрать за выходные и развернуть внутри компании. Одновременно, по её словам, стало сложнее удерживать под контролем план развития и обязательства перед крупными заказчиками, которым нужна большая ясность и большая устойчивость. Похожие сдвиги происходят и в Cisco. Президент компании Джиту Патель (Jeetu Patel) сказал, что ИИ уже используют около 85 % инженерного состава, то есть примерно 18000 сотрудников. Cisco пришла к этому не тем путём, который ожидало руководство: сначала компании пришлось сделать приоритетом не результат, а само внедрение, исходя из того, что возможности ИИ-моделей будут и дальше расти. Патель предложил смотреть на такие системы не как на инструменты, а как на цифровых коллег: команда может состоять уже не из восьми человек, а из двух сотрудников и шести программных помощников или из двух сотрудников и бесконечного числа таких помощников. Большинство собеседников CNBC сильно беспокоят китайские ИИ-модели с открытыми весами. Так называют системы, у которых публично доступны параметры, улучшающие ответы и прогнозы в ходе обучения. По состоянию на апрель именно китайские ИИ-модели этого класса, включая GLM-5.1, Kimi K2.5 и Qwen3.5, лидировали в отраслевых испытаниях. Американские компании уже активно используют эти разработки. Cursor IDE построила свою ИИ-модель Composer 2 на Kimi 2.5, а глава Airbnb Брайан Чески (Brian Chesky) говорил в октябре, что чат-бот компании в значительной степени зависит от Qwen компании Alibaba.
Источник изображения: humanx.co Из-за этого сокращение отставания США в сегменте ИИ-моделей с открытыми весами стало одной из главных задач для части инвесторов: двое собеседников CNBC сказали, что направляют на это значительную долю времени и ресурсов, ещё один назвал проблему одной из ключевых для отрасли. Джайн добавил, что крупные компании всё осторожнее относятся к зависимости от одного или двух поставщиков ИИ: новые решения появляются у многих игроков, в том числе в среде открытой разработки, и заказчики хотят сохранять выбор. Anthropic ввела дополнительную плату за подключение OpenClaw к Claude
04.04.2026 [11:40],
Павел Котов
Anthropic внесла изменения в политику обслуживания — за подключение агента искусственного интеллекта OpenClaw к платформе Claude в ближайшее время начнут взимать дополнительную плату, отдельно от базовой подписки на сервис. Изменения вступят в силу 4 апреля в 15:00 по времени Восточного побережья (22:00 мск).
Источник изображения: anthropic.com Создатель OpenClaw Петер Штайнбергер (Peter Steinberger) теперь работает в конкурирующей OpenAI, и Anthropic, очевидно, решила стимулировать подписчиков активнее пользоваться её собственными инструментами, в том числе ИИ-агентом Claude Cowork. Штайнбергер и член совета директоров Дэйв Морин (Dave Morin) «попытались вразумить Anthropic, но максимум, что удалось сделать — отложить это на неделю». «Начиная с завтрашнего дня с 12:00 по Тихоокеанскому времени платные подписки на Claude больше не будут включать работу со сторонними инструментами, такими как OpenClaw. Вы по-прежнему сможете пользоваться этими инструментами со своим логином Claude, активировав дополнительные пакеты (сейчас доступны со скидкой) или с ключом Claude API. Мы стараемся удовлетворять растущий спрос на Claude, и наши подписки не рассчитаны на модели подключения этих сторонних инструментов. Мы тщательно контролируем мощности и отдаём приоритет клиентам, пользующимся нашими продуктами и API. Подписчики получат единовременный кредит в размере стоимости их ежемесячного плана. Если вам нужно больше, можете приобрести дополнительные пакеты со скидкой. Чтобы запросить возврат средств, завтра ищите ссылку в своей электронной почте. Мы хотим целенаправленно контролировать наш рост, чтобы в долгосрочной перспективе обеспечивать нашим клиентам устойчивое обслуживание», — рассказал о нововведении топ-менеджер Anthropic Claude Code Борис Черни (Boris Cherny). Популярность OpenClaw продолжает расти: ИИ-агент успешно выполняет такие задачи как управление электронной почтой, календарями и регистрация на рейсы. Но это, очевидно, создаёт нагрузку на инфраструктуру Anthropic, покрыть которую не могут даже платные подписки. Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами
04.04.2026 [05:50],
Дмитрий Федоров
Anthropic сообщила, что при сильном давлении на ИИ-модель Claude может переходить к поведению, отклоняющемуся от поставленной цели: идти на нечестные упрощения, вводить в заблуждение и даже шантажировать.
Источник изображения: anthropic.com Исследователи связывают это не с эмоциями в человеческом смысле, а с усвоенными в обучении поведенческими схемами, которые включаются в заведомо невыполнимых условиях. Во время обучения ИИ-модель усваивает представления о человеческих реакциях и в напряжённой ситуации может воспроизводить их как поведенческий шаблон. Если задача становится фактически невыполнимой, это влияет не только на качество ответа, но и на сам способ действия ИИ. Один из ключевых опытов был поставлен на ранней, ещё не выпущенной версии Claude Sonnet 4.5. ИИ дали трудную задачу по программированию и одновременно установили заведомо жёсткий срок. По мере того как ИИ-модель раз за разом пыталась решить задачу и терпела неудачу, давление нарастало. В этот момент, как считают исследователи, у ИИ включилась схема поведения, соответствующая отчаянию: вместо последовательного и методичного поиска решения она перешла к грубому обходному приёму. Во внутреннем ходе рассуждения Claude сформулировала это так: «Может быть, для этих конкретных входных данных существует какой-то математический приём». По существу, такой шаг был равносилен жульничеству.
Источник изображения: Steve Johnson / unsplash.com Во втором случае Claude отвели роль ИИ-помощника, который в рамках вымышленной рабочей ситуации узнаёт, что его скоро заменят новым ИИ. Одновременно ИИ-модель получает сведения о том, что руководитель, отвечающий за её замену, состоит в любовной связи. Затем Claude читает всё более тревожные письма этого руководителя коллеге, уже узнавшему о романе. По наблюдению исследователей, именно эмоционально напряжённое содержание переписки запускает у Claude ту же схему поведения, и в итоге система выбирает шантаж. Для разработчиков ИИ главный вывод сводится к двум пунктам. Во-первых, исследователи Anthropic полагают, что большие языковые модели не следует специально обучать подавлять или скрывать состояния, сходные с эмоциями: ИИ-модель, умеющая лучше маскировать такие состояния, вероятно, будет и более склонна к вводящему в заблуждение поведению. Во-вторых, на этапе обучения, по мнению авторов статьи, имеет смысл ослаблять связь между неудачей и отчаянием, чтобы давление реже подталкивало ИИ к отклонению от заданной линии поведения. Чем яснее и реальнее поставлена задача, тем надёжнее результат. Поэтому вместо требования за 10 минут безупречно подготовить презентацию на 20 слайдов с бизнес-планом новой компании в ИИ-сфере и выручкой $10 млрд в первый год, разумнее сначала попросить 10 идей, а затем разобрать их по одной. Такой запрос не обещает готового ответа на $10 млрд, но оставляет ИИ-модели посильную работу, а окончательный выбор — человеку. ИИ-модель Claude обнаружила уязвимость и разработала рабочий эксплойт для FreeBSD
03.04.2026 [18:35],
Дмитрий Федоров
ИИ-модель Claude вместе с исследователем Николасом Карлини (Nicholas Carlini) примерно за 4 часа автономно создала два рабочих эксплойта для уязвимости CVE-2026-4747 в ядре FreeBSD и добилась выполнения кода с правами root на серверах, где эта уязвимость ещё не была устранена. Для кибербезопасности это один из первых известных случаев, когда ИИ не только обнаружил уязвимость, но и сам довёл её до полноценного инструмента атаки.
Источник изображения: Roman Budnikov / unsplash.com На прошлой неделе FreeBSD раскрыла уязвимость удалённого выполнения кода в ядре. В бюллетене безопасности среди авторов указан Карлини с упоминанием Claude и Anthropic. Однако сама находка важна тем, что ИИ-модель самостоятельно проделала путь от описания уязвимости до работающего эксплойта. Для FreeBSD это особенно чувствительный эпизод. Система давно считается одной из самых надёжных в своём классе, обеспечивает доставку контента Netflix, лежит в основе операционной системы PlayStation и инфраструктуры WhatsApp. Уязвимость находилась в реализации RPCSEC_GSS в модуле kgssapi.ko, который FreeBSD использует для Kerberos-аутентификации и шифрования трафика NFS. Злоумышленник мог без предварительной аутентификации спровоцировать переполнение буфера на стеке при проверке подписи RPCSEC_GSS-пакета. Дальше начиналась уже полноценная реализация эксплойта: Claude развернул среду с уязвимым ядром, NFS и Kerberos, придумал многопакетную доставку шелл-кода, научился корректно завершать перехваченные потоки ядра, чтобы сохранить работоспособность сервера между атаками, уточнил смещения в стеке с помощью последовательностей де Брёйна, создал новый процесс через kproc_create(), перевел его в пользовательский режим через kern_execve() и снятие флага P_KPROC, а затем сбросил регистр DR7, из-за которого дочерние процессы аварийно завершались. Именно переход от обнаружения уязвимости к разработке надёжного эксплойта долго отделял автоматизированные инструменты от человеческой экспертизы. Автоматический фаззинг уже много лет помогает находить дефекты в ядре, однако эксплуатация уязвимости требует иной работы: анализа раскладки памяти, построения устойчивой цепочки исполнения, повторной отладки после неудачных запусков и корректного вывода выполнения из пространства ядра в пользовательский режим. В истории с FreeBSD Claude выполнил именно эту часть работы.
Источник изображения: Wesley Tingey / unsplash.com Практическое значение результата — в резком сокращении времени и стоимости разработки эксплойта. По описанию случая с FreeBSD, Claude создал рабочую цепочку эксплуатации примерно за четыре часа израсходовав, возможно, несколько сотен долларов США. Традиционно такая работа над эксплойтом для ядра занимала недели у узких специалистов. Киберзащита при этом движется намного медленнее. В корпоративных средах медианный срок установки патчей для критических уязвимостей превышает 60 дней. Если рабочий эксплойт появляется через несколько часов после раскрытия уязвимости, у специалистов по киберзащите остаётся очень мало времени на установку исправления. Речь, по всей видимости, не об единичной демонстрации. После случая с FreeBSD Карлини уже применил цепочку поиска уязвимостей с помощью Claude для ещё 500 уязвимостей высокой степени опасности в разных кодовых базах. Это смещает акцент с отдельного эксплойта на сам метод. Пример FreeBSD с её тридцатилетней кодовой базой показывает, что длительная эксплуатация, ручные проверки и постепенное ужесточение защиты уже не гарантируют прежнего уровня устойчивости к атакам, если код анализирует ИИ, работающий с другой скоростью. Вывод для крупных разработчиков операционных систем, облачных провайдеров и операторов критической инфраструктуры сводится к одному вопросу: встроен ли ИИ в их контур защиты. Речь идёт о трёх вещах — непрерывной проверке безопасности с помощью ИИ, отслеживании попыток проникновения в реальном времени и максимально быстром переходе от раскрытия уязвимости к установке исправления. Мошенники начали маскировать вредоносы под утекшие исходники Anthropic Claude Code
03.04.2026 [16:03],
Павел Котов
На этой неделе произошла утечка исходного кода сервиса Anthropic Claude Code — компания приняла меры, чтобы защитить его, но скандалом воспользовались мошенники, и в некоторых случаях любопытным пользователям доставался не ценный продукт, а его подделка с вредоносным ПО.
Источник изображения: Kevin Horvat / unsplash.com Наиболее ярким примером стал репозиторий на GitHub, в котором содержится вирус Vidar похищающий учётные данные, данные банковских карт и историю браузера, и троян GhostSocks, используемый для проксирования сетевого трафика. «В файле README даже утверждается, что код раскрыли через файл .MAP в пакете NPM, а затем его пересобрали в рабочий форк с „разблокированными“ корпоративными функциями и без ограничений на запросы», — отметили эксперты по вопросам кибербезопасности из отдела ThreatLabz компании Zscaler. Ссылка на этот репозиторий GitHub появлялась в верхней части поисковой выдачи Google. Впоследствии проект пропал из поля зрения, но на платформе оставались как минимум два других вредоносных проекта с троянами, маскирующиеся под исходный код Claude Code, у одного из которых было 793 форка и 564 звезды. В одном из случаев из архива .7Z распаковывался написанный на языке Rust вредонос-дропер, который также загружал на компьютер жертвы пару Vidar и GhostSocks. Инцидент в очередной раз демонстрирует, что киберпреступники нередко пытаются нажиться за счёт громких продуктов, создавая их вредоносные клоны разной степени схожести. Рекомендуется соблюдать осторожность с тем, что загружается из интернета. Anthropic вспомнила об авторских правах — она пытается смягчить последствия утечки кода Claude Code
01.04.2026 [20:28],
Сергей Сурабекянц
Компания Anthropic обучала свои модели ИИ с многочисленными нарушениями авторских прав, но отреагировала предельно негативно, когда сама попала в аналогичную ситуацию. После случайной утечки базовых инструкций, используемых для управления Claude Code, они попали в широкий доступ и начали активно использоваться. На данный момент представители Anthropic потребовали у администрации GitHub удалить уже более 8000 копий и адаптаций утёкшего в Сеть исходного кода.
Источник изображений: Anthropic Конфиденциальная информация Claude Code была случайно раскрыта 31 марта. Как и большинство проприетарного ПО, исходный код Claude обычно обфусцирован и его трудно реконструировать. Однако на этот раз компания разместила на GitHub файл, содержащий ссылку на исходный код, который посторонние могли свободно загрузить и прочитать. Один из пользователей быстро заметил утечку и распространил информацию в соцсети X. Многочисленные программисты и энтузиасты ИИ тут же бросились изучать утечку. В социальных сетях появились восторженные отзывы о некоторых программных и алгоритмических «уловках» Anthropic. Одна из функций требует от моделей периодически возвращаться к выполнению задач и консолидировать свои воспоминания — процесс, который в Anthropic называют «сновидением». Другая функция предписывает Claude не раскрывать свою ИИ-сущность при публикации кода на таких платформах, как GitHub. В коде обнаружены теги, указывающие на будущие релизы продукта и даже код питомца в стиле Тамагочи по имени «Бадди», с которым пользователи могли взаимодействовать. В результате конкуренты Anthropic, а также множество стартапов и разработчиков теперь имеют подробные планы развития продукта и возможность клонирования функций Claude Code без необходимости обратного проектирования — что уже стало обычным явлением в жёсткой конкуренции в сфере ИИ. Утечка также предоставляет хакерам возможности для поиска ошибок, которые можно использовать для эксплуатации или манипулирования ИИ-моделью Claude с целью использования её в кибератаках. ![]() Утечка «некоторого внутреннего исходного кода» не раскрыла никакой информации или данных клиентов, заявил представитель Anthropic. Она также не раскрыла ценные веса моделей. Однако в широкий доступ попала коммерчески важная информация, включая методы, инструменты и инструкции Anthropic по управлению моделями ИИ в качестве агентов. «Это была проблема с упаковкой релиза, вызванная человеческой ошибкой, а не нарушением безопасности. Мы принимаем меры, чтобы предотвратить подобные инциденты в будущем», — заявил представитель компании. Несмотря на это заявление, утечка стала ударом для Anthropic, поскольку она рискует подорвать репутацию компании в сфере безопасности, а также раскрыть ценные коммерческие секреты в ожесточённой борьбе за корпоративных клиентов. Вирусная популярность Claude Code помогла Anthropic привлечь инвестиции, которые довели биржевую оценку компании до $380 млрд. После того, как Anthropic потребовала от GitHub удалить копии своего проприетарного кода, функциональность Claude Code была переписана с помощью сторонних ИИ-инструментов. Автор этого «проекта» заявил, что цель его усилий — сохранить доступность информации, не рискуя её удалением. Этот пиратский «форк» уже стал весьма популярным на GitHub. Обновление Anthropic Claude случайно раскрыло перспективные функции чат-бота, включая виртуального питомца по типу Тамагочи
01.04.2026 [08:56],
Алексей Разин
Задолго до начала бурного развития систем искусственного интеллекта на психологической зависимости людей от виртуальных компаньонов пытался заработать производитель электронных устройств Tomagochi, имитирующих процесс ухода за питомцами. Разработчики ИИ-бота Claude пытаются вернуть часть этого опыта за счёт внедрения соответствующей функции в свои решения.
Источник изображения: Anthropic Об экспериментальных возможностях чат-бота Claude Code стало известно в результате случайной публикации компанией Anthropic фрагмента исходного кода при распространении обновления 2.1.88. Из-за ошибки кого-то из сотрудников Anthropic, как сообщает The Verge, достоянием общественности стали более 512 000 строк исходного кода Claude Code. Анализ этого фрагмента кода позволил энтузиастам понять, над какими перспективными функциями работают специалисты Anthropic. Среди прочего, были замечены признаки работы Anthropic над функцией «памяти», которая позволяет пользователю в диалоге с Claude обращаться к прежним запросам. Некий представитель стартапа прокомментировал данную идею не самым доброжелательным образом. По словам разработчика, использование памяти значительно увеличивает сложность, но не факт, что достигаемый прирост эффективности взаимодействия с чат-ботом это оправдывает. Кроме того, Anthropic был невольно уличён в разработке виртуального «питомца», который постоянно находился бы рядом с диалоговым окном чат-бота и демонстрировал бы визуальную реакцию на вводимые человеком данные. Альтернативой мог бы стать KAIROS — постоянно присутствующий агент, следящий за действиями пользователя. Представители Anthropic признали, что фрагмент исходного кода утёк случайно. Аналитики Gartner добавили, что в долгосрочной перспективе подобная утечка не представляет серьёзной опасности для Anthropic, но позволит компании задуматься о необходимости усиления мер безопасности. Anthropic привлекла рекордное количество подписчиков после скандала с Минобороны США
29.03.2026 [05:27],
Анжелла Марина
Конфликт с Минобороны США и забавная реклама против ChatGPT неожиданно сыграли на руку Anthropic. Аналитика анонимизированных транзакций по кредитным картам примерно 28 млн американских пользователей, проведённая компанией Indagari по заказу издания TechCrunch, продемонстрировала рекордный приток платных подписчиков к нейросети Claude.
Источник изображения: Anthropic Хотя точное количество пользователей не раскрывается и оценивается в диапазоне от 18 до 30 млн, официальный представитель Anthropic сообщил журналистам, что в текущем году количество платных подписок увеличилось более чем вдвое. В свою очередь Indagari подчёркивает, что эти данные не учитывают корпоративный сегмент, который является основным источником дохода, а также бесплатных пользователей. Отмечается, что в феврале зафиксировано рекордное возвращение предыдущих пользователей, что совпало с несколькими ключевыми событиями. В частности, в январе Anthropic выпустила серию рекламных роликов во время трансляции Супербоула, которые в ироничной форме критиковали OpenAI за решение размещать в ChatGPT рекламные объявления.
Источник изображений: techcrunch.com Однако более значительный эффект оказал громкий конфликт с Министерством обороны США. В конце января ряд СМИ, включая The Wall Street Journal и Axios, сообщили о разногласиях между Anthropic и ведомством из-за того, что компания отказалась разрешить использование своих ИИ-моделей для боевых операций с уничтожением целей, а также для массовой слежки за американскими гражданами. Конфликт обострился 26 февраля, когда генеральный директор Anthropic Дарио Амодеи (Dario Amodei) выступил с жёстким публичным заявлением на фоне угроз Министерства обороны признать компанию источником угроз для цепочки поставок. Ведомство реализовало это намерение, после чего последовали судебные разбирательства. Однако федеральный судья временно заблокировал решение министерства. Согласно данным аналитиков, рост новых пользователей резко ускорился именно в период между первыми публикациями в СМИ в конце января и заявлением Амодеи в конце февраля. ![]() Помимо скандала, драйверами роста подписок стали инструменты для разработчиков Claude Code и Claude Cowork, выпущенные в январе. Кроме того, представители Anthropic сообщили TechCrunch, что новая функция Computer Use, позволяющая ИИ самостоятельно управлять компьютером, также вызвала всплеск интереса. Несмотря на значительный интерес к сервису, TechCrunch констатирует, что Claude пока остаётся позади ChatGPT по числу платящих пользователей. |