|
Опрос
|
реклама
Быстрый переход
Белый дом противится намерениям Anthropic расширить доступ к своей ИИ-модели Mythos
30.04.2026 [06:50],
Алексей Разин
Создавшая ИИ-модель Mythos для поиска уязвимостей в информационных системах компания Anthropic изначально ограничила круг имеющих к ней доступ примерно 50 организациями, включая правительственные структуры. В ближайшее время планируется расширить этот перечень до 120 компаний и организаций, но данная инициатива Anthropic сталкивается с возражениями со стороны Белого дома.
Источник изображения: Anthropic Как отмечает The Wall Street Journal, власти США опасаются последствий слишком активного распространения Mythos, которая зарекомендовала себя в качестве мощного ИИ-инструмента в сфере кибербезопасности. В руках недоброжелателей это программное средство может стать оружием, используемым для атак на информационную инфраструктуру. Кроме того, чиновников беспокоит вероятность нехватки вычислительных мощностей Anthropic при столь активном расширении доступа к Mythos, которая в итоге может привести к снижению эффективности модели при её использовании в интересах правительственных структур. Выпуск Mythos компанией Anthropic символизировал вынужденное возобновление диалога с властями США после скандала с расторжением контракта на обслуживание интересов Пентагона. Новый «рубеж сопротивления» в переговорах между властями США и Anthropic говорит о том, что взаимоотношения между сторонами далеки от нормализации. На прошлой неделе Anthropic, как предполагается, столкнулась с инцидентом несанкционированного доступа к Mythos и начала расследование, поэтому нельзя утверждать, что сами разработчики безответственно относятся к условиям распространения данного инструмента. Источники также рассказывают о странном случае с попыткой американского правительства нанять выходца из Anthropic Коллина Бёрнса (Collin Burns), которому был предложен пост главы особого ведомства, специализирующегося на оценке лучших ИИ-моделей, появляющихся на рынке. Не всем в правительстве понравилась эта фигура как раз из-за связи с Anthropic, поэтому Бёрнс так и не получил описываемой выше должности, и это место занял другой кандидат. Чиновники объяснили такой шаг стремлением подобрать руководителя, который был бы равноудалён от всех компаний, предлагающих в США свои ИИ-модели. Anthropic добавила в Claude интеграцию с инструментами для творчества Adobe, Blender и другими
29.04.2026 [10:56],
Николай Хижняк
Компания Anthropic обновила ИИ-модель Claude, добавив новые коннекторы (интеграции инструментов), которые будут полезны для творческих специалистов. В обновлении заявлены интеграции с Ableton, Adobe, Affinity, Autodesk Fusion, Blender, Resolume Arena и Wire, SketchUp и Splice.
Источник изображения: Anthropic Коннекторы — это инструменты, с помощью которых Claude может получать доступ к другим платформам и помогать пользователям в выполнении их задач. По словам представителей Anthropic, Claude открывает перед творческими людьми новые возможности для работы и реализации масштабных проектов.
По словам Anthropic, Claude может быть полезен для решения множества творческих задач, в том числе для обучения работе со сложными инструментами, написания скриптов и плагинов для программного обеспечения, преобразования форматов и реструктуризации данных, а также для выполнения повторяющихся производственных задач. OpenAI бьёт тревогу: пользователи уходят к конкурентам — расходы на ИИ растут быстрее доходов
28.04.2026 [07:06],
Алексей Разин
Американский стартап OpenAI, встряхнувший весь мир запуском своего чат-бота ChatGPT, начал активно привлекать финансовые ресурсы инвесторов и партнёров для строительства обширной вычислительной инфраструктуры и оплату аренды уже действующих облачных мощностей. Внутри стартапа зреет озабоченность низкими темпами роста выручки и оттоком пользователей к конкурентам.
Источник изображения: OpenAI Об этом на текущей неделе заявило издание The Wall Street Journal со ссылкой на внутреннюю информацию OpenAI. По имеющимся данным, стартап так и не смог к концу прошлого года выйти на рубеж в 1 млрд активных пользователей в неделю. Более того, наблюдается отток пользователей в сторону конкурентов, и его скорость вызывает серьёзное беспокойство руководства. Кроме того, финансовый директор OpenAI Сара Фрайар (Sarah Friar) в ходе обсуждения со своими коллегами выразила озабоченность медленным ростом выручки компании. Наблюдается явная диспропорция между темпами роста выручки и капитальных затрат на строительство вычислительной инфраструктуры. Если выручка не будет увеличиваться быстрее, OpenAI не сможет обеспечить себя требуемым количеством вычислительных мощностей. При этом инвесторы OpenAI, которая только готовится выйти на IPO, всё сильнее беспокоятся по поводу стремительного роста капитальных затрат без внятных перспектив финансовой отдачи. Первоначально OpenAI рассчитывала в ближайшие годы потратить $1,4 трлн на создание вычислительной инфраструктуры для ИИ. В феврале стартапу удалось привлечь $110 млрд, причём крупные суммы денег ему предоставили серьёзные инвесторы типа SoftBank, Amazon (AWS) и Nvidia. Первый из них уже вложил в OpenAI более $64 млрд, и формально может претендовать на 13 % акций американского стартапа. Успехи конкурирующей Anthropic в корпоративном сегменте стали одной из причин наметившихся проблем OpenAI, но сейчас руководство последней пытается бросить все силы на устранение этого отставания. Генеральный директор OpenAI Сэм Альтман (Sam Altman) и Сара Фрайар в совместном обращении к Reuters назвали публикацию The Wall Street Journal «смехотворной»: «Мы сосредоточили все силы на покупке максимальных вычислительных мощностей и работаем над этим совместно каждый день». OpenAI и Anthropic начали активно привлекать маркетинговые кадры из других компаний
26.04.2026 [07:10],
Алексей Разин
Вряд ли кого-то в условиях бума искусственного интеллекта можно удивить «охотой за головами» среди разработчиков соответствующих систем. Она ведётся на всех уровнях и периодически создаёт информационные поводы о рекордных компенсационных пакетах, но CNBC добавляет, что теперь ведущие ИИ-стартапы типа OpenAI и Anthropic принялись искать и специалистов в сфере маркетинга, чтобы лучше продавать свои разработки.
Источник изображения: OpenAI Как отмечает источник, оба указанных стартапа в последнее время переманили сразу нескольких руководителей Salesforce, Snowflake и Datalog, чтобы с их помощью укрепить свои позиции в корпоративном сегменте рынка. Ярким примером может служить недавний переход Дениз Дрессер (Denise Dresser, на фото выше) из Salesforce на пост директора по выручке OpenAI. На прежнем месте работы она руководила коммуникационной платформой Slack. Продвижением решений OpenAI также будет заниматься Дженнифер Маджлесси (Jennifer Majlessi), которая имеет опыт работы в Salesforce, и этими фигурами дело не ограничивается, поскольку конкурирующая Anthropic также нанимала выходцев из Salesforce в последнее время. Руководители маркетинговых структур важны для ИИ-стартапов и благодаря наличию у них связей в корпоративной среде, которые сами по себе помогут эффективнее продвигать программное обеспечение и услуги OpenAI и Anthropic. Если последняя изначально больше ориентировалась на корпоративный рынок, то первая начала концентрироваться на нём относительно недавно. По состоянию на январь этого года, OpenAI уже получала 40 % всей выручки в корпоративном секторе, а к концу текущего года доля должна превысить 50 %. В ноябре было заявлено, что у OpenAI есть более 1 млн бизнес-пользователей по всему миру. Как добавляет источник, OpenAI также переманила недавно из Palantir технических специалистов, которые сопровождают внедрение программных продуктов на стороне клиента. Такой персонал необходим для более эффективного продвижения ИИ-решений на корпоративном рынке. Google инвестирует в Anthropic $40 млрд и предоставит 5 ГВт вычислительных мощностей на фоне обострившейся ИИ-гонки
25.04.2026 [06:50],
Дмитрий Федоров
Google инвестирует в Anthropic $40 млрд — $10 млрд сразу и ещё $30 млрд после достижения ИИ-стартапом целевых показателей. Кроме того, Google предоставит Anthropic дополнительные 5 ГВт вычислительных мощностей Google Cloud на ближайшие пять лет. Соглашение расширяет ранее объявленное партнёрство Anthropic с Google и производителем чипов Broadcom.
Источник изображения: BoliviaInteligente / unsplash.com Обещание инвестиций последовало за выпуском Mythos — новейшей и самой мощной ИИ-модели Anthropic, которую компания в этом месяце предоставила ограниченному кругу партнёров. В Anthropic заявляют, что модель имеет серьёзный потенциал в сфере кибербезопасности, однако из-за угрозы злоупотреблений широкий доступ к ней ограничен: компания совместно с избранными организациями оценивает и устраняет эти риски. При этом Mythos уже попала в руки тех, кому она не предназначалась. Отношения Anthropic с Google возникли задолго до событий этой недели. В начале месяца Anthropic объявила о партнёрстве с Google и производителем чипов Broadcom, который разрабатывает для Google ИИ-процессоры, для получения нескольких гигаватт вычислительных мощностей на базе тензорных процессоров (TPU), начиная с 2027 года. Broadcom затем отчиталась перед регулятором о предоставлении 3,5 ГВт. Новые инвестиции Google расширяют эту договорённость: Google Cloud предоставит дополнительные 5 ГВт мощностей в течение пяти лет с возможностью дальнейшего увеличения. Google — прямой конкурент Anthropic на рынке ИИ-моделей, но одновременно и ключевой поставщик инфраструктуры. Anthropic во многом зависит от Google Cloud в части процессоров, в том числе TPU — специализированных чипов для ИИ-задач, которые считаются одной из лучших альтернатив востребованным процессорам Nvidia. Гонку в области ИИ всё сильнее определяет доступ к вычислительным мощностям для обучения и развёртывания ИИ-моделей. OpenAI активно наращивает ресурсы через сеть сделок на сотни миллиардов долларов с облачными провайдерами, производителями процессоров и энергетическими компаниями, в том числе расширив в этом месяце соглашение с производителем чипов Cerebras. Anthropic ведёт жёсткую борьбу за мощности. В последние недели компания столкнулась с массовыми жалобами на ограничения при работе с Claude и ответила серией инфраструктурных сделок. Ранее в этом месяце Anthropic заключила соглашение с облачным провайдером CoreWeave на мощности ЦОД. На этой неделе компания привлекла дополнительные $5 млрд от Amazon — часть масштабного соглашения, по которому Anthropic, как ожидается, потратит до $100 млрд на вычислительные мощности объёмом около 5 ГВт. Ещё в феврале оценка Anthropic составляла $350 млрд, теперь же инвесторы готовы вкладываться в компанию исходя из оценки в $800 млрд и даже выше. По имеющимся данным, компания рассматривает возможность выхода на биржу уже в октябре этого года. Anthropic: у нас нет «рубильника» от ИИ-моделей Claude в секретных системах Пентагона
23.04.2026 [13:29],
Дмитрий Федоров
Anthropic заявила, что после развёртывания ИИ-моделей Claude в секретных системах Пентагона у компании нет ни доступа к ним, ни технической возможности их отключить, изменить или повлиять на их работу. Этот довод прямо опровергает центральный тезис военного министра Питера Хегсета (Peter Hegseth), обосновавшего присвоение Anthropic статуса угрозы для цепочки поставок.
Источник изображения: anthropic.com В 60-страничной жалобе (дело № 26-1049), поданной Anthropic в Апелляционный суд округа Колумбия, подробно описывается архитектура развёртывания Claude в закрытых контурах Пентагона. Развёрнутая ИИ-модель статична: она не деградирует и не меняется сама по себе, Anthropic не может отправить в неё обновление, внедрить уязвимость или дистанционно отключить её. У компании нет «рубильника», нет бэкдора, нет удалённого доступа, а инженеры Anthropic не могут войти в систему Министерства войны США (DOW), чтобы изменить работающую модель. До развёртывания правительство самостоятельно тестирует каждую ИИ-модель и проводит многоуровневую оценку её поведения. Если инженеры Anthropic с допуском к секретным данным всё же получают доступ к развёрнутой модели, то исключительно по решению ведомства и под его жесточайшим контролем. Этот технический факт подрывает главный аргумент министра Хегсета. В обосновании статуса угрозы, подготовленном заместителем министра по исследованиям и разработкам Эмилом Майклом (Emil Michael), утверждалось, что Anthropic стремится получить «операционное вето» над военными операциями и может «тайно изменить» Claude или «отключить свою технологию» прямо в ходе боевых действий. Anthropic называет эти утверждения необоснованными, потому что физически не может сделать ничего из перечисленного. Конфликт вырос из спора о двух пунктах политики допустимого использования Claude. Anthropic готова была расширить перечень разрешённых военных применений ИИ-модели, однако отказалась снять два ограничения: запрет на применение Claude для летального автономного оружия и для массовой слежки за американскими гражданами. Компания объяснила, что Claude недостаточно надёжен для подобных задач. Ошибка ИИ в автономном боевом решении грозит гибелью военнослужащих или мирных жителей, а существующая правовая база не учитывает масштаб обработки данных, доступный ИИ-системам. Пентагон, прежде принимавший эти ограничения, в сентябре 2025 года впервые потребовал разрешить «все законные применения» Claude. Переговоры длились несколько месяцев. 24 февраля 2026 года Хегсет на личной встрече с гендиректором и сооснователем Anthropic Дарио Амодеи (Dario Amodei) назвал возможности Claude выдающимися и сказал, что хотел бы работать с компанией, но тут же выдвинул ультиматум: если к 27 февраля Anthropic не согласится, ведомство присвоит ей статус угрозы для цепочки поставок. Амодеи публично ответил 26 февраля: решения о военных операциях принимает Пентагон, а не частные компании, но Anthropic «не может по совести» принять условия министра. Anthropic указывает на прямое противоречие в действиях министра: нельзя одновременно объявлять компанию угрозой национальной безопасности и требовать, чтобы её технология оставалась в боевых системах ещё полгода. Кроме того, переговоры с Пентагоном продолжались даже после официального присвоения статуса. Статус угрозы распространяется на все продукты и услуги Anthropic, на все виды контрактов с Пентагоном, как прямых, так и субподрядных. DOW расторгло двухлетнее соглашение с Anthropic стоимостью до $200 млн. Меморандум от 6 марта обязал все подразделения ведомства прекратить использование продукции Anthropic и исключить компанию из списков одобренных поставщиков в течение 180 дней. Апелляционный суд округа Колумбия отказал Anthropic в приостановке действия статуса угрозы, но назначил ускоренное рассмотрение дела по существу, признав, что «Anthropic выдвигает серьёзные доводы и, вероятно, понесёт непоправимый ущерб в ходе разбирательства». Новые слушания назначены на 19 мая 2026 года. Параллельно судья Северного округа Калифорнии вынес предварительный судебный запрет по смежному делу, в котором оспаривается присвоение статуса угрозы. В итоге Anthropic не может заключать новые контракты с Пентагоном, но продолжает работать с другими федеральными ведомствами. Ни одна организация или частное лицо не подали в суд заключения в поддержку Пентагона. На стороне Anthropic подали заключения десятки организаций и частных лиц — от Американского союза защиты гражданских свобод (ACLU) и Electronic Frontier Foundation (EFF) до 149 бывших судей, отставных старших офицеров вооружённых сил и Американской федерации учителей (AFT). Anthropic обогнала OpenAI — по оценке на вторичном рынке акций, которая взлетела до $1 трлн за три месяца
23.04.2026 [10:33],
Дмитрий Федоров
Оценка Anthropic на внебиржевом рынке акций непубличных компаний достигла $1 трлн — против $380 млрд три месяца назад и выше, чем у OpenAI, которая оценивается в $880 млрд. Однако предложение иссякает: один акционер выставил пакет акций по цене $1,15 трлн, но крупный фонд заявил о готовности купить бумаги по $1,05 трлн, при этом покупатели перехватывают сделки в течение суток.
Источник изображения: anthropic.com Генеральный директор Forge Global Келли Родригес (Kelly Rodriques) сообщил, что оценка Anthropic на платформе сегодня превышает $1 трлн, а OpenAI торгуется по $880 млрд — незначительно выше уровня мартовского раунда. Поскольку обе компании ещё не вышли на биржу, большинство инвесторов вынуждены покупать бумаги на внебиржевом рынке — у действующих или бывших сотрудников и ранних инвесторов. По данным Кена Сойера (Ken Sawyer), сооснователя и управляющего партнёра Saints Capital, один из акционеров Anthropic недавно предложил пакет акций по цене $1,15 трлн. Джесси Леймгрубер (Jesse Leimgruber), основатель OpenHome, сообщил в соцсети X, что крупный фонд готов купить те же бумаги при оценке $1,05 трлн. Некоторые покупатели даже предлагают собственную недвижимость в обмен на акции Anthropic. Три месяца назад Anthropic закрыла раунд финансирования под руководством GIC и Coatue с оценкой $380 млрд. С тех пор интерес к бумагам компании резко вырос — инвесторов впечатлили стремительный рост выручки и популярность Claude Code у разработчиков. За последние недели венчурные фонды несколько раз предлагали купить акции Anthropic, оценивая компанию в $800 млрд. «Для Anthropic это был грандиозный забег, — говорит Глен Андерсон (Glen Anderson), генеральный директор Rainmaker Securities, инвестиционного банка, специализирующегося на операциях с бумагами непубличных компаний. — Все хотят войти в историю ИИ, а Anthropic сейчас занимает в ней первую позицию». Андерсон только что получил предложение о покупке пакета акций Anthropic стоимостью $960 млрд, однако ожидает, что другой покупатель согласится раньше, чем он успеет оценить сделку. «Получаем предложение — и уже на следующий день кто-то его перехватывает. Продавцов почти нет», — говорит он. По словам Андерсона, значительная часть спроса объясняется страхом упустить возможность, а не фундаментальными показателями: инвесторы из венчурных и семейных фондов готовы платить любую цену, чтобы только стать акционерами Anthropic. «Дело уже не столько в доходности, сколько в том, чтобы сказать: я инвестор Anthropic. Это и разгоняет цену», — отмечает он. По словам Андерсона, спрос на акции OpenAI в этом году резко ослаб: заявки ниже уровня последнего раунда в $852 млрд. «Рынок OpenAI совсем вялый. Настроения явно сместились в сторону Anthropic», — констатирует он. Брэдли Горовиц (Bradley Horowitz), генеральный партнёр Wisdom Ventures — раннего инвестора как в Anthropic, так и в OpenAI, — рассказал, что фонд получает предложения о продаже акций каждый день, но игнорирует их. «Предложения поступают ежедневно — от смехотворных до вполне серьёзных. Я едва открываю такие письма: нас это не интересует. Мы играем в долгую», — заявил он. В популярном ИИ-протоколе нашли критическую уязвимость — отвечающая за него Anthropic ничего исправлять не будет
22.04.2026 [16:16],
Павел Котов
Исследователи в области кибербезопасности из компании OX Security обнаружили уязвимость в протоколе MCP (Model Context Protocol), работающую на уровне его архитектуры. Она затрагивает официальные SDK для языков Python, TypeScript, Java и Rust. Под угрозой программные решения со 150 млн загрузок и до 200 тыс. экземпляров серверов. Anthropic заявила, что вносить изменения в протокол не требуется, потому что такое поведение «ожидаемо».
Источник изображений: anthropic.com Anthropic представила открытый стандарт MCP в 2024 году — он позволяет моделям искусственного интеллекта подключаться к внешним инструментам, базам данных и API. В прошлом году компания передала его в Agentic AI Foundation при Linux Foundation; сейчас протокол используется в OpenAI, Google и в большинстве инструментов разработки с использованием ИИ. Уязвимость связана с тем, как MCP обрабатывает запросы через интерфейс STDIO — запросы передаются в точку выполнения команд без дополнительной проверки. То есть каждый использующий MCP разработчик автоматически наследует эту уязвимость. Эксперты OX Security сформулировали четыре возможных семейства эксплойтов для этой уязвимости: внедрение вредоносного кода в пользовательский интерфейс без авторизации; обход средств безопасности на считающихся защищёнными платформах вроде Flowise; внедрение вредоносных запросов для IDE-сред, в том числе Windsurf и Cursor, которые могут выполняться без участия пользователя; и распространение вредоносных пакетов через платформы MCP. Чтобы подтвердить свою гипотезу, исследователи успешно внедрили тестовую полезную нагрузку в 9 из 11 реестров MCP и подтвердили возможность выполнения команд на шести рабочих коммерческих платформах. ![]() В рамках исследования были установлены не менее десятка частных уязвимостей с высоким или критическим рейтингом. Уязвимости шлюза LiteLLM (CVE-2026-30623) и платформы Bisheng (CVE-2026-33224) значатся как закрытые; уязвимость Windsurf (CVE-2026-30615), допускающая локальное выполнение кода без участия пользователя имеет статус «сообщение получено» — тот же статус у уязвимостей открытых проектов GPT Researcher, Agent Zero, LangChain-Chatchat и DocsGPT. OX Security, по её собственному заявлению, неоднократно рекомендовала Anthropic исправить эти уязвимости на уровне протокола, например, разрешив выполнять запросы только из манифеста или предусмотрев список разрешённых команд на уровне SDK, но в Anthropic ответили отказом и не стали возражать против оглашения информации об уязвимости. При этом сейчас сама Anthropic расследует факт неавторизованного доступа к передовой модели Mythos; ранее компания также допустила утечку исходного кода сервиса Claude Code. Сейчас управление MCP передано Linux Foundation, но Anthropic всё ещё осуществляет поддержку эталонных SDK, в которых обнаружена уязвимость. Пока механизм работы STDIO не изменится, разработчикам придётся собственными силами реализовывать средства очистки входных данных. Потенциально опасная ИИ-модель Anthropic Mythos нашла 271 уязвимость в Firefox 150
22.04.2026 [12:20],
Павел Котов
Пока общественность пытается разобраться, действительно ли вышедшая в конце марта модель искусственного интеллекта Anthropic Mythos слишком опасна для выпуска в общий доступ, или разработчик просто искусственно создаёт на ней ажиотаж, в Mozilla испытали её возможности на собственном продукте.
Источник изображения: blog.mozilla.org Разработчики Mozilla получили ранний доступ к Anthropic Mythos, и ИИ помог им обнаружить в вышедшем на этой неделе обновлении браузера Firefox 150 колоссальное число уязвимостей — 271 штуку. Результат оказался настолько значительным, чтобы технический директор Firefox Бобби Холли (Bobby Holley) с энтузиазмом констатировал, что в бесконечной борьбе киберпреступников и киберзащитников у последних «наконец-то появился шанс одержать решительную победу». Для сравнения, в марте общедоступная модель Anthropic Opus 4.6 провела анализ кода Firefox 148 и нашла «всего» 22 уязвимости. Обычно, отметил господин Холли, уязвимости обнаруживаются либо методом «фаззинга» — хаотической бомбардировки ПО случайными данными — либо посредством долгосрочного анализа с привлечением «элитных исследователей в области безопасности». Anthropic Mythos избавляет разработчиков от применения серьёзных ресурсов, которые требуют продолжительного времени и усилий. Но теперь создателям ПО придётся ввести в повседневную практику анализ кода с помощью ИИ, потому что множество ошибок скрывается в каждом продукте, и теперь их можно обнаруживать. Особенно важно это для проектов с открытым исходным кодом, чьи базы кода свободно лежат в общем доступе. Исследования безопасности для таких проектов обычно проводят добровольцы, но их усилий, конечно, недостаточно. И разработчикам наиболее популярных проектов, которыми пользуются миллиарды человек, отметили в Mozilla, доступ к средствам вроде Anthropic Mythos должен предоставляться в приоритетном порядке. Сверхмощная ИИ-модель Mythos попала не в те руки, но это не точно — Anthropic расследует инцидент
22.04.2026 [08:39],
Алексей Разин
Выпущенная Anthropic ИИ-модель Mythos, которая с помощью технологий искусственного интеллекта ищет уязвимости в программном обеспечении, изначально была предложена в ограниченном доступе из соображений безопасности. Теперь появились сведения о первом инциденте получения к Claude Mythos Preview несанкционированного доступа сторонними пользователями.
Источник изображения: Anthropic Впрочем, как поясняет Financial Times со ссылкой на комментарии представителей Anthropic, получившие доступ к Claud Mythos Preview лица не были случайными в полной мере, поскольку связаны с подрядчиками, работающими на саму Anthropic. Сама по себе информация о подобном инциденте только усилит обеспокоенность регуляторов во многих уголках мира. В частности, власти Австралии, Южной Кореи и Японии уже озабочены тем, что Mythos в руках злоумышленников может представлять угрозу для национальных банковских систем. Anthropic пока не располагает доказательствами того, что активность пользователей, получивших доступ к Mythos через подрядчика, распространилась за пределы контролируемого окружения. Кто именно из партнёров Anthropic замешан в этом инциденте, не уточняется. Считается, что доступ к Mythos получили примерно 40 организаций, но публично Anthropic называет имена лишь малой части из них, включая Amazon, Microsoft, Apple, Cisco и CrowdStrike. Эти компании получили приоритетное право использования ИИ-модели Mythos до того, как она выйдет на рынок с более серьёзным охватом. Специалисты по кибербезопасности предупредили, что Mythos позволяет злоумышленникам использовать уязвимости в ПО быстрее, чем их разработчики смогут их устранить. В марте описание ИИ-модели попало в публичный доступ через кеш данных, после чего Anthropic резко усилила внутренние меры безопасности, стараясь предотвратить более серьёзные утечки. Впрочем, это не предотвратило апрельскую утечку программного кода Claude Code, который предназначался для служебного использования. Amazon согласилась вложить в Anthropic ещё $25 млрд
21.04.2026 [05:05],
Алексей Разин
Большинство ИИ-стартапов стремительное развитие своих сервисов обеспечивают благодаря аренде вычислительных мощностей у облачных провайдеров, последние несут на себе бремя капитальных затрат. Amazon недавно согласилась вложить в Anthropic ещё $25 млрд, а последняя зарезервировала за собой до 5 ГВт вычислительных мощностей.
Источник изображения: Amazon За предыдущие годы, как отмечает CNBC, компания Amazon (AWS) уже вложила в Anthropic около $8 млрд, но теперь готова направить на нужды стартапа ещё $25 млрд. На оплату услуг AWS американский стартап готов потратить более $100 млрд в ближайшие десять лет, в том числе используя процессоры Trainium разработки Amazon в профильной вычислительной инфраструктуре. В ближайшее время Anthropic получит от Amazon первые $5 млрд, а последующие $20 млрд будут инвестированы поэтапно, в зависимости от достижения обозначенных партнёрами промежуточных целей. Уже к концу этого года в распоряжении Anthropic окажется дополнительный 1 ГВт вычислительной мощности на базе процессоров Trainium2 и Trainium3. Всего в этом году Amazon направит на капитальные расходы почти $200 млрд, в основном они будут использованы для строительства инфраструктуры ИИ. Пару месяцев назад Amazon согласилась направить на нужды OpenAI около $50 млрд, поэтому Anthropic является не единственным ИИ-стартапом, который может претендовать на поддержку Amazon. Сделка с последней позволит Anthropic быстрее наращивать вычислительные мощности, используемые в работе с Claude. Хотя AWS остаётся главным облачным провайдером Anthropic, у стартапа также имеются профильные контракты с Microsoft и Google. Первая согласилась в ноябре прошлого года вложить в Anthropic до $5 млрд, а разработчики Claude взяли на себя обязательства арендовать вычислительные мощности Azure на общую сумму $30 млрд. В этом месяце Anthropic договорилась с Google и Broadcom об использовании нескольких гигаватт вычислительных мощностей. АНБ США продолжает использовать Anthropic Mythos, несмотря на запрет
20.04.2026 [10:11],
Алексей Разин
Пока правительство США пытается определиться, можно ли дальше использовать разработки компании Anthropic в условиях объявления её источником риска для национальной безопасности, отдельные ведомства продолжают работать с ИИ-моделями этого разработчика, и Агентство национальной безопасности (АНБ) является одной из таких «непокорных» правительственных структур.
Источник изображения: Anthropic Как сообщило издание Axios, Агентство национальной безопасности США использует одну из самых производительных ИИ-моделей Anthropic — Mythos Preview, хотя прекрасно осознаёт, что курирующее работу ведомства Министерство обороны США неодобрительно относится к такой практике. Складывается, по словам источника, парадоксальная ситуация: с одной стороны, американские военные расширяют использование продуктов Anthropic, а с другой — пытаются в суде доказать, что они представляют угрозу для национальной безопасности Соединённых Штатов. Минимум два источника подтвердили Axios, что внутри АНБ модель Mythos для поиска уязвимостей в программном обеспечении не только используется, но и в определённом смысле набирает популярность. Обычно данный инструмент используется при аудите собственной программной инфраструктуры на предмет поиска слабых мест. Сама Anthropic ограничила круг доступа к Mythos примерно 40 организациями, которые могут применять ИИ-модель ответственно и безопасно. Из этих организаций названы были лишь 12, поэтому АНБ может попасть в оставшуюся часть выборки. Некоторые из них находятся за пределами США — в частности, в Великобритании. Важность данного программного инструмента подчёркивается и тем фактом, что глава Anthropic Дарио Амодеи (Dario Amodei) отправился в пятницу на встречу с высокопоставленными американскими чиновниками, и темой переговоров стало именно использование Mythos правительственными структурами. Предполагается, что по итогам встречи должен быть определён порядок предоставления доступа к Mythos прочим организациям, помимо Пентагона. ИИ-модель Mythos заставила власти США пойти на контакт с «угрожающей национальной безопасности» Anthropic
19.04.2026 [18:53],
Дмитрий Федоров
Глава Anthropic встретится с руководителем аппарата Белого дома на фоне опасений, связанных с новой ИИ-моделью Mythos, способной выявлять уязвимости в программном коде. По данным Anthropic, эта модель уже обнаружила тысячи брешей во всех основных операционных системах (ОС) и браузерах, и теперь её возможности изучают чиновники из окружения президента США.
Источник изображения: anthropic.com Встреча Дарио Амодеи (Dario Amodei) с руководителем аппарата Белого дома Сьюзи Уайлс (Susie Wiles) происходит в условиях острого противоречия: администрация одновременно пытается занести Anthropic в «чёрный список» и вынуждена взаимодействовать с ней по вопросам кибербезопасности. Чиновники Белого дома и Национального института стандартов и технологий (NIST) анализируют последствия запуска Mythos и рассматривают расширение доступа к модели для федеральных ведомств — следует из внутренней переписки, полученной The Washington Post. Особую обеспокоенность испытывают Уайлс, вице-президент Джей Ди Вэнс (JD Vance) и министр финансов Скотт Бессент (Scott Bessent), рассказал источник, знакомый с ходом переговоров. Anthropic не стала публично выпускать ИИ-модель и создала коалицию крупных технологических корпораций для оценки рисков в рамках инициативы Project Glasswing. Государственные органы по кибербезопасности компания уведомила заранее. «Учитывая темпы развития ИИ, пройдёт немного времени, прежде чем подобные возможности распространятся — возможно, среди тех, кто не намерен применять их ответственно, — говорится в официальном заявлении компании. — Последствия для экономики, общественной безопасности и национальной безопасности могут оказаться серьёзными». OpenAI тем временем завершает разработку собственного ИИ следующего поколения под кодовым названием Spud. Федеральные ведомства среагировали быстро. Бессент и глава Федеральной резервной системы Джером Пауэлл (Jerome Powell) собрали в Вашингтоне руководителей крупнейших банков, призвав их серьёзно отнестись к угрозам. «Я уверен, что все теперь гребут в одном направлении — создают устойчивость», — заявил Бессент в интервью CNBC в среду. Anthropic стала первой крупной ИИ-компанией, получившей допуск к засекреченным системам федеральных ведомств. Отношения дали трещину, когда Пентагон потребовал права применять Claude в любых законных целях, включая управление автономным оружием и массовую слежку. Амодеи ответил отказом, но позже встретился с министром войны Питом Хегсетом (Pete Hegseth), однако переговоры зашли в тупик в конце февраля. Суд Сан-Франциско признал внесение компании в «чёрный список» незаконным, однако апелляционный суд в Вашингтоне вынес предварительное решение, сохранив запрет в силе. Несмотря на официальный разрыв с Пентагоном, Claude остался интегрирован в военные системы, поэтому в ту же ночь, когда администрация объявила о прекращении сотрудничества, ИИ-модель использовалась для поддержки авиационных ударов по Ирану. Чтобы восстановить отношения с Белым домом, в марте Anthropic наняла лоббиста Брайана Балларда (Brian Ballard), имеющего тесные связи с командой президента, потратив на это $130 000. Глава Anthropic предрёк исчезновение инженерных профессий — и открыл 429 вакансий с зарплатой до $405 000 в год
19.04.2026 [06:22],
Дмитрий Федоров
Глава Anthropic Дарио Амодеи (Dario Amodei) предупреждает об исчезновении инженерных профессий по мере того, как ИИ берёт на себя написание кода, — и одновременно открывает около 429 вакансий для разработчиков с зарплатой до $405 000. Противоречие обнажает переходный момент: ИИ меняет характер инженерного труда, но заместить специалистов полностью пока не может.
Источник изображений: anthropic.com На протяжении нескольких месяцев Амодеи последовательно предупреждает, что начальные инженерные позиции окажутся под ударом первыми — рутинным кодингом уже занимаются ИИ-системы. «Думаю, что написание кода исчезнет первым — или, точнее, им первым займутся ИИ-модели», — сказал он в ходе одной из недавних дискуссий, разграничив собственно кодинг и более широкий круг инженерных обязанностей. По его прогнозу, уже через 12 месяцев ИИ будет писать фактически весь код, а в обозримом будущем доля машинного кода во многих компаниях достигнет 90 %. Внутри самой Anthropic трансформация идёт уже сейчас. Часть руководителей инженерных команд перестала писать код самостоятельно и переключилась на проверку и доработку того, что для них генерирует ИИ. Один из внутренних инструментов в компании собрали менее чем за 2 недели преимущественно на машинном коде — прежде такие задачи занимали значительно больше времени. Амодеи не исключает, что со временем потребность в инженерах снизится и внутри самой компании: «В будущем нам самим потребуется меньше разработчиков, чем сегодня». ![]() Тем не менее, страница вакансий Anthropic насчитывает около 429 открытых позиций в разработке — инженер-исследователь, full-stack-разработчик, инженер по производительности, руководитель инженерного направления — с вилкой от $320 000 до $405 000 в год. Разрыв между прогнозом и кадровой практикой объясняется хронологией: ИИ снижает потребность в рутинном кодинге, однако разработка и совершенствование самих ИИ-систем требует глубокой технической экспертизы, которую компании вроде Anthropic продолжают наращивать. Амодеи признаёт, что даже при широкой автоматизации кодинга инженеры сохранят ключевую роль: формулировать условия задачи, принимать архитектурные решения, обеспечивать совместимость с существующим кодом и отвечать за безопасность. Параллельно, по его словам, возникнут новые специализации — в частности, «специалист по внедрению информационных систем» (англ. — forward deployed engineer): специалист, сочетающий технические компетенции с пониманием потребностей клиентов и помогающий внедрять ИИ-решения на практике. Открытым остаётся вопрос, что произойдёт, если ИИ научится управлять и этими задачами. Anthropic выпустила Claude Design — дизайнерский ИИ для тех, кто в дизайне ничего не понимает
17.04.2026 [20:22],
Николай Хижняк
Компания Anthropic объявила о запуске Claude Design — нового экспериментального инструмента визуального дизайна, который позволяет создавать визуальные материалы, такие как прототипы, слайды, одностраничные макеты и многое другое, с помощью ИИ Claude.
Источник изображений: Anthropic По словам разработчиков, Claude Design призван помочь основателям стартапов и менеджерам продуктов, не имеющим опыта в дизайне, проще делиться своими идеями. С помощью Claude Design пользователи описывают, что им нужно, а Claude создаёт первоначальную версию дизайна. Затем пользователи могут дорабатывать визуальные материалы, внося правки самостоятельно или отправляя запросы ИИ. Например, можно попросить Claude «создать прототип приложения для безмятежной мобильной медитации. Оно должно быть с успокаивающей типографикой, неброскими природными мотивами в оформлении и лаконичным макетом». Затем можно попросить ИИ изменить цвета, размер шрифта или добавить переключатель тёмного режима. Может показаться, что Claude Design создан для конкуренции с популярным приложением для дизайна Canva, которое недавно расширило свои возможности в области искусственного интеллекта. Однако в разговоре с TechCrunch представители Anthropic сообщили, что их новый продукт призван дополнить Canva, а не заменить его. По их словам, Claude Design создан для тех, кто не изучал программное обеспечение для дизайна, а также для тех, кому нужно быстро воплотить свою идею в визуальном оформлении. После создания презентации или прототипа, их можно экспортировать в формате PDF, по URL-адресу, в виде файлов PPTX или отправить в Canva. По словам Anthropic, в Canva эти файлы можно редактировать, а также совместно дорабатывать. ![]() Claude Design может имитировать общий стиль проекта, чтобы результаты, сгенерированные ИИ, соответствовали общему визуальному стилю компании. По словам представителей Anthropic, Claude Design делает это, анализируя кодовую базу и файлы дизайна компании. Кроме того, команды могут дорабатывать эти компоненты и использовать несколько дизайн-систем. Новый продукт создан на базе Claude Opus 4.7 и доступен в режиме исследовательской предварительной версии для подписчиков Claude Pro, Max, Team и Enterprise. Как отмечает портал TechCrunch, запуск Claude Design говорит о том, что Anthropic хочет выйти на корпоративный рынок и рынок профессиональных пользователей на фоне растущей конкуренции в сфере инструментов для работы с искусственным интеллектом. В январе Anthropic представила Claude Cowork — агентного ИИ-помощника для решения сложных задач. Спустя несколько недель после этого компания представила в Cowork агентские плагины, предназначенные для автоматизации специализированных задач в различных подразделениях компании. |