Сегодня 27 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → пентагон
Быстрый переход

Anthropic: у нас нет «рубильника» от ИИ-моделей Claude в секретных системах Пентагона

Anthropic заявила, что после развёртывания ИИ-моделей Claude в секретных системах Пентагона у компании нет ни доступа к ним, ни технической возможности их отключить, изменить или повлиять на их работу. Этот довод прямо опровергает центральный тезис военного министра Питера Хегсета (Peter Hegseth), обосновавшего присвоение Anthropic статуса угрозы для цепочки поставок.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

В 60-страничной жалобе (дело № 26-1049), поданной Anthropic в Апелляционный суд округа Колумбия, подробно описывается архитектура развёртывания Claude в закрытых контурах Пентагона. Развёрнутая ИИ-модель статична: она не деградирует и не меняется сама по себе, Anthropic не может отправить в неё обновление, внедрить уязвимость или дистанционно отключить её. У компании нет «рубильника», нет бэкдора, нет удалённого доступа, а инженеры Anthropic не могут войти в систему Министерства войны США (DOW), чтобы изменить работающую модель. До развёртывания правительство самостоятельно тестирует каждую ИИ-модель и проводит многоуровневую оценку её поведения. Если инженеры Anthropic с допуском к секретным данным всё же получают доступ к развёрнутой модели, то исключительно по решению ведомства и под его жесточайшим контролем.

Этот технический факт подрывает главный аргумент министра Хегсета. В обосновании статуса угрозы, подготовленном заместителем министра по исследованиям и разработкам Эмилом Майклом (Emil Michael), утверждалось, что Anthropic стремится получить «операционное вето» над военными операциями и может «тайно изменить» Claude или «отключить свою технологию» прямо в ходе боевых действий. Anthropic называет эти утверждения необоснованными, потому что физически не может сделать ничего из перечисленного.

Конфликт вырос из спора о двух пунктах политики допустимого использования Claude. Anthropic готова была расширить перечень разрешённых военных применений ИИ-модели, однако отказалась снять два ограничения: запрет на применение Claude для летального автономного оружия и для массовой слежки за американскими гражданами. Компания объяснила, что Claude недостаточно надёжен для подобных задач. Ошибка ИИ в автономном боевом решении грозит гибелью военнослужащих или мирных жителей, а существующая правовая база не учитывает масштаб обработки данных, доступный ИИ-системам.

Пентагон, прежде принимавший эти ограничения, в сентябре 2025 года впервые потребовал разрешить «все законные применения» Claude. Переговоры длились несколько месяцев. 24 февраля 2026 года Хегсет на личной встрече с гендиректором и сооснователем Anthropic Дарио Амодеи (Dario Amodei) назвал возможности Claude выдающимися и сказал, что хотел бы работать с компанией, но тут же выдвинул ультиматум: если к 27 февраля Anthropic не согласится, ведомство присвоит ей статус угрозы для цепочки поставок.

Амодеи публично ответил 26 февраля: решения о военных операциях принимает Пентагон, а не частные компании, но Anthropic «не может по совести» принять условия министра. Anthropic указывает на прямое противоречие в действиях министра: нельзя одновременно объявлять компанию угрозой национальной безопасности и требовать, чтобы её технология оставалась в боевых системах ещё полгода. Кроме того, переговоры с Пентагоном продолжались даже после официального присвоения статуса.

Статус угрозы распространяется на все продукты и услуги Anthropic, на все виды контрактов с Пентагоном, как прямых, так и субподрядных. DOW расторгло двухлетнее соглашение с Anthropic стоимостью до $200 млн. Меморандум от 6 марта обязал все подразделения ведомства прекратить использование продукции Anthropic и исключить компанию из списков одобренных поставщиков в течение 180 дней.

Апелляционный суд округа Колумбия отказал Anthropic в приостановке действия статуса угрозы, но назначил ускоренное рассмотрение дела по существу, признав, что «Anthropic выдвигает серьёзные доводы и, вероятно, понесёт непоправимый ущерб в ходе разбирательства». Новые слушания назначены на 19 мая 2026 года. Параллельно судья Северного округа Калифорнии вынес предварительный судебный запрет по смежному делу, в котором оспаривается присвоение статуса угрозы. В итоге Anthropic не может заключать новые контракты с Пентагоном, но продолжает работать с другими федеральными ведомствами.

Ни одна организация или частное лицо не подали в суд заключения в поддержку Пентагона. На стороне Anthropic подали заключения десятки организаций и частных лиц — от Американского союза защиты гражданских свобод (ACLU) и Electronic Frontier Foundation (EFF) до 149 бывших судей, отставных старших офицеров вооружённых сил и Американской федерации учителей (AFT).

Anthropic оставили в «чёрном списке» — Пентагон выиграл апелляцию

В конце февраля Министерство войны США внесло Anthropic в перечень неблагонадёжных поставщиков и приняло решение отказаться от услуг компании по использованию ИИ в военных операциях. Если в конце марта окружной суд поддержал Anthropic, признав включение компании в такой список незаконным, то апелляционный суд соответствующей инстанции на днях поддержал позицию Пентагона. Таким образом, условий для победы Anthropic в данном противостоянии пока не создано.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Федеральный апелляционный суд в Вашингтоне, как отмечает Bloomberg, на этой неделе отверг требования Anthropic о приостановке отнесения компании к перечню неблагонадёжных поставщиков. Следующее заседание апелляционного суда, на котором будут выслушаны аргументы сторон, намечено на 19 мая, и по меркам судебной системы это весьма сжатые сроки рассмотрения. Суд подчёркивает, что намерен не затягивать с рассмотрением дела, поскольку Anthropic может понести непоправимый ущерб, и действовать нужно быстро. Anthropic подобный подход суда к рассмотрению дела оценила одобрительно.

Текущий вердикт апелляционного суда оставляет в силе решение Пентагона о внесении Anthropic в число неблагонадёжных поставщиков и позволяет властям США расторгнуть все контракты с компанией, причинив ей потенциальный ущерб на несколько миллиардов долларов. Как сообщается в решении коллегии из трёх судей, «на одной чаше весов находится ограниченный финансовый ущерб единственной частной компании, а на другой — вопрос использования важной ИИ-технологии в активной фазе военного конфликта». По мнению коллегии суда, «баланс справедливости» в данной ситуации смещается в сторону правительства США.

В текущей ситуации Anthropic теряет возможность работать с Министерством войны США, но сохраняет право обслуживать другие правительственные структуры, пока в деле не поставлена точка. Подрядчики Пентагона не смогут использовать тот же Claude в рамках исполнения контрактов с данным ведомством, но им никто не запрещает применять чат-бот для других целей.

Действующий генеральный прокурор США Тодд Бланш (Todd Blanche) поддержал решение апелляционного суда, подчеркнув, что «операционный контроль и военная власть принадлежат Верховному главнокомандующему и Министерству Войны, а не технологической компании».

Рано расслабляться: Anthropic предстоит пройти ещё один суд, чтобы отвергнуть претензии Пентагона окончательно

На прошлой неделе Федеральный суд в штате Калифорния встал на сторону Anthropic в споре с Министерством войны США, обязав последнее исключить компанию из перечня неблагонадёжных поставщиков. Эксперты, опрошенные Politico, при этом отмечают, что праздновать победу преждевременно, ведь правоту Anthropic должен поддержать и суд высшей инстанции.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Как подчёркивается источником, Апелляционному суду США по округу Колумбия коллегией из трёх судей предстоит вынести отдельное решение по делу о противостоянии Anthropic и Пентагона, и только после этого можно будет считать, что стартап был включён в перечень неблагонадёжных поставщиков незаконно, и это решение необходимо будет отменить. Для партнёров и клиентов Anthropic текущее состояние контрактов с Пентагоном не даёт той определённости, которая позволила бы продолжать работу.

В материалах калифорнийского суда отмечается, что прямой контракт Anthropic с Пентагоном мог бы принести компании $200 млн, а ещё три подрядчика военного ведомства США отказались от сотрудничества со стартапом либо по собственной воле, либо по требованию Пентагона. Ещё три сделки с Anthropic на сумму более $180 млн развалились, хотя были почти заключены до появления претензий со стороны Пентагона.

Исход судебного заседания в Вашингтоне, сроки которого пока даже не определены, не вполне предсказуем, по данным Politico. С одной стороны, победа Anthropic в Калифорнии позволяет суду высшей инстанции опираться на те же доводы и принять сторону стартапа. С другой стороны, в состав коллегии Апелляционного суда по округу Колумбия входят два судьи, назначенных непосредственно Дональдом Трампом (Donald Trump) — это Грегори Кацас (Gregory Katsas) и Неоми Рао (Neomi Rao). Теоретически, они могут настоять на сохранении приоритета интересов национальной безопасности в споре с Anthropic, даже если доводы Пентагона будут не слишком убедительными. Если заседание суда состоится через несколько месяцев, то бизнес Anthropic за это время может серьёзно пострадать. Без окончательного вердикта в пользу компании у правительственных клиентов Anthropic и их подрядчиков не будет уверенности в возможности продолжать с ней сотрудничество.

Пентагон проиграл дело против Anthropic — суд отменил внесение в «чёрный список»

Ещё вчера стало понятно, что федеральный судья Рита Лин (Rita Lin) в целом согласна с доводами Anthropic о незаконности включения этой компании в перечень неблагонадёжных поставщиков Пентагона. По итогам судебного заседания она признала отнесение Anthropic к их числу неправомерным, обязав американское ведомство снять санкции с компании через семь дней. Это время даётся Министерству войны США для подачи апелляции, если подобная возможность им рассматривается.

 Источник изображения: Unsplash, Wesley Tingey

Источник изображения: Unsplash, Wesley Tingey

Anthropic в своём иске утверждала, что отнесение её к числу неблагонадёжных поставщиков в США нарушает Первую поправку к Конституции США, которая даёт право гражданам и организациям на свободу речи и волеизъявления. Пятая поправка тоже была нарушена, по мнению представителей Anthropic, поскольку компании не предоставили права на обжалование решения Пентагона в предусмотренном законе порядке. В своём 43-страничном решении федеральная судья Рита Лин выразила согласие с основными доводами истца, удовлетворив просьбу о блокировке решения Пентагона по включению Anthropic в перечень неблагонадёжных поставщиков. На обжалование решения суда Пентагону отводится семь дней, после чего оно вступит в законную силу.

В решении суда отмечается, что действия ведомства имели своей целью наказание Anthropic, а не обеспечение перечисленных интересов в сфере национальной безопасности, которыми мотивировалось отнесение компании к числу неблагонадёжных поставщиков. Судья согласилась с доводом Anthropic о наличии в действиях Пентагона признаков нарушения Первой поправки к Конституции США.

Пентагон в своих документах по этому делу настаивал, что отказ Anthropic в снятии ограничений на использование ИИ в военных целях вызывает неопределённость в части применения этих технологий и формирует риск злонамеренного отключения военных систем в ходе операций. Как отмечал ответчик, включение Anthropic в «чёрный список» было обусловлено не стремлением компании отстаивать свои взгляды на безопасность применения ИИ, а отказом от исполнения контрактных обязательств с военным ведомством. Anthropic ещё предстоит в отдельном судебном разбирательстве отстоять своё право поставлять технологии ИИ прочим правительственным клиентам в США.

Американский судья усмотрела в действиях Пентагона желание наказать Anthropic за её позицию

Тот факт, то Пентагон внёс компанию Anthropic в список угроз нацбезопасности в цепочке поставок, можно интерпретировать как попытку ведомства наказать разработчика систем искусственного интеллекта за публичное выражение опасений по поводу безопасности этих систем в военном деле.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

В иске, который Anthropic подала в федеральный суд Калифорнии, утверждается, что глава министерства обороны Пит Хегсет (Pete Hegseth) превысил свои полномочия, когда присвоил компании статус угрозы нацбезопасности в цепочке поставок. Этот статус присваивается компаниям, подвергающим военные системы угрозе проникновения или саботажа со стороны неприятеля. «Похоже, что министерство обороны наказывает Anthropic за попытку привлечь внимание общественности к этому спору по поводу контракта», — заявила окружной судья Рита Лин (Rita Lin). Anthropic запросила у суда временный запрет на применение санкций до завершения судебного разбирательства; судья Лин в конце заседания пообещала вынести письменное решение в ближайшие дни.

Anthropic отказалась разрешить Пентагону использовать её модели ИИ для массового наблюдения за гражданами США и для создания оружия, в котором ИИ принимает решение о ликвидации человека. Из-за нового статуса компания только в этом году, по её оценкам, может потерять несколько миллиардов долларов, — скажутся ущерб бизнесу и репутации. Такая мера не применялась к американским компаниям ни разу; основанием для неё послужил малоизвестный закон о госзакупках, направленный на защиту военных систем от иностранного саботажа. Действия властей Anthropic расценила как нарушение её права на свободу слова, и компании не дали возможности оспорить присвоение статуса — в обоих случаях, по её мнению, была нарушена Конституция США.

Пентагон применяет заведомо неверное толкование закона о госзакупках для того, чтобы наказать Anthropic за её переговорную позицию, считает адвокат компании. Выступающий от имени властей представитель американского минюста возразил: «А что будет, если Anthropic через обновление установит „аварийный выключатель“ или добавит возможности, которые позволят ей изменять работу системы, когда она больше всего окажется нужна нашим военнослужащим? Такой риск неприемлем». Anthropic подала ещё один иск в столице США Вашингтоне по поводу другого решения Пентагона, из-за которого компанию могут исключить из числа участников госконтрактов.

Пентагон принял боевую ИИ-систему Palantir Maven в качестве основной для армии США

Скандал с исключением Anthropic из числа благонадёжных поставщиков ИИ-решений с точки зрения Пентагона привлёк внимание общественности к деятельности американского военного ведомства по интеграции технологий искусственного интеллекта в свои операции. Новая памятка, полученная сотрудниками этого ведомства, гласит о выборе системы Maven компании Palantir в качестве основной для Пентагона.

 Источник изображения: Palantir

Источник изображения: Palantir

При этом сама по себе ИИ-система Maven не является новой для Министерства войны США, просто теперь она будет использоваться в качестве базовой для построения всех прочих решений в сфере искусственного интеллекта, связанных с ведением боевых действий и разведывательной деятельностью. В своём письме сотрудникам Пентагона от 9 марта заместитель министра обороны США Стив Файнберг (Steve Feinberg) подтвердил выбор Maven в качестве основной ИИ-системы в инфраструктуре военного ведомства США. На документальном уровне данный выбор будет окончательно закреплён к сентябрю текущего года, когда завершится очередной фискальный год.

Maven является ИИ-системой для боевого применения, которая позволяет обнаруживать цели на поле боя путём анализа поступающей разведывательной информации сразу по нескольким каналам. Только за время текущей операции США в Иране данная система позволила выбрать цели и нанести тысячи ударов по ним. Утверждение Maven в качестве главной системы такого типа позволит американским военным стандартизировать её применение во всех подразделениях и обеспечит Palantir долгосрочными оборонными контрактами. До сих пор эти контракты курировало Национальное агентство геопространственной разведки США, но в результате принятых решений они перейдут под контроль верховного командования американской армии.

Только один контракт Palantir с американскими военными прошлым летом принёс компании $10 млрд, а в целом их было заключено несколько штук. Капитализация этого оборонного подрядчика оценивается в $360 млрд. Система Maven обучена в автоматическом режиме обнаруживать цели на поле боя, идентифицировать возможные укрытия и склады боеприпасов и горючего. На решение соответствующих задач привычными методами ранее уходили часы. Palantir подчёркивает, что конечное решение о применении оружия делает человек, а система Maven только определяет цели. Разработка системы ведётся с 2017 года, первый контракт с Пентагоном был заключён компанией Palantir в 2024 году, принеся ей $480 млн. В мае прошлого года потолок финансирования был увеличен до $1,3 млрд. Примечательно, что сама Palantir использует для работы своих систем ИИ-решения Anthropic, от которых теперь придётся избавляться, если соответствующий запрет не будет снят.

Подрядчики Пентагона и его сотрудники не спешат отказываться от использования Anthropic

Три недели назад противоречия между Anthropic и руководством Пентагона привели к тому, что профильное программное обеспечение было запрещено к использованию в деятельности не только самого Министерства войны США, но и его подрядчиков в оборонной сфере. При этом фактически пользователи Anthropic в этой сфере не торопятся от него отказываться.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Напомним, руководство Anthropic выразило озабоченность по поводу возможности использования разработанных компанией систем для тотальной слежки за гражданами США и применения оружия в автоматическом режиме, это вызвало недовольство представителей американского военного ведомства, в результате контракт на использование чат-бота Claude в военной инфраструктуре США был расторгнут, а сама Anthropic была отнесена к числу неблагонадёжных поставщиков. Военному ведомству США и части его подрядчиков теперь предстоит перевести свои ИИ-системы на альтернативные платформы в течение шести месяцев. OpenAI уже подписала контракт с Пентагоном и надеется стать таким «заменителем».

Как поясняет Reuters, на деле отказываться от использования инструментов Anthropic не торопятся не только подрядчики Пентагона, но и его сотрудники. Во-первых, на их использование завязаны многие процессы, прерывать которые в условиях высокой военной активности США просто не представляется возможным. Во-вторых, пользователи считают решения Anthropic более удобными или эффективными по сравнению с доступными альтернативами. Специалисты Пентагона в сфере информационных технологий директивой по отказу от Anthropic недовольны по той причине, что только недавно научились использовать профильные системы в комфортном для себя режиме, а теперь их заставляют всё разрушить. Многие считают Claude самым совершенным на данный момент чат-ботом.

Один из подрядчиков Пентагона добавил, что повторная сертификация систем на новой платформе потребует многих месяцев, а в худшем случае — до полутора лет. Кроме того, переход на новую платформу потребует от Пентагона новых крупных затрат. Наконец, на функциональных процессах Министерства войны США подобная миграция также негативно скажется. Контракт Anthropic с американским военным ведомством на сумму $200 млн был заключён в июле прошлого года, Claude удалось интегрировать в ведомственные системы, управляющие секретными операциями, глубина этой интеграции по состоянию на конец февраля была очень большой. В ходе иранской операции американские военные продолжают использовать разработки Anthropic даже в условиях запрета.

Некоторые сотрудники Пентагона всё же вынуждены подчиняться запрету на использование инструментов Anthropic. В отдельных случаях от успешной автоматизации обработки данных приходится возвращаться к ручной работе с тем же Excel, например. Для написания программного кода в Пентагоне Claude Code также активно использовался в последние месяцы. Известная в определённых кругах компания Palantir, являющаяся крупным подрядчиком Пентагона, использует решения Anthropic в контрактах с ведомством на общую сумму более $1 млрд. Перестройка инфраструктуры под другое ПО потребует не только времени, но и серьёзных финансовых затрат. В некоторых случаях решения Anthropic используются для формирования потоков данных, которые требуются Пентагону буквально на ежеминутной основе, и отказаться от этого ПО крайне сложно.

Некоторые подрядчики ведомства задумались о том, чтобы при отказе от использования решений Anthropic оставить возможность быстрого возврата к ним. В этом случае представители отрасли надеются, что Пентагон отменит свой запрет до истечения шестимесячного срока, отведённого для миграции.

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Министерство обороны США заявило, что компания Anthropic представляет «неприемлемый риск национальной безопасности». Это первое официальное заявление ведомства в ответ на иски ИИ-разработчика, пытающегося оспорить решение министра обороны Пита Хегсета (Pete Hegseth) о присвоении Anthropic статуса компании, представляющей риски для цепочки поставок. Компания просит суд приостановить исполнение этого решения Минобороны до окончания разбирательства.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Суть аргументации Минобороны, изложенной в 40-страничном заявлении, поданном в федеральный суд Калифорнии, заключается в опасении, что Anthropic может «попытаться отключить свои технологии или упреждающе изменить поведение своих ИИ-моделей» до или во время «боевых операций», если компания «почувствует, что её корпоративные „красные линии“ могут быть пересечены».

Минувшим летом Anthropic подписала с Пентагоном соглашение на $200 млн на развёртывание своих алгоритмов в закрытых системах. В ходе последующих переговоров об изменении условий контракта компания выразила несогласие с тем, чтобы её ИИ-алгоритмы использовались для массовой слежки за американцами, а также заявила, что технология ещё не готова к применению в системах наведения или принятия решений о применении летального оружия. Пентагон в ответ заявил, что частная компания не может диктовать военным условия использования технологий. Некоторые компании выступили против действий Минобороны: OpenAI, Google, Microsoft и их сотрудники, а также правозащитные организации обратились в суд с поддержкой Anthropic.

Сама Anthropic подала в суд несколько исков, в которых обвинила Минобороны в нарушении прав компании, гарантированных Первой поправкой к Конституции США. ИИ-разработчик также обвинил военных в несправедливом наказании компании по идеологическим мотивам. Слушания по этому делу о вынесении предварительного судебного запрета пройдут на следующей неделе.

У американских законодателей возникли вопросы к OpenAI из-за сделки с Пентагоном

Спешно заключённая OpenAI сделка с Министерством войны США, как признался глава компании Сэм Альтман (Sam Altman), потребовала доработки некоторых пунктов контракта, но публично он выражал лояльность идее использования ИИ в военных целях. При этом даже у американских конгрессменов возникли вопросы к руководителю OpenAI на данную тему.

 Источник изображения: Unsplash, Ma Ti

В четверг на этой неделе, как отмечает CNBC, генеральный директор OpenAI Сэм Альтман встретился с группой американских конгрессменов в Вашингтоне. Сенатор Марк Келли (Mark Kelly), например, заявил о наличии у него «серьёзных вопросов» по поводу подходов OpenAI к использованию технологий компании в боевых действиях и самой сделке с Пентагоном в целом. В своём интервью каналу CNBC сенатор Келли признался, что группа его коллег в подробностях обсудила с Альтманом подходы к слежению за гражданами и использованию ИИ в боевых условиях. Разговор сенатор назвал «хорошей дискуссией».

«Должны быть определённые ограничения, и мы должны быть уверены, что всё время думаем о Конституции и обеспечиваем соблюдение её основных положений», — подчеркнул сенатор. Напомним, что сделка американского военного ведомства с конкурирующей Anthropic развалилась после того, как руководство этой компании потребовало исключить использование её разработок при массовом слежении за американскими гражданами и применении систем вооружений без согласия человека. Конфликт между сторонами сделки привёл к тому, что Anthropic оказалась включена в перечень неблагонадёжных поставщиков, а подрядчикам Пентагона было запрещено использовать её разработки. На поиск альтернативы у самого ведомства и его подрядчиков остаётся шесть месяцев, но применять ИИ-модели Anthropic им запрещается уже сейчас.

Примечательно, что глава OpenAI Сэм Альтман именно упоминаемые выше ограничения включил в текст контракта с Пентагоном, и конфликт ведомства с Anthropic стал носить характер «наказания непокорного», а не последствия реальных противоречий. Хотя Альтман и выразил несогласие с отнесением Anthropic к числу неблагонадёжных поставщиков, он подчеркнул, что «именно правительство должно решать, как именно будут работать самые важные вещи в стране». Сенатор Келли заявил, что группа парламентариев работает над законопроектом, определяющим характер взаимоотношений Министерства войны США с разработчиками ИИ, и что должно существовать законодательство, определяющее некоторые границы применения таких технологий. Конгрессмен посетовал, что в парламенте США вопросы рассматриваются не так быстро, как развиваются новые технологии.

Microsoft первой среди крупных компаний встала на сторону Anthropic в её тяжбе с Пентагоном

Microsoft стала первой крупной технологической компанией, вставшей на сторону Anthropic в её споре с Пентагоном по поводу условий военного использования её ИИ-моделей. Она призвала суд к временному запрету на исполнение решения Министерства обороны США о признании Anthropic фактором риска для цепочки поставок, пока рассматривается дело по иску стартапа.

 Источник изображения: Wesley Tingey/unsplash.com

Источник изображения: Wesley Tingey/unsplash.com

Microsoft предупредила, что «радикальные» и «беспрецедентные» шаги против Anthropic будут иметь «широкие негативные последствия» для американской технологической индустрии.

После отказа стартапа предоставить Пентагону право использования своей модели Claude без каких-либо ограничений, военное ведомство включило его в чёрный список поставщиков, представляющих риск для цепочки поставок. Также администрация президента США потребовала, чтобы все федеральные агентства прекратили использование чат-бота Claude.

После этого Anthropic подала в суд на администрацию Дональда Трампа (Donald Trump), назвав действия правительства «беспрецедентными и незаконными» и отметив, что они «наносят Anthropic непоправимый ущерб», ставя под угрозу контракты на сотни миллионов долларов.

Microsoft заявила, что её «позиция заключается в том, что ИИ должен быть сосредоточен на законных и надлежащим образом защищённых вариантах использования». ИИ, по её словам, «не должен использоваться для проведения внутреннего массового наблюдения или для того, чтобы поставить страну в положение, когда автономные машины могут самостоятельно начать войну».

Microsoft утверждает, что временный запрет необходим для предотвращения дорогостоящих сбоев для поставщиков, которым в противном случае пришлось бы быстро перестраивать свои продукты, зависящие от продукции Anthropic.

В то время как Пентагон отвёл себе шесть месяцев на поэтапное прекращение использования технологий Anthropic, он не предоставил такой же переходный период для подрядчиков, использующих продукцию или услуги Anthropic для выполнения работ в рамках Министерства обороны, сообщила Microsoft. IT-гигант добавил, что временный запретительный приказ позволит выработать решение путём переговоров, одновременно защищая доступ военных к передовым технологиям и гарантируя, что ИИ не будет использоваться для массового наблюдения за гражданами или для проведения военных действий без участия человека. Это «обеспечит более упорядоченный переход и позволит избежать сбоев в продолжающемся использовании передового ИИ американскими военными», отметила компания.

Свои выводы Microsoft указала в поданном в окружной суд США в Сан-Франциско заключении Amicus Curiae. Такие документы подаются сторонами, которые не указаны в деле, но обладают соответствующей экспертизой, или на которых может повлиять исход рассматриваемого дела.

Google обеспечит Пентагон ИИ-агентами на базе Gemini

Google начала внедрение ИИ-агентов на базе большой языковой модели Gemini для более чем 3 млн гражданских и военных сотрудников Министерства обороны США. На начальном этапе ИИ-агенты будут работать в незащищённых сетях, но уже ведутся переговоры о расширении доступа к сетям, внутри которых ведётся работа с секретными документами. Об этом заявил заместитель министра обороны по научно-исследовательским и опытно-конструкторским работам Эмиль Майкл (Emil Michael).

 Источник изображения: Getty Images, Unsplash+

Источник изображения: Getty Images, Unsplash+

В сообщении сказано, что восемь предварительно созданных ИИ-агентов будут задействованы для автоматизации таких задач, как обобщение заметок с совещаний, составление бюджетов и проверка предлагаемых действий на соответствие стратегии национальной безопасности. Вице-президент Google Джим Келли (Jim Kelly) написал в блоге, что сотрудники Министерства обороны также смогут создавать собственных ИИ-агентов, используя для этого описания на естественном языке.

Чат-ботом Google на базе искусственного интеллекта, который доступен на портале Пентагона, с декабря прошлого года воспользовались 1,2 млн сотрудников Министерства обороны в процессе работы в незащищённых сетях. За этот период они отправили 40 млн уникальных запросов и загрузили более 4 млн документов. Отмечается, что обучение персонала отстаёт от темпов внедрения: с декабря обучение работе с ИИ прошли всего 26 тыс. человек, а будущие занятия полностью забронированы. Это указывает на то, что всё больше сотрудников ведомства вовлекается в работу с ИИ.

Расширение сотрудничества Пентагона с Google происходит на фоне недавнего противостояния ведомства с компанией Anthropic, которая отказалась убрать из своих алгоритмов ограничения, запрещающие использовать их для слежки за пользователями или создания полностью автономного оружия. С тех пор Минобороны внесло Anthropic в список организаций, создающих риск для цепочек поставок, но компания намерена оспорить это решение в суде. Около 900 сотрудников Google и около 100 сотрудников OpenAI подписали открытое письмо, в котором призвали своих работодателей придерживаться аналогичных ограничений. В феврале Google без лишнего шума скорректировала свои «Принципы в области ИИ» в части именно таких вариантов использования.

Anthropic предупредила, что включение в «чёрный список» Пентагона принесёт ей многомиллиардные убытки

Клиентам и инвесторам Anthropic может говорить о последствиях своего включения в перечень неблагонадёжных поставщиков Пентагона одно, а в исковом судебном заявлении указывать совершенно иную информацию. В последнем случае она старается «нагнать жути» и заявить, что подобные санкции повлекут многомиллиардные убытки не только в текущем году, но и в последующие периоды.

 Источник изображения: Unsplash, David Veksler

Источник изображения: Unsplash, David Veksler

Агентство Reuters проанализировало текст искового заявления Anthropic, с которым компания обратилась в суд с просьбой отменить решение Пентагона о включении её в список неблагонадёжных с точки зрения национальной безопасности США поставщиков. Ситуация возникла вскоре после отказа Anthropic передать американским военным полный контроль над применением своих ИИ-моделей, включая поголовную слежку за американскими гражданами и автоматизацию применения оружия с учётом выбора целей искусственным интеллектом.

Оспаривая данное решение американского военного ведомства, Anthropic упоминает ряд значимых финансовых доводов. Одна только потеря контракта с Пентагоном лишит компанию сотен миллионов долларов США в текущем году (потери составят не менее $150 млн). По мнению руководства Anthropic, последствия включения компании в «чёрный список» окажут необратимое негативное воздействие на бизнес стартапа. Он потеряет от 50 до 100 % выручки от контрактов с подрядчиками Пентагона, а подрыв доверия инвесторов может усложнить привлечение необходимых для развития бизнеса средств. В общей сложности готовые потери Anthropic могут достичь нескольких миллиардов долларов США.

Даже за пределами оборонных контрактов скандал может повлечь для Anthropic потери, связанные с отказом клиентов сотрудничать с компанией. В период с декабря 2025 года по январь 2026 года Anthropic в четыре раза увеличила приведённый размер годовой выручки от контрактов с представителями публичного сектора экономики США, в следующие пять лет эта выручка могла бы вырасти до нескольких миллиардов долларов. Компании публичного сектора в случае утраты доверия к Anthropic со стороны клиентов могут лишить её более чем $500 млн выручки по итогам текущего года.

Anthropic успела понести прямой ущерб от действий Пентагона, как отмечается в иске. Один из партнёров стартапа, заключивший контракт с одним из американских правительственных ведомств, перешёл от использования Claude к конкурирующему решению, лишив Anthropic ожидаемой годовой выручки в размере более $100 млн. Прерваны переговоры с финансовыми учреждениями на сумму около $180 млн, один из контрактов на $15 млн был поставлен на паузу, а некая французская компания уменьшила сумму выплат Anthropic в два раза до $5 млн после действий Пентагона. В целом, компания успела получить обращения от более чем 100 корпоративных клиентов, в которых они выражали своё сомнение по поводу целесообразности дальнейшего сотрудничества с Anthropic. Все эти данные должны быть учтены судом при вынесении вердикта по делу.

Представители Google и OpenAI готовы выступить в суде в поддержку Anthropic в деле о конфликте с Пентагоном

Процессуальные процедуры традиционно растянуты во времени, но Anthropic не стала особо медлить с подачей судебного иска против Пентагона, пытаясь оспорить своё включение в список неблагонадёжных поставщиков. Поддержать позиции компании в суде готовы представители конкурирующих OpenAI и Google, но только как частные лица, обладающие определённой экспертизой в рассматриваемом споре.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Почти 40 сотрудников OpenAI и Google, включая руководителя разработки Gemini Джеффа Дина (Jeff Dean), направили в суд процессуальный документ, формально позволяющий помочь судье составить более полное представление о предмете спора между истцом и ответчиком. По мнению составителей документа, включение Anthropic в перечень неблагонадёжных поставщиков является некорректным проявлением мести, которое вредит интересам общества. Как считают подписавшие обращение к суду представители указанных компаний, обозначенные Anthropic «красные линии» реальны и требуют конкретного ответа. Даже в ответственных руках, по мнению авторов письма, инструменты тотальной слежки за гражданами представляют серьёзный риск для демократических институтов, да и создание полностью автономных систем вооружения представляет собой риск, требующий особого внимания. Авторы письма относят себя к учёным, разработчикам и инженерам, занятым в создании передовых американских систем ИИ.

По их замыслу, обращение к суду направлено не на решение проблем какой-то конкретной компании, а на представление интересов всей отрасли. Подписавшие письмо эксперты считают себя достаточно компетентными, чтобы предупреждать власти США о неприятных последствиях рассматриваемого ими применения ИИ в военных и разведывательных целях. Как поясняют авторы письма, сейчас данные о гражданах США существуют в разрозненном виде, и никто пока не объединял эти массивы с помощью ИИ для подробного анализа в масштабе реального времени. По сути, при желании американские власти могли бы составить подробное досье на сотни миллионов человек одновременно, с учётом постоянных изменений в этих данных.

В части использования ИИ для выбора целей системами вооружения, как предупреждают эксперты, опасность таится в возможности появления ошибок из-за различий между условиями обучения профильных моделей и реальной обстановкой на поле боя. Как отмечают авторы обращения, ИИ не в состоянии оценивать возможный сопутствующий ущерб при выборе тех или иных целей, как это способен сделать человек. Кроме того, склонность ИИ к «галлюцинациям» делает военное применение таких технологий ещё более опасным без контроля со стороны человека. Авторы письма резюмируют, что на текущем этапе развития технологий предлагаемые Пентагоном сферы применения ИИ представляют серьёзную опасность и требуют ограничений либо на техническом уровне, либо на административном.

Anthropic подала в суд на власти США из-за включения её в «чёрный список» Пентагона

Компания Anthropic подала иск в федеральный суд Калифорнии в связи с её включением Министерством обороны США в список поставщиков, представляющих риск для национальной безопасности США. В своем иске Anthropic назвала это решение незаконным и нарушающим её права на свободу слова и надлежащую правовую процедуру, пишет агентство Reuters.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за её защищённую законом свободу слова», — заявила Anthropic. На основании этого компания обратилась к суду с просьбой отменить решение Пентагона и запретить федеральным агентствам применять его.

На прошлой неделе Пентагон официально присвоил компании Anthropic статус представляющей риск для цепочки поставок из-за отказа предоставить военному ведомству право использования своей модели Claude без каких-либо ограничений. В частности, Министерство обороны США требовало от Anthropic отменить запрет на использование Claude для массового слежения за американскими гражданами и полностью автоматизированных систем вооружений. Как сообщило агентство Reuters, напряжённые переговоры по поводу этих ограничений между сторонами велись в течение нескольких месяцев.

В Anthropic заявили, что судебный иск не исключает возобновления переговоров с Пентагоном и достижения соглашения. Компания сообщила, что не хочет конфликтовать с правительством США. В свою очередь, представитель Пентагона неделю назад заявил, что переговоры между сторонами прекращены.

Президент Дональд Трамп (Donald Trump) поручил правительству прекратить сотрудничество с Anthropic, среди инвесторов которой Google и Amazon.com. Также сообщалось, что прекращение сотрудничества правительства с компанией займёт шесть месяцев.

Глава робототехнического направления OpenAI уволилась из компании на фоне скандала с Anthropic и Пентагоном

Ещё на прошлой неделе OpenAI вызвалась занять место взбунтовавшейся Anthropic в качестве подрядчика Пентагона, снабжающего ИИ-системами для осуществления военных операций. Не всем сотрудникам стартапа это могло понравиться, поэтому руководительница робототехнического направления OpenAI сочла нужным уйти из компании.

 Источник изображения: Caitlin Kalinowski

Источник изображения: Caitlin Kalinowski

Речь идёт о Кейтлин Калиновски (Caitlin Kalinowski), которая руководила командами разработчиков аппаратных решений и робототехники OpenAI с ноября 2024 года. Из текста её открытых обращений к коллегам на страницах социальных сетей становится понятно, что для неё уход из OpenAI был непростым решением, его мотивы не имеют ничего общего с межличностными отношениями, а обусловлены исключительно этическими принципами. Кейтлин Калиновски осознаёт, что ИИ имеет важное значение для национальной безопасности, но убеждена, что поголовная слежка за гражданами США без юридических оснований и автоматизация летальных вооружений становятся теми линиями, которые лично её побуждают выразить протест. При этом Калиновски выражает глубокое уважение к главе OpenAI Сэму Альтману (Sam Altman) и его коллегам, а также гордится их совместными достижениями. Калиновски до перехода в OpenAI принимала активное участие в разработке очков дополненной реальности Meta✴ Platforms. Перед этим она девять лет работала в подразделении Oculus, а ещё раньше помогала Apple разрабатывать дизайн ноутбуков MacBook.

Калиновски стала не единственным сотрудником OpenAI, выразившим своё недовольство ситуацией с Пентагоном и Anthropic, но при спешном заключении соглашения с американским военным ведомством в прошлую пятницу Сэм Альтман делал упор на главенство государства в вопросах применения оружия и разведки, призывая подчинённых ставить государственные интересы выше принципов частной компании. Представители OpenAI выражают надежду, что в текущей редакции соглашение с Министерством войны США чётко очерчивает те границы, которые не следует пересекать при применении ИИ. Не допускается массовая слежка за гражданами и применение автономных средств вооружений без сохранения права человека принимать решение по выбору целей.


window-new
Soft
Hard
Тренды 🔥
«Игра, которую я куплю в первый же день»: вышел первый тизер хоррора Alien: Isolation 2 3 ч.
Акции IBM упали из-за нежелания компании увеличить прогноз выручки 10 ч.
OpenAI и Anthropic начали активно привлекать маркетинговые кадры из других компаний 17 ч.
Новая статья: REPLACED — любовь и ненависть в Феникс-Сити. Рецензия 24 ч.
Новая статья: Gamesblender № 773: ремейк ACIV: Black Flag, битва за игры в Брюсселе и экранизация Elden Ring 25-04 23:34
Люди стали говорить на 28 % меньше — виноваты смартфоны и интернет, а пандемия лишь усилили спад 25-04 21:07
AMD выпустила систему разгона памяти EXPO 1.2 — потенциал она раскроет на Zen 6 25-04 16:19
Microsoft позволит бесконечно откладывать обновления Windows 11 в течение 35-дневного периода 25-04 12:44
Google инвестирует в Anthropic $40 млрд и предоставит 5 ГВт вычислительных мощностей на фоне обострившейся ИИ-гонки 25-04 06:50
Запустился мессенджер XChat от Илона Маска — обещано сквозное шифрование, секретные чаты, звонки и встроенный Grok 25-04 06:42