Сегодня 06 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → пентагон
Быстрый переход

Рано расслабляться: Anthropic предстоит пройти ещё один суд, чтобы отвергнуть претензии Пентагона окончательно

На прошлой неделе Федеральный суд в штате Калифорния встал на сторону Anthropic в споре с Министерством войны США, обязав последнее исключить компанию из перечня неблагонадёжных поставщиков. Эксперты, опрошенные Politico, при этом отмечают, что праздновать победу преждевременно, ведь правоту Anthropic должен поддержать и суд высшей инстанции.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Как подчёркивается источником, Апелляционному суду США по округу Колумбия коллегией из трёх судей предстоит вынести отдельное решение по делу о противостоянии Anthropic и Пентагона, и только после этого можно будет считать, что стартап был включён в перечень неблагонадёжных поставщиков незаконно, и это решение необходимо будет отменить. Для партнёров и клиентов Anthropic текущее состояние контрактов с Пентагоном не даёт той определённости, которая позволила бы продолжать работу.

В материалах калифорнийского суда отмечается, что прямой контракт Anthropic с Пентагоном мог бы принести компании $200 млн, а ещё три подрядчика военного ведомства США отказались от сотрудничества со стартапом либо по собственной воле, либо по требованию Пентагона. Ещё три сделки с Anthropic на сумму более $180 млн развалились, хотя были почти заключены до появления претензий со стороны Пентагона.

Исход судебного заседания в Вашингтоне, сроки которого пока даже не определены, не вполне предсказуем, по данным Politico. С одной стороны, победа Anthropic в Калифорнии позволяет суду высшей инстанции опираться на те же доводы и принять сторону стартапа. С другой стороны, в состав коллегии Апелляционного суда по округу Колумбия входят два судьи, назначенных непосредственно Дональдом Трампом (Donald Trump) — это Грегори Кацас (Gregory Katsas) и Неоми Рао (Neomi Rao). Теоретически, они могут настоять на сохранении приоритета интересов национальной безопасности в споре с Anthropic, даже если доводы Пентагона будут не слишком убедительными. Если заседание суда состоится через несколько месяцев, то бизнес Anthropic за это время может серьёзно пострадать. Без окончательного вердикта в пользу компании у правительственных клиентов Anthropic и их подрядчиков не будет уверенности в возможности продолжать с ней сотрудничество.

Пентагон проиграл дело против Anthropic — суд отменил внесение в «чёрный список»

Ещё вчера стало понятно, что федеральный судья Рита Лин (Rita Lin) в целом согласна с доводами Anthropic о незаконности включения этой компании в перечень неблагонадёжных поставщиков Пентагона. По итогам судебного заседания она признала отнесение Anthropic к их числу неправомерным, обязав американское ведомство снять санкции с компании через семь дней. Это время даётся Министерству войны США для подачи апелляции, если подобная возможность им рассматривается.

 Источник изображения: Unsplash, Wesley Tingey

Источник изображения: Unsplash, Wesley Tingey

Anthropic в своём иске утверждала, что отнесение её к числу неблагонадёжных поставщиков в США нарушает Первую поправку к Конституции США, которая даёт право гражданам и организациям на свободу речи и волеизъявления. Пятая поправка тоже была нарушена, по мнению представителей Anthropic, поскольку компании не предоставили права на обжалование решения Пентагона в предусмотренном законе порядке. В своём 43-страничном решении федеральная судья Рита Лин выразила согласие с основными доводами истца, удовлетворив просьбу о блокировке решения Пентагона по включению Anthropic в перечень неблагонадёжных поставщиков. На обжалование решения суда Пентагону отводится семь дней, после чего оно вступит в законную силу.

В решении суда отмечается, что действия ведомства имели своей целью наказание Anthropic, а не обеспечение перечисленных интересов в сфере национальной безопасности, которыми мотивировалось отнесение компании к числу неблагонадёжных поставщиков. Судья согласилась с доводом Anthropic о наличии в действиях Пентагона признаков нарушения Первой поправки к Конституции США.

Пентагон в своих документах по этому делу настаивал, что отказ Anthropic в снятии ограничений на использование ИИ в военных целях вызывает неопределённость в части применения этих технологий и формирует риск злонамеренного отключения военных систем в ходе операций. Как отмечал ответчик, включение Anthropic в «чёрный список» было обусловлено не стремлением компании отстаивать свои взгляды на безопасность применения ИИ, а отказом от исполнения контрактных обязательств с военным ведомством. Anthropic ещё предстоит в отдельном судебном разбирательстве отстоять своё право поставлять технологии ИИ прочим правительственным клиентам в США.

Американский судья усмотрела в действиях Пентагона желание наказать Anthropic за её позицию

Тот факт, то Пентагон внёс компанию Anthropic в список угроз нацбезопасности в цепочке поставок, можно интерпретировать как попытку ведомства наказать разработчика систем искусственного интеллекта за публичное выражение опасений по поводу безопасности этих систем в военном деле.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

В иске, который Anthropic подала в федеральный суд Калифорнии, утверждается, что глава министерства обороны Пит Хегсет (Pete Hegseth) превысил свои полномочия, когда присвоил компании статус угрозы нацбезопасности в цепочке поставок. Этот статус присваивается компаниям, подвергающим военные системы угрозе проникновения или саботажа со стороны неприятеля. «Похоже, что министерство обороны наказывает Anthropic за попытку привлечь внимание общественности к этому спору по поводу контракта», — заявила окружной судья Рита Лин (Rita Lin). Anthropic запросила у суда временный запрет на применение санкций до завершения судебного разбирательства; судья Лин в конце заседания пообещала вынести письменное решение в ближайшие дни.

Anthropic отказалась разрешить Пентагону использовать её модели ИИ для массового наблюдения за гражданами США и для создания оружия, в котором ИИ принимает решение о ликвидации человека. Из-за нового статуса компания только в этом году, по её оценкам, может потерять несколько миллиардов долларов, — скажутся ущерб бизнесу и репутации. Такая мера не применялась к американским компаниям ни разу; основанием для неё послужил малоизвестный закон о госзакупках, направленный на защиту военных систем от иностранного саботажа. Действия властей Anthropic расценила как нарушение её права на свободу слова, и компании не дали возможности оспорить присвоение статуса — в обоих случаях, по её мнению, была нарушена Конституция США.

Пентагон применяет заведомо неверное толкование закона о госзакупках для того, чтобы наказать Anthropic за её переговорную позицию, считает адвокат компании. Выступающий от имени властей представитель американского минюста возразил: «А что будет, если Anthropic через обновление установит „аварийный выключатель“ или добавит возможности, которые позволят ей изменять работу системы, когда она больше всего окажется нужна нашим военнослужащим? Такой риск неприемлем». Anthropic подала ещё один иск в столице США Вашингтоне по поводу другого решения Пентагона, из-за которого компанию могут исключить из числа участников госконтрактов.

Пентагон принял боевую ИИ-систему Palantir Maven в качестве основной для армии США

Скандал с исключением Anthropic из числа благонадёжных поставщиков ИИ-решений с точки зрения Пентагона привлёк внимание общественности к деятельности американского военного ведомства по интеграции технологий искусственного интеллекта в свои операции. Новая памятка, полученная сотрудниками этого ведомства, гласит о выборе системы Maven компании Palantir в качестве основной для Пентагона.

 Источник изображения: Palantir

Источник изображения: Palantir

При этом сама по себе ИИ-система Maven не является новой для Министерства войны США, просто теперь она будет использоваться в качестве базовой для построения всех прочих решений в сфере искусственного интеллекта, связанных с ведением боевых действий и разведывательной деятельностью. В своём письме сотрудникам Пентагона от 9 марта заместитель министра обороны США Стив Файнберг (Steve Feinberg) подтвердил выбор Maven в качестве основной ИИ-системы в инфраструктуре военного ведомства США. На документальном уровне данный выбор будет окончательно закреплён к сентябрю текущего года, когда завершится очередной фискальный год.

Maven является ИИ-системой для боевого применения, которая позволяет обнаруживать цели на поле боя путём анализа поступающей разведывательной информации сразу по нескольким каналам. Только за время текущей операции США в Иране данная система позволила выбрать цели и нанести тысячи ударов по ним. Утверждение Maven в качестве главной системы такого типа позволит американским военным стандартизировать её применение во всех подразделениях и обеспечит Palantir долгосрочными оборонными контрактами. До сих пор эти контракты курировало Национальное агентство геопространственной разведки США, но в результате принятых решений они перейдут под контроль верховного командования американской армии.

Только один контракт Palantir с американскими военными прошлым летом принёс компании $10 млрд, а в целом их было заключено несколько штук. Капитализация этого оборонного подрядчика оценивается в $360 млрд. Система Maven обучена в автоматическом режиме обнаруживать цели на поле боя, идентифицировать возможные укрытия и склады боеприпасов и горючего. На решение соответствующих задач привычными методами ранее уходили часы. Palantir подчёркивает, что конечное решение о применении оружия делает человек, а система Maven только определяет цели. Разработка системы ведётся с 2017 года, первый контракт с Пентагоном был заключён компанией Palantir в 2024 году, принеся ей $480 млн. В мае прошлого года потолок финансирования был увеличен до $1,3 млрд. Примечательно, что сама Palantir использует для работы своих систем ИИ-решения Anthropic, от которых теперь придётся избавляться, если соответствующий запрет не будет снят.

Подрядчики Пентагона и его сотрудники не спешат отказываться от использования Anthropic

Три недели назад противоречия между Anthropic и руководством Пентагона привели к тому, что профильное программное обеспечение было запрещено к использованию в деятельности не только самого Министерства войны США, но и его подрядчиков в оборонной сфере. При этом фактически пользователи Anthropic в этой сфере не торопятся от него отказываться.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Напомним, руководство Anthropic выразило озабоченность по поводу возможности использования разработанных компанией систем для тотальной слежки за гражданами США и применения оружия в автоматическом режиме, это вызвало недовольство представителей американского военного ведомства, в результате контракт на использование чат-бота Claude в военной инфраструктуре США был расторгнут, а сама Anthropic была отнесена к числу неблагонадёжных поставщиков. Военному ведомству США и части его подрядчиков теперь предстоит перевести свои ИИ-системы на альтернативные платформы в течение шести месяцев. OpenAI уже подписала контракт с Пентагоном и надеется стать таким «заменителем».

Как поясняет Reuters, на деле отказываться от использования инструментов Anthropic не торопятся не только подрядчики Пентагона, но и его сотрудники. Во-первых, на их использование завязаны многие процессы, прерывать которые в условиях высокой военной активности США просто не представляется возможным. Во-вторых, пользователи считают решения Anthropic более удобными или эффективными по сравнению с доступными альтернативами. Специалисты Пентагона в сфере информационных технологий директивой по отказу от Anthropic недовольны по той причине, что только недавно научились использовать профильные системы в комфортном для себя режиме, а теперь их заставляют всё разрушить. Многие считают Claude самым совершенным на данный момент чат-ботом.

Один из подрядчиков Пентагона добавил, что повторная сертификация систем на новой платформе потребует многих месяцев, а в худшем случае — до полутора лет. Кроме того, переход на новую платформу потребует от Пентагона новых крупных затрат. Наконец, на функциональных процессах Министерства войны США подобная миграция также негативно скажется. Контракт Anthropic с американским военным ведомством на сумму $200 млн был заключён в июле прошлого года, Claude удалось интегрировать в ведомственные системы, управляющие секретными операциями, глубина этой интеграции по состоянию на конец февраля была очень большой. В ходе иранской операции американские военные продолжают использовать разработки Anthropic даже в условиях запрета.

Некоторые сотрудники Пентагона всё же вынуждены подчиняться запрету на использование инструментов Anthropic. В отдельных случаях от успешной автоматизации обработки данных приходится возвращаться к ручной работе с тем же Excel, например. Для написания программного кода в Пентагоне Claude Code также активно использовался в последние месяцы. Известная в определённых кругах компания Palantir, являющаяся крупным подрядчиком Пентагона, использует решения Anthropic в контрактах с ведомством на общую сумму более $1 млрд. Перестройка инфраструктуры под другое ПО потребует не только времени, но и серьёзных финансовых затрат. В некоторых случаях решения Anthropic используются для формирования потоков данных, которые требуются Пентагону буквально на ежеминутной основе, и отказаться от этого ПО крайне сложно.

Некоторые подрядчики ведомства задумались о том, чтобы при отказе от использования решений Anthropic оставить возможность быстрого возврата к ним. В этом случае представители отрасли надеются, что Пентагон отменит свой запрет до истечения шестимесячного срока, отведённого для миграции.

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Министерство обороны США заявило, что компания Anthropic представляет «неприемлемый риск национальной безопасности». Это первое официальное заявление ведомства в ответ на иски ИИ-разработчика, пытающегося оспорить решение министра обороны Пита Хегсета (Pete Hegseth) о присвоении Anthropic статуса компании, представляющей риски для цепочки поставок. Компания просит суд приостановить исполнение этого решения Минобороны до окончания разбирательства.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Суть аргументации Минобороны, изложенной в 40-страничном заявлении, поданном в федеральный суд Калифорнии, заключается в опасении, что Anthropic может «попытаться отключить свои технологии или упреждающе изменить поведение своих ИИ-моделей» до или во время «боевых операций», если компания «почувствует, что её корпоративные „красные линии“ могут быть пересечены».

Минувшим летом Anthropic подписала с Пентагоном соглашение на $200 млн на развёртывание своих алгоритмов в закрытых системах. В ходе последующих переговоров об изменении условий контракта компания выразила несогласие с тем, чтобы её ИИ-алгоритмы использовались для массовой слежки за американцами, а также заявила, что технология ещё не готова к применению в системах наведения или принятия решений о применении летального оружия. Пентагон в ответ заявил, что частная компания не может диктовать военным условия использования технологий. Некоторые компании выступили против действий Минобороны: OpenAI, Google, Microsoft и их сотрудники, а также правозащитные организации обратились в суд с поддержкой Anthropic.

Сама Anthropic подала в суд несколько исков, в которых обвинила Минобороны в нарушении прав компании, гарантированных Первой поправкой к Конституции США. ИИ-разработчик также обвинил военных в несправедливом наказании компании по идеологическим мотивам. Слушания по этому делу о вынесении предварительного судебного запрета пройдут на следующей неделе.

У американских законодателей возникли вопросы к OpenAI из-за сделки с Пентагоном

Спешно заключённая OpenAI сделка с Министерством войны США, как признался глава компании Сэм Альтман (Sam Altman), потребовала доработки некоторых пунктов контракта, но публично он выражал лояльность идее использования ИИ в военных целях. При этом даже у американских конгрессменов возникли вопросы к руководителю OpenAI на данную тему.

 Источник изображения: Unsplash, Ma Ti

В четверг на этой неделе, как отмечает CNBC, генеральный директор OpenAI Сэм Альтман встретился с группой американских конгрессменов в Вашингтоне. Сенатор Марк Келли (Mark Kelly), например, заявил о наличии у него «серьёзных вопросов» по поводу подходов OpenAI к использованию технологий компании в боевых действиях и самой сделке с Пентагоном в целом. В своём интервью каналу CNBC сенатор Келли признался, что группа его коллег в подробностях обсудила с Альтманом подходы к слежению за гражданами и использованию ИИ в боевых условиях. Разговор сенатор назвал «хорошей дискуссией».

«Должны быть определённые ограничения, и мы должны быть уверены, что всё время думаем о Конституции и обеспечиваем соблюдение её основных положений», — подчеркнул сенатор. Напомним, что сделка американского военного ведомства с конкурирующей Anthropic развалилась после того, как руководство этой компании потребовало исключить использование её разработок при массовом слежении за американскими гражданами и применении систем вооружений без согласия человека. Конфликт между сторонами сделки привёл к тому, что Anthropic оказалась включена в перечень неблагонадёжных поставщиков, а подрядчикам Пентагона было запрещено использовать её разработки. На поиск альтернативы у самого ведомства и его подрядчиков остаётся шесть месяцев, но применять ИИ-модели Anthropic им запрещается уже сейчас.

Примечательно, что глава OpenAI Сэм Альтман именно упоминаемые выше ограничения включил в текст контракта с Пентагоном, и конфликт ведомства с Anthropic стал носить характер «наказания непокорного», а не последствия реальных противоречий. Хотя Альтман и выразил несогласие с отнесением Anthropic к числу неблагонадёжных поставщиков, он подчеркнул, что «именно правительство должно решать, как именно будут работать самые важные вещи в стране». Сенатор Келли заявил, что группа парламентариев работает над законопроектом, определяющим характер взаимоотношений Министерства войны США с разработчиками ИИ, и что должно существовать законодательство, определяющее некоторые границы применения таких технологий. Конгрессмен посетовал, что в парламенте США вопросы рассматриваются не так быстро, как развиваются новые технологии.

Microsoft первой среди крупных компаний встала на сторону Anthropic в её тяжбе с Пентагоном

Microsoft стала первой крупной технологической компанией, вставшей на сторону Anthropic в её споре с Пентагоном по поводу условий военного использования её ИИ-моделей. Она призвала суд к временному запрету на исполнение решения Министерства обороны США о признании Anthropic фактором риска для цепочки поставок, пока рассматривается дело по иску стартапа.

 Источник изображения: Wesley Tingey/unsplash.com

Источник изображения: Wesley Tingey/unsplash.com

Microsoft предупредила, что «радикальные» и «беспрецедентные» шаги против Anthropic будут иметь «широкие негативные последствия» для американской технологической индустрии.

После отказа стартапа предоставить Пентагону право использования своей модели Claude без каких-либо ограничений, военное ведомство включило его в чёрный список поставщиков, представляющих риск для цепочки поставок. Также администрация президента США потребовала, чтобы все федеральные агентства прекратили использование чат-бота Claude.

После этого Anthropic подала в суд на администрацию Дональда Трампа (Donald Trump), назвав действия правительства «беспрецедентными и незаконными» и отметив, что они «наносят Anthropic непоправимый ущерб», ставя под угрозу контракты на сотни миллионов долларов.

Microsoft заявила, что её «позиция заключается в том, что ИИ должен быть сосредоточен на законных и надлежащим образом защищённых вариантах использования». ИИ, по её словам, «не должен использоваться для проведения внутреннего массового наблюдения или для того, чтобы поставить страну в положение, когда автономные машины могут самостоятельно начать войну».

Microsoft утверждает, что временный запрет необходим для предотвращения дорогостоящих сбоев для поставщиков, которым в противном случае пришлось бы быстро перестраивать свои продукты, зависящие от продукции Anthropic.

В то время как Пентагон отвёл себе шесть месяцев на поэтапное прекращение использования технологий Anthropic, он не предоставил такой же переходный период для подрядчиков, использующих продукцию или услуги Anthropic для выполнения работ в рамках Министерства обороны, сообщила Microsoft. IT-гигант добавил, что временный запретительный приказ позволит выработать решение путём переговоров, одновременно защищая доступ военных к передовым технологиям и гарантируя, что ИИ не будет использоваться для массового наблюдения за гражданами или для проведения военных действий без участия человека. Это «обеспечит более упорядоченный переход и позволит избежать сбоев в продолжающемся использовании передового ИИ американскими военными», отметила компания.

Свои выводы Microsoft указала в поданном в окружной суд США в Сан-Франциско заключении Amicus Curiae. Такие документы подаются сторонами, которые не указаны в деле, но обладают соответствующей экспертизой, или на которых может повлиять исход рассматриваемого дела.

Google обеспечит Пентагон ИИ-агентами на базе Gemini

Google начала внедрение ИИ-агентов на базе большой языковой модели Gemini для более чем 3 млн гражданских и военных сотрудников Министерства обороны США. На начальном этапе ИИ-агенты будут работать в незащищённых сетях, но уже ведутся переговоры о расширении доступа к сетям, внутри которых ведётся работа с секретными документами. Об этом заявил заместитель министра обороны по научно-исследовательским и опытно-конструкторским работам Эмиль Майкл (Emil Michael).

 Источник изображения: Getty Images, Unsplash+

Источник изображения: Getty Images, Unsplash+

В сообщении сказано, что восемь предварительно созданных ИИ-агентов будут задействованы для автоматизации таких задач, как обобщение заметок с совещаний, составление бюджетов и проверка предлагаемых действий на соответствие стратегии национальной безопасности. Вице-президент Google Джим Келли (Jim Kelly) написал в блоге, что сотрудники Министерства обороны также смогут создавать собственных ИИ-агентов, используя для этого описания на естественном языке.

Чат-ботом Google на базе искусственного интеллекта, который доступен на портале Пентагона, с декабря прошлого года воспользовались 1,2 млн сотрудников Министерства обороны в процессе работы в незащищённых сетях. За этот период они отправили 40 млн уникальных запросов и загрузили более 4 млн документов. Отмечается, что обучение персонала отстаёт от темпов внедрения: с декабря обучение работе с ИИ прошли всего 26 тыс. человек, а будущие занятия полностью забронированы. Это указывает на то, что всё больше сотрудников ведомства вовлекается в работу с ИИ.

Расширение сотрудничества Пентагона с Google происходит на фоне недавнего противостояния ведомства с компанией Anthropic, которая отказалась убрать из своих алгоритмов ограничения, запрещающие использовать их для слежки за пользователями или создания полностью автономного оружия. С тех пор Минобороны внесло Anthropic в список организаций, создающих риск для цепочек поставок, но компания намерена оспорить это решение в суде. Около 900 сотрудников Google и около 100 сотрудников OpenAI подписали открытое письмо, в котором призвали своих работодателей придерживаться аналогичных ограничений. В феврале Google без лишнего шума скорректировала свои «Принципы в области ИИ» в части именно таких вариантов использования.

Anthropic предупредила, что включение в «чёрный список» Пентагона принесёт ей многомиллиардные убытки

Клиентам и инвесторам Anthropic может говорить о последствиях своего включения в перечень неблагонадёжных поставщиков Пентагона одно, а в исковом судебном заявлении указывать совершенно иную информацию. В последнем случае она старается «нагнать жути» и заявить, что подобные санкции повлекут многомиллиардные убытки не только в текущем году, но и в последующие периоды.

 Источник изображения: Unsplash, David Veksler

Источник изображения: Unsplash, David Veksler

Агентство Reuters проанализировало текст искового заявления Anthropic, с которым компания обратилась в суд с просьбой отменить решение Пентагона о включении её в список неблагонадёжных с точки зрения национальной безопасности США поставщиков. Ситуация возникла вскоре после отказа Anthropic передать американским военным полный контроль над применением своих ИИ-моделей, включая поголовную слежку за американскими гражданами и автоматизацию применения оружия с учётом выбора целей искусственным интеллектом.

Оспаривая данное решение американского военного ведомства, Anthropic упоминает ряд значимых финансовых доводов. Одна только потеря контракта с Пентагоном лишит компанию сотен миллионов долларов США в текущем году (потери составят не менее $150 млн). По мнению руководства Anthropic, последствия включения компании в «чёрный список» окажут необратимое негативное воздействие на бизнес стартапа. Он потеряет от 50 до 100 % выручки от контрактов с подрядчиками Пентагона, а подрыв доверия инвесторов может усложнить привлечение необходимых для развития бизнеса средств. В общей сложности готовые потери Anthropic могут достичь нескольких миллиардов долларов США.

Даже за пределами оборонных контрактов скандал может повлечь для Anthropic потери, связанные с отказом клиентов сотрудничать с компанией. В период с декабря 2025 года по январь 2026 года Anthropic в четыре раза увеличила приведённый размер годовой выручки от контрактов с представителями публичного сектора экономики США, в следующие пять лет эта выручка могла бы вырасти до нескольких миллиардов долларов. Компании публичного сектора в случае утраты доверия к Anthropic со стороны клиентов могут лишить её более чем $500 млн выручки по итогам текущего года.

Anthropic успела понести прямой ущерб от действий Пентагона, как отмечается в иске. Один из партнёров стартапа, заключивший контракт с одним из американских правительственных ведомств, перешёл от использования Claude к конкурирующему решению, лишив Anthropic ожидаемой годовой выручки в размере более $100 млн. Прерваны переговоры с финансовыми учреждениями на сумму около $180 млн, один из контрактов на $15 млн был поставлен на паузу, а некая французская компания уменьшила сумму выплат Anthropic в два раза до $5 млн после действий Пентагона. В целом, компания успела получить обращения от более чем 100 корпоративных клиентов, в которых они выражали своё сомнение по поводу целесообразности дальнейшего сотрудничества с Anthropic. Все эти данные должны быть учтены судом при вынесении вердикта по делу.

Представители Google и OpenAI готовы выступить в суде в поддержку Anthropic в деле о конфликте с Пентагоном

Процессуальные процедуры традиционно растянуты во времени, но Anthropic не стала особо медлить с подачей судебного иска против Пентагона, пытаясь оспорить своё включение в список неблагонадёжных поставщиков. Поддержать позиции компании в суде готовы представители конкурирующих OpenAI и Google, но только как частные лица, обладающие определённой экспертизой в рассматриваемом споре.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Почти 40 сотрудников OpenAI и Google, включая руководителя разработки Gemini Джеффа Дина (Jeff Dean), направили в суд процессуальный документ, формально позволяющий помочь судье составить более полное представление о предмете спора между истцом и ответчиком. По мнению составителей документа, включение Anthropic в перечень неблагонадёжных поставщиков является некорректным проявлением мести, которое вредит интересам общества. Как считают подписавшие обращение к суду представители указанных компаний, обозначенные Anthropic «красные линии» реальны и требуют конкретного ответа. Даже в ответственных руках, по мнению авторов письма, инструменты тотальной слежки за гражданами представляют серьёзный риск для демократических институтов, да и создание полностью автономных систем вооружения представляет собой риск, требующий особого внимания. Авторы письма относят себя к учёным, разработчикам и инженерам, занятым в создании передовых американских систем ИИ.

По их замыслу, обращение к суду направлено не на решение проблем какой-то конкретной компании, а на представление интересов всей отрасли. Подписавшие письмо эксперты считают себя достаточно компетентными, чтобы предупреждать власти США о неприятных последствиях рассматриваемого ими применения ИИ в военных и разведывательных целях. Как поясняют авторы письма, сейчас данные о гражданах США существуют в разрозненном виде, и никто пока не объединял эти массивы с помощью ИИ для подробного анализа в масштабе реального времени. По сути, при желании американские власти могли бы составить подробное досье на сотни миллионов человек одновременно, с учётом постоянных изменений в этих данных.

В части использования ИИ для выбора целей системами вооружения, как предупреждают эксперты, опасность таится в возможности появления ошибок из-за различий между условиями обучения профильных моделей и реальной обстановкой на поле боя. Как отмечают авторы обращения, ИИ не в состоянии оценивать возможный сопутствующий ущерб при выборе тех или иных целей, как это способен сделать человек. Кроме того, склонность ИИ к «галлюцинациям» делает военное применение таких технологий ещё более опасным без контроля со стороны человека. Авторы письма резюмируют, что на текущем этапе развития технологий предлагаемые Пентагоном сферы применения ИИ представляют серьёзную опасность и требуют ограничений либо на техническом уровне, либо на административном.

Anthropic подала в суд на власти США из-за включения её в «чёрный список» Пентагона

Компания Anthropic подала иск в федеральный суд Калифорнии в связи с её включением Министерством обороны США в список поставщиков, представляющих риск для национальной безопасности США. В своем иске Anthropic назвала это решение незаконным и нарушающим её права на свободу слова и надлежащую правовую процедуру, пишет агентство Reuters.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за её защищённую законом свободу слова», — заявила Anthropic. На основании этого компания обратилась к суду с просьбой отменить решение Пентагона и запретить федеральным агентствам применять его.

На прошлой неделе Пентагон официально присвоил компании Anthropic статус представляющей риск для цепочки поставок из-за отказа предоставить военному ведомству право использования своей модели Claude без каких-либо ограничений. В частности, Министерство обороны США требовало от Anthropic отменить запрет на использование Claude для массового слежения за американскими гражданами и полностью автоматизированных систем вооружений. Как сообщило агентство Reuters, напряжённые переговоры по поводу этих ограничений между сторонами велись в течение нескольких месяцев.

В Anthropic заявили, что судебный иск не исключает возобновления переговоров с Пентагоном и достижения соглашения. Компания сообщила, что не хочет конфликтовать с правительством США. В свою очередь, представитель Пентагона неделю назад заявил, что переговоры между сторонами прекращены.

Президент Дональд Трамп (Donald Trump) поручил правительству прекратить сотрудничество с Anthropic, среди инвесторов которой Google и Amazon.com. Также сообщалось, что прекращение сотрудничества правительства с компанией займёт шесть месяцев.

Глава робототехнического направления OpenAI уволилась из компании на фоне скандала с Anthropic и Пентагоном

Ещё на прошлой неделе OpenAI вызвалась занять место взбунтовавшейся Anthropic в качестве подрядчика Пентагона, снабжающего ИИ-системами для осуществления военных операций. Не всем сотрудникам стартапа это могло понравиться, поэтому руководительница робототехнического направления OpenAI сочла нужным уйти из компании.

 Источник изображения: Caitlin Kalinowski

Источник изображения: Caitlin Kalinowski

Речь идёт о Кейтлин Калиновски (Caitlin Kalinowski), которая руководила командами разработчиков аппаратных решений и робототехники OpenAI с ноября 2024 года. Из текста её открытых обращений к коллегам на страницах социальных сетей становится понятно, что для неё уход из OpenAI был непростым решением, его мотивы не имеют ничего общего с межличностными отношениями, а обусловлены исключительно этическими принципами. Кейтлин Калиновски осознаёт, что ИИ имеет важное значение для национальной безопасности, но убеждена, что поголовная слежка за гражданами США без юридических оснований и автоматизация летальных вооружений становятся теми линиями, которые лично её побуждают выразить протест. При этом Калиновски выражает глубокое уважение к главе OpenAI Сэму Альтману (Sam Altman) и его коллегам, а также гордится их совместными достижениями. Калиновски до перехода в OpenAI принимала активное участие в разработке очков дополненной реальности Meta✴ Platforms. Перед этим она девять лет работала в подразделении Oculus, а ещё раньше помогала Apple разрабатывать дизайн ноутбуков MacBook.

Калиновски стала не единственным сотрудником OpenAI, выразившим своё недовольство ситуацией с Пентагоном и Anthropic, но при спешном заключении соглашения с американским военным ведомством в прошлую пятницу Сэм Альтман делал упор на главенство государства в вопросах применения оружия и разведки, призывая подчинённых ставить государственные интересы выше принципов частной компании. Представители OpenAI выражают надежду, что в текущей редакции соглашение с Министерством войны США чётко очерчивает те границы, которые не следует пересекать при применении ИИ. Не допускается массовая слежка за гражданами и применение автономных средств вооружений без сохранения права человека принимать решение по выбору целей.

Anthropic заверила, что санкции Пентагона не повлияют на основную часть клиентов

Прошла неделя с того момента, как Anthropic вступила в конфликт с руководством американского военного ведомства по поводу определения границ допустимого применения искусственного интеллекта в военной сфере и слежением за гражданами США. Руководство стартапа теперь утверждает, что на её бизнес последствия внесения в «чёрный список» Пентагона повлияют незначительно.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) накануне подтвердил, что получил от Министерства войны США официальное уведомление о включении его компании в список неблагонадёжных поставщиков. Предполагалось, что данный запрет на сотрудничество с Anthropic вынудит многих подрядчиков государственных структур США отказаться от использования ИИ-сервисов этой компании. Её приведённая к году выручка недавно превысила $19 млрд, но как и многие конкуренты, Anthropic продолжает оставаться убыточной. Правда, её выраженная зависимость от корпоративного рынка позволяла до недавних пор рассчитывать на более быстрое достижение окупаемости по сравнению с той же OpenAI.

Как подчеркнул глава Anthropic, запрет на использование её продуктов подрядчиками Министерства войны США распространяется только непосредственно на контракты с этим ведомством, а не всю прочую деятельность соответствующих компаний. Другими словами, даже подрядчики Пентагона смогут продолжить использовать решения Anthropic в тех сферах, которые не имеют отношения к контрактам с этим ведомством. Применение ИИ-моделей Anthropic в системах компании Palantir будет прекращено, а именно они помогают американским военным выбирать цели при атаках на Иран в настоящее время. Ряд прочих американских правительственных ведомств уже заявили о своём решении отказаться от использования услуг Anthropic. Попутно Дарио Амодеи подчеркнул, что не считает попадание Anthropic в указанный список законным, а потому не имеет иного выхода, кроме как обратиться в суд для оспаривания данного решения.

Представители Министерства войны США отдельно отметили, что ведомство изначально придерживалось принципа наличия у военных права использования технологий Anthropic для достижения любых законных целей. Пентагон никогда не допустит, чтобы поставщик вмешивался в цепочку управления, ограничивая законное применение критических технологий, тем самым подвергая риску военнослужащих. Дарио Амодеи не стал отрицать, что в последние дни принял участие в довольно продуктивных контактах с представителями Министерства войны США, и надеется предоставлять ему услуги так долго, как получится. Заместитель министра обороны США Эмиль Майкл (Emil Michael) подчеркнул, что на данный момент все переговоры между ведомством и Anthropic прекращены. Главе Anthropic пришлось извиняться за свои недавние резкие высказывания в адрес Пентагона и других участников рынка, которые он допустил в письменном обращении к сотрудникам своей компании. Он отметил, что тон высказываний не отображает его взвешенных взглядов на ситуацию.

Пентагон официально уведомил руководство Anthropic о включении компании в список неблагонадёжных поставщиков

Если прошлая пятница завершилась для Anthropic только угрозами со стороны представителей американского военного ведомства по включению в «чёрный список», не позволяющий более претендовать на правительственные контракты, то к концу этой рабочей недели данный статус был закреплён за ИИ-стартапом официально.

 Источник изображения: Getty Images, Unsplash+

Источник изображения: Getty Images, Unsplash+

Как поясняет Bloomberg со ссылкой на представителей Министерства войны США, соответствующее уведомление поступило руководству Anthropic официально только накануне. Ведомство определило, что компания и её продукты представляют риск для цепочек поставок, связанных с государственными заказами и проектами. Данное определение вступает в силу немедленно, по информации источника. Нюанс заключается в том, как добавляет Bloomberg, что решения Anthropic технически продолжают использоваться Пентагоном самым активным образом в ходе иранской операции. Существующая процедура предусматривает шестимесячный переходный период, на протяжении которого американские военные структуры и их подрядчики должны будут перейти от использования разработок Anthropic к альтернативам.

Ранее уже отмечалось, что данное определение Anthropic собирается оспорить в суде. Более того, компания предпринимает попытки возобновить переговоры с представителями Пентагона, чтобы вернуть всё в прежнее русло. Неясно при этом, как будет развиваться сотрудничество Министерства войны США с конкурирующей OpenAI, которая буквально в считанные часы после отлучения Anthropic от госконтракта попыталась занять её место, спешно пересматривая условия работы с Пентагоном уже на этой неделе.

Представители Пентагона сочли нужным отметить, что изначально руководствуются принципом, согласно которому американские военные имеют право использовать технологии для всех законных целей. Ведомство не намерено позволять никакой компании вмешиваться в цепочку командования и ограничивать законное применение таких технологий, потенциально ставя под удар военнослужащих. По данным Bloomberg, ИИ-модель Claude компании Anthropic была интегрирована в систему управления Maven, разработанную Palantir Technologies для Пентагона, и теперь активно используется в ходе боевых действий против Ирана. Хотя потенциально ссора с американскими военными может привести к сокращению выручки Anthropic на направлении государственных контрактов, в краткосрочной перспективе спрос на решения компании растёт среди рядовых пользователей, которые переходят на них из соображений солидарности с этической позицией руководства стартапа.


window-new
Soft
Hard
Тренды 🔥
«Напоминает Driver времён PS1»: релизный трейлер криминального боевика Samson: A Tyndalston Story от создателя Just Cause заинтриговал игроков 15 мин.
На момент анонса State of Decay 3 существовала лишь в виде документа Word — никаких зомби-животных в игре не будет 2 ч.
Запуск лунной миссии Artemis II обернулся для Kerbal Space Program лучшим пиковым онлайном в Steam за десять лет 3 ч.
Роскомнадзор второй раз за полгода опроверг блокировку Minecraft в России 4 ч.
Китайские власти не смогли заблокировать мессенджер Bitchat, поэтому заставили Apple его удалить 5 ч.
В РКН пожаловались на резкий скачок DDoS-атак на государственные информресурсы в феврале–марте 6 ч.
«Это только начало»: авторы Arc Raiders сделали крафтинг удобнее и пообещали впредь реагировать на жалобы игроков 6 ч.
Список достижений Starfield раскрыл неанонсированные секреты дополнения Terran Armada 8 ч.
В Google Play появилась функция поиска по отзывам 8 ч.
Британцы пытаются «заманить» к себе Anthropic после конфликта с Пентагоном 9 ч.
Intel внезапно представила пару мобильных процессоров серий Arrow Lake-HX и Panther Lake 2 ч.
Объявлена дата анонса смартфонов Honor 600 и 600 Pro — новинки уже показались во всей красе 2 ч.
Умные очки Meta научились изучать еду пользователя и рассказывать о её питательной ценности 3 ч.
Дефицит Mac Mini и Mac Studio усугубляется: сроки поставки растянулись вплоть до сентября 3 ч.
Развитие ИИ в США теперь зависит от электрооборудования из Китая, а санкции и пошлины только усугубляют дело 6 ч.
Tesla отделалась от расследования по поводу одной из функций автопилота, просто обновив ПО 7 ч.
Тайвань заподозрил ещё 11 китайских компаний в агрессивном переманивании чиповых специалистов 8 ч.
Dell’Oro Group: мировая телеком-отрасль снизит затраты в 2026 году 9 ч.
Xiaomi представила 300-Гц монитор за $108 — Redmi G25 300 Гц на 24,5-дюймовой матрице Fast IPS 9 ч.
Advantech готовит MIO-5356 — один из первых одноплатных компьютеров на платформе Intel Wildcat Lake 10 ч.