|
Опрос
|
реклама
Быстрый переход
Пентагон и Anthropic пытались спасти сделку до последнего момента
02.03.2026 [08:30],
Алексей Разин
На прошлой неделе вокруг сотрудничества Anthropic с Министерством обороны США разразился скандал, который привёл к включению компании в список неблагонадёжных поставщиков и потере ею всех правительственных контрактов. Как поясняет The Atlantic, даже на поздних этапах переговоров противоречия пытались сглаживаться обеими сторонами, но им так и не удалось найти общий язык.
Источник изображения: Unsplash, Sergey Koznov Напомним, компанию Anthropic смущала перспектива использования её ИИ-систем для массового слежения за гражданами США и автономно управляемых систем вооружения, которые могли бы самостоятельно определять цели и уничтожать их. Ещё в пятницу утром, как сообщает источник, представители американского военного ведомства были готовы пойти на уступки, прописав в тексте контракта соответствующие ограничения, но с важной оговоркой. В исключительных случаях Министерство войны США, как оно теперь называется, хотело оставить за собой право и следить за гражданами страны, и применять ИИ для управления системами вооружений. Представители Anthropic до последнего момента надеялись, что вторая сторона переговоров подобные исключения прописывать не будет, но чуда не произошло, а потому всё завершилось срывом контракта. Главная причина, которая этому способствовала, заключалась в намерениях властей США использовать ИИ компании Anthropic для анализа данных, собираемых об активности американских граждан. Переписка с чат-ботами, социальные сети, история поиска в Google, перемещения с указаниями координат GPS, транзакции по банковским картам и счетам — все эти данные о конкретном гражданине могли быть проанализированы и взаимосвязаны для нужд правительственных структур США. Anthropic это явно не устраивало, поэтому данное противоречие и стало ключевым в развале сделки с Пентагоном. В части управления системами вооружений Anthropic не противилась данной идее в целом, но пыталась сделать его более безопасным. Руководство компании считает, что на современном этапе развития ИИ не настолько совершенен, чтобы управлять вооружениями в полной мере. На одном из этапов переговоров Anthropic настаивала, чтобы её ИИ применялся военными только в пределах облачной инфраструктуры, не переходя на периферийный уровень — грубо говоря, внутри самого дрона или иного автономного средства уничтожения целей. Если бы дроны при таком разделении допускали фатальные ошибки, номинально ИИ компании Anthropic нельзя было бы обвинить в них. Пентагон подобного разделения обеспечить не мог, поскольку современная архитектура управления военной техникой и живой силой не подразумевает чёткой границы между облачными и периферийными вычислениями. Anthropic сама пришла к выводу, что изолировать свой ИИ в облаке она не сможет, а потому связываться с управлением вооружениями лучше вообще не следует. Отдельного внимания заслуживает поведение конкурирующей OpenAI, чей руководитель Сэм Альтман (Sam Altman) выражал солидарность с Anthropic за несколько часов до того, как объявил о достижении договорённости с Пентагоном об использовании ИИ этой компании в секретных системах американского военного ведомства. Он поделился своими взглядами на ситуацию с Anthropic, и ключевой его тезис заключается в том, что в вопросах такого уровня последнее слово должно оставаться не за частной компанией, а за государством. Глава OpenAI заявил, что частные компании не могут иметь больше власти, чем правительство США
02.03.2026 [07:33],
Алексей Разин
Вечером в пятницу Сэм Альтман (Sam Altman) заявил, что возглавляемая им OpenAI заключила с Пентагоном контракт на внедрение технологий ИИ в секретные системы этого ведомства. Чтобы развеять страхи и сомнения общественности по поводу её условий, Альтман провёл сессию вопросов и ответов, заявив о верховенстве демократически избранного правительства над принципами любых частных компаний.
Источник изображения: OpenAI Напомним, попытки Пентагона внедрить ИИ разработки Anthropic в свои секретные системы без ограничений на его использование наткнулись на протест со стороны разработчиков, в результате контракт на $200 млн был расторгнут, а сама Anthropic попала в список неблагонадёжных поставщиков. Использовать её разработки всем американским правительственным структурам было запрещено, в течение шести месяцев они должны найти замену сервисам Anthropic. Альтман на страницах социальной сети X сообщил, что сделка между OpenAI и Пентагоном была заключена очень быстро для снижения накала ситуации, в обычных условиях переговоры заняли бы больше времени. Он признал, что если сделка OpenAI позволит снизить напряжённость в отношениях Министерства обороны США (с недавних пор — Министерства войны) с представителями отрасли, то на имидже компании это скажется положительным образом. Если же устранить эти противоречия не удастся, то OpenAI обвинят в небрежности и поспешности заключения сделки, как заявил Альтман. Впрочем, пока он видит больше положительных для OpenAI сигналов в этой сфере. Рассуждая, почему именно OpenAI была выбрана в роли подрядчика американскими военными, а не Anthropic, Альтман предположил, что на уровне «языка контракта» обе стороны пришли к согласию быстрее, чем в случае с конкурентом. Глава OpenAI выдвинул гипотезу, что Anthropic пыталась сохранить больше операционного контроля за использованием своих разработок Пентагоном, чем это пытается сделать его компания. Говоря о так называемых «красных линиях», Альтман назвал три ключевых принципа, которых OpenAI готова придерживаться в сфере этики применения ИИ своими клиентами. С другой стороны, как отмечает глава компании, она готова пересматривать данные принципы по мере развития технологий, но при некотором стечении обстоятельств «красных линий» может стать больше. «Для нас нормально, если ChatGPT будет искать ответ на тот или иной противоречивый вопрос. Но я действительно не хотел бы, чтобы мы решали, что делать, если ядерная бомба будет направлена против США», — пояснил позицию OpenAI Альтман. Он добавил, что страной руководят демократически избранные лидеры, и было бы странно, если бы частная компания сама решала, что этично, а что нет, в самых важных областях. По словам Альтмана, переговоры между OpenAI и Пентагоном по поводу использования ИИ-сервисов компании в несекретной части бизнес-процессов ведомства велись на протяжении долгих месяцев, но сферы секретных операций они коснулись лишь недавно. В своих переговорах с Министерством обороны США, как подчеркнул Альтман, OpenAI старалась добиться равных условий взаимодействия ведомства со всеми участниками рынка. Глава компании пояснил, что Anthropic в этой ситуации выглядит не очень красиво, поскольку она сперва поясняет правительству, что в сфере ИИ на международной арене имеются некоторые риски, а потом отказывается помогать ему, обвиняя в разного рода грехах. Реакцию властей США в этой ситуации можно понять, как считает Альтман. По его словам, руководители частных компаний не должны иметь столько же власти, как избранные правители, но помогать последним они могут. Глава OpenAI привёл два примера использования ИИ в сфере национальной безопасности, которые способны продемонстрировать его реальную пользу. Во-первых, ИИ может применяться для защиты от массовых хакерских атак. Во-вторых, сфера биологической безопасности может стать тем полигоном применения ИИ, который позволит предотвратить новую пандемию, например. Anthropic обжалует в суде своё внесение в «чёрный список»
01.03.2026 [13:49],
Владимир Мироненко
Anthropic пообещала обжаловать в суде решение Министерства обороны США о её внесении в чёрный список поставщиков, представляющих риск для национальной безопасности, из-за отказа предоставить ведомству право использования своей модели Claude без каких-либо ограничений, добавив, что она «глубоко опечалена» эскалацией спора.
Источник изображения: Anthropic В пятницу президент Дональд Трамп (Donald Trump и министр обороны Пит Хегсет (Pete Hegseth) пригрозили лишить Anthropic не только контракта на $200 млн с Пентагоном, но и многочисленных клиентов, присвоив ей статус «риска для цепочки поставок» (Supply Chain Risk), который исторически применяется к угрозам национальной безопасности, в частности, к китайским компаниям. В ответ компания заявила, что «никакое запугивание или угроза наказания» со стороны Министерства обороны США не изменит её позицию в отношении запрета использования Claude для массового слежения за американскими гражданами и полностью автоматизированных систем вооружений. «Мы будем оспаривать любое определение риска в цепочке поставок в суде», — сообщила Anthropic, также сославшись на статью 10 USC 3252, которая гласит, что определение риска для цепочки поставок может распространяться только на контракты с Пентагоном, то есть это определение не может относиться к военным подрядчикам, которые используют Claude для обслуживания других клиентов. Anthropic заявила, что этот спор не касается клиентов или компаний, имеющих с ней коммерческие контракты: «Если вы являетесь индивидуальным клиентом или имеете коммерческий контракт с Anthropic, ваш доступ к Claude — через наш API, claude.ai или любой из наших продуктов — совершенно не затронут». Компания добавила, что для подрядчиков Пентагона определение риска для цепочки поставок — если оно будет официально принято — повлияет только на использование Claude в рамках контрактов Министерства обороны США. При использовании ИИ-технологии в любых других целях всё остается без изменений. OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic
28.02.2026 [08:12],
Алексей Разин
Драма, которая развивалась вокруг несогласия руководства Anthropic с бесконтрольным использованием ИИ американскими военными, получила новый этап развития вечером в пятницу, когда глава OpenAI Сэм Альтман (Sam Altman) подтвердил достижение договорённости с Пентагоном об адаптации решений этой компании под нужды ведомства.
Источник изображения: OpenAI По словам Альтмана, на которые ссылается CNBC, компании OpenAI удалось договориться с Министерством обороны США об условиях использования её разработок в секретных системах данного ведомства. «На всех этапах нашего взаимодействия Министерство обороны выражало глубокое уважение к безопасности и стремление к сотрудничеству с целью достижения максимально благоприятных итогов», — сообщил Альтман в своей публикации на страницах социальной сети X. Напомним, что нежелание Anthropic разрешить Пентагону использование своих разработок без предусмотренных компанией этических ограничений привело к отказу ведомства от контракта с компанией на $200 млн, а также включению Anthropic в список сомнительных поставщиков, представляющих угрозу для национальной безопасности. Всем американским правительственным структурам велено незамедлительно прекратить использование чат-бота Claude, и в течение шести месяцев найти альтернативу. Что характерно, Сэм Альтман заявил о готовности Министерства обороны США соблюдать предусмотренные OpenAI ограничения на использование ИИ. Два принципа, вокруг которых разразился спор между Пентагоном и Anthropic, найдут отображение в тексте контракта с OpenAI и будут соблюдаться американским оборонным ведомством, как заявил глава компании. Речь идёт о неприменении ИИ для массовой слежки за американскими гражданами и неиспользовании ИИ для управления полностью автономными системами вооружения, которые способы истреблять людей без санкции человека. По словам Альтмана, OpenAI позаботится о том, чтобы эти принципы соблюдались государственным заказчиком. За безопасность в этой сфере будут отвечать отдельные специалисты на стороне OpenAI. Попутно Альтман призвал Пентагон распространить такие условия сотрудничества на все компании в сфере ИИ, чтобы устранить возникшие противоречия с некоторыми участниками рынка. Представители Anthropic выразили глубокое разочарование решением Пентагона о включении их компании в список неблагонадёжных поставщиков. Разработчик оставляет за собой право оспорить данное решение в суде. Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном
28.02.2026 [07:15],
Алексей Разин
Эта неделя характеризуется разразившимся скандалом между Anthropic и её правительственным клиентом в лице Министерства обороны США, который настаивал на более широком применении ИИ, чем подразумевали правила разработчика. Сотни сотрудников OpenAI и Google выразили солидарность с позицией Anthropic, которая выступает против бесконтрольного использования ИИ властями.
Источник изображения: Anthropic Напомним, Anthropic желает не допустить применения своей ИИ-модели Claude американскими военными для сбора данных об американских гражданах и управления полностью автономными системами вооружений, конечное применение которых не сможет контролировать человек. В открытом письме под заголовком «Нас не разделить» сотрудники OpenAI и Google призвали руководство своих компаний оставить разногласия и выступить вместе ради запрета на использование ИИ-моделей для слежки за гражданами США и уничтожения одних людей без контроля за процессом со стороны других. Как отмечает Engadget, петиция успела набрать более 450 подписей, подавляющая часть которых поставлена сотрудниками Google. При этом примерно половина подписавших её раскрыла свои имена, остальные действовали анонимно. Все подписавшие петицию являются сотрудниками одной из двух указанных компаний. Авторы петиции при этом не причисляют себя ни к каким ИИ-компаниям, политическим партиям или юридическим объединениям. Вчера стало известно, что на фоне отказа Anthropic предоставить Пентагону неограниченный доступ к использованию Claude в военных целях американские власти включили компанию в «чёрный список», и теперь всем связанным с военными контрактами США подрядчикам в течение шести месяцев нужно будет найти альтернативу Claude, а саму эту ИИ-модель нужно прекратить использовать немедленно. Переговоры Пентагона с OpenAI и Google уже ведутся, а ещё ведомство располагает действующим контрактом с xAI на использование чат-бота Grok в своих секретных системах. Генеральный директор OpenAI Сэм Альтман (Sam Altman) не только обратился к сотрудникам с заявлением о готовности придерживаться схожих с Anthropic принципов, но и признался CNBC, что не считает уместным применение угроз со стороны Пентагона ко всем участникам рынка. Пентагон поместил непокорную Anthropic в чёрный список и в течение шести месяцев перейдёт на альтернативы Claude
28.02.2026 [06:40],
Алексей Разин
На данный момент Anthropic остаётся единственной компанией, чья ИИ-модель Claude одобрена Министерством обороны США для работы с секретными ведомственными системами. Несогласие Anthropic предоставить этому ведомству право неограниченного использования своих разработок привело к тому, что Пентагон поместил компанию в «чёрный список» и откажется от её услуг.
Источник изображения: Anthropic Напомним, что суть спора между руководством Anthropic и Министерством обороны США свелась к допустимым областям применения фирменных ИИ-систем. Разработчик утверждает, что не допустит использования Claude для слежения за американскими гражданами и применения полностью автоматизированных систем вооружений, которые не подразумевают принятия окончательного решения человеком. Пентагон, который за контракт с Anthropic выложил $200 млн, считает, что может полностью распоряжаться приобретаемым ПО и применять его в любых законных целях. Попытки продавить позицию руководства Anthropic со стороны американского военного ведомства ничем не увенчались, а потому к вечеру пятницы компания попала в список поставщиков, представляющих риск для национальной безопасности. Традиционно в нём состоят компании, преимущественно имеющие связи с геополитическими оппонентами США. Anthropic данное решение американских властей готова оспаривать в суде, но пока не подала соответствующего иска. Пентагон также требует от своих подрядчиков в течение шести месяцев отказаться от использования Claude в пользу решений других разработчиков. Президент США Дональд Трамп (Donald Trump) со страниц собственной социальной сети Truth Social потребовал от всех правительственных ведомств немедленно прекратить использование любых разработок Anthropic. Перед введением запрета представители Министерства обороны США пытались договориться с Anthropic о послаблениях в политике последней, которые позволили бы собирать и анализировать данные граждан США, включая их геопозицию, персональные финансовые данные и историю браузера — всё это планировалось покупать у специализированных брокеров. Пентагон теперь, как утверждает Axios, собирается перейти на использование ИИ-моделей OpenAI, хотя эта компания обладает схожими ограничениями с Anthropic в сфере применения своего ПО в разведывательных и военных целях. Подрядчикам Пентагона придётся доказывать, что они не используют решения Anthropic в своей деятельности. При этом чисто с технической точки зрения представители Пентагона до сих были довольны итогами использования продуктов Anthropic, и необходимость предстоящей миграции вызывает у них сильный дискомфорт. Компании Palantir также придётся перейти на альтернативу. Представители Пентагона обрушились с обвинениями в адрес генерального директора Anthropic Дарио Амодеи (Dario Amodei), назвав его «лжецом с комплексом Бога, который ставит под угрозу всю национальную безопасность». Недавно стартапу Илона Маска (Elon Musk) xAI удалось заключить контракт с Пентагоном на использование Grok в секретных системах американского ведомства. Источники считают, что полноценной и прямой заменой Claude данное решение стать не сможет. Gemini компании Google и ChatGPT компании OpenAI применяются американскими военными в системах общего назначения, и теперь Пентагон ускорит переговоры об их внедрении в секретной сфере. Сотрудники Google и OpenAI начали демонстрировать солидарность с Anthropic и пытаются выразить свой протест в форме открытых петиций, поддержку последней компании выражают и прочие общественные группы. Anthropic отказала Пентагону в неограниченном военном применении ИИ, несмотря на угрозы
27.02.2026 [14:05],
Владимир Мироненко
Anthropic отказалась выполнить требование Министерства обороны США предоставить неограниченный доступ к своим ИИ-технологиям, несмотря на то, что это ставит под угрозу её контракт с военным ведомством на $200 млн. На встрече в Белом доме министр обороны Пит Хегсет (Pete Hegseth) дал компании время на обдумывание предложения до конца рабочего дня в пятницу, но компания уже в четверг заявила об отказе.
Источник изображения: Anthropic По словам представителя Министерства обороны США, другие ведущие компании в сфере ИИ поддержали требование ведомства, чтобы военные имели полную свободу использовать мощные ИИ-инструменты по своему усмотрению. OpenAI, разработчик ChatGPT, Google и xAI Илона Маска (Elon Musk) согласились разрешить Пентагону использовать их ИИ-системы для «всех законных целей» в незасекреченных сетях, и работают над соглашениями для засекреченных сетей. В опубликованном в четверг заявлении генеральный директор Anthropic Дарио Амодеи (Dario Amodei) написал: «Я глубоко верю в экзистенциальную важность использования ИИ для защиты Соединённых Штатов и других демократических стран. Поэтому Anthropic активно работала над внедрением своих моделей в Министерство обороны и разведывательное сообщество». Он подчеркнул, что компания «никогда не высказывала возражений против конкретных военных операций и не пыталась ограничивать использование технологии произвольно», и добавил, что в «узком круге случаев мы считаем, что ИИ может подрывать, а не защищать демократические ценности». По словам Амодеи, у компании есть две «красные линии», которые она не будет пересекать: никакого массового наблюдения за американцами и никакого летального автономного оружия (или оружия, имеющего лицензию на уничтожение целей без какого-либо человеческого контроля). Возможно, в будущем Anthropic согласится на использование полностью автономного оружия военными, но сейчас она к этому не готова, добавил он. Сообщается, что Пентагон уже обратился к крупным оборонным подрядчикам с просьбой оценить их зависимость от ИИ-модели Claude компании Anthropic. Из-за позиции Anthropic военное ведомство вполне может объявить её «риском для цепочки поставок», что затронет не только Anthropic, но и любую фирму, использующую ИИ компании. Обычно эта классификация применяется к угрозам национальной безопасности, в частности, к китайским и российским компаниям. «Мы можем потребовать от всех наших поставщиков и подрядчиков подтверждения того, что они не используют никакие антропогенные модели», — сообщил газете The Washington Post представитель Пентагона. Сообщается также, что Пентагон рассматривает возможность применения «Закона об оборонном производстве» 1950 года, который позволяет федеральной власти вмешиваться в деятельность частных компаний, чтобы заставить Anthropic выполнить требование. Амодеи указал в своём заявлении, что «угрозы Пентагона не меняют нашей позиции: мы не можем с чистой совестью удовлетворить их просьбу». Он добавил, что «если министерство решит отказаться от услуг Anthropic, мы будем работать над обеспечением плавного перехода к другому поставщику, избегая любых сбоев в текущем военном планировании, операциях или других важных миссиях. Наши модели будут доступны на предложенных нами расширенных условиях столько, сколько потребуется». Пентагон поставил Anthropic ультиматум: открыть полный доступ к ИИ до пятницы или столкнуться с санкциями
25.02.2026 [11:12],
Павел Котов
Министерство обороны США дало компании Anthropic время до вечера пятницы, 27 февраля, чтобы та открыла ведомству полный доступ к модели искусственного интеллекта — в противном случае разработчику придётся готовиться к последствиям, передаёт Axios.
Источник изображения: anthropic.com На состоявшейся накануне встрече министр обороны США Пит Хегсет (Pete Hegseth) заявил главе Anthropic Дарио Амодеи (Dario Amodei), что Пентагон либо объявит компанию «угрозой цепочке поставок» — этот статус обычно присваивается иностранному противнику, — либо задействует «Закон о производстве продукции оборонного назначения» (DPA), чтобы принудить компанию адаптировать модель ИИ к потребностям армии. DPA наделяет президента правом заставлять компании отдавать приоритет или расширять производство для оборонных нужд. В годы пандемии этот закон задействовали, чтобы принудить General Motors и 3M выпускать аппараты ИВЛ и маски соответственно. Anthropic не хочет, чтобы её технологии использовались для массового наблюдения за американцами, а также для создания полностью автономного оружия, и отказывается идти на компромиссы по этим вопросам. В Пентагоне настаивают, что применение технологий военными должно регулироваться законодательством США и конституционными ограничениями, а не политикой частных подрядчиков. Применение DPA в области ИИ значительно расширит практическое применение этого закона; Anthropic же действительно не планирует ослаблять ограничения на использование своих моделей, узнало Reuters. Сейчас Anthropic является единственной передовой лабораторией ИИ, продукция которой имеет доступ к секретным материалам Министерства обороны — резервный вариант отсутствует, хотя, по неофициальным данным, Пентагон уже договорился с xAI о применении Grok в секретных системах. Отсутствие альтернативного варианта могло бы объяснить агрессивную политику ведомства, считают эксперты. Противоречивого бота xAI Grok допустят к секретным военным системам США
24.02.2026 [18:15],
Сергей Сурабекянц
Компания Илона Маска (Elon Musk) xAI, занимающаяся разработкой искусственного интеллекта, подписала соглашение, разрешающее военным использовать свою модель Grok в секретных системах, подтвердил сегодня представитель Министерства обороны США.
Источник изображения: xAI До сегодняшнего дня Claude от Anthropic была единственной моделью, применяемой военными США для секретной разведывательной деятельности, разработки оружия и боевых операций. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. Но Anthropic требует гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки полностью автономного оружия. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. Anthropic отказалась выполнить требование Пентагона о предоставлении Claude для «всех законных целей», что вызвало резкую реакцию со стороны военного ведомства. Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей с Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic.
Источник изображения: Anthropic Фактически, министр обороны США предъявил Anthropic ультиматум. В свою очередь xAI согласилась с требованием Пентагона по поводу использования ИИ для «всех законных целей», хотя пока неясно, сможет ли xAI полностью заменить Anthropic, и сколько времени займёт этот процесс. Представители Министерства обороны признают, что заменить Claude будет очень непросто. Осведомлённые источники сообщают, что Пентагон также ускорил переговоры с другими ведущими разработчиками ИИ, готовясь к возможному разрыву отношений с Anthropic. В частности, сообщается, что Пентагон «обратился к OpenAI, чтобы возобновить переговоры с новой силой», хотя стороны всё ещё «далеки от заключения сделки». New York Times сообщила, что Google «близка» к сделке, разрешающей использование Gemini в секретных целях, в то время как OpenAI «далека». Представитель Министерства обороны опроверг это утверждение, заявив, что переговоры ведутся с обеими компаниями, и ведомство полагает, что обе компании подпишут соглашения при условии согласия с критерием «всех законных целей». SpaceX вошла в секретный конкурс Пентагона по созданию ИИ для голосового управления роями дронов
18.02.2026 [07:20],
Алексей Разин
Военные конфликты последних лет показали возросшее значение беспилотных летательных аппаратов различного назначения. Перспективной считается идея создания роев дронов, которые могут в автоматическом режиме атаковать выбранные цели на поле боя. Компания SpaceX и её дочерняя структура xAI примут участие в конкурсе Пентагона на создание подобных технологий управления.
Источник изображения: SpaceX Об этом сообщило агентство Bloomberg, которое подчеркнуло, что ранее Илон Маск (Elon Musk), который владеет обеими компаниями, выступал против создания «новых средств для уничтожения людей». В январе американское оборонное ведомство объявило конкурс на разработку технологии голосового управления роем боевых дронов с призовым фондом $100 млн. До недавних пор участие SpaceX и xAI в этом конкурсе не афишировалось. Конкурс будет длиться шесть месяцев, по его итогам Министерство обороны США определит победителя, который предложит наиболее совершенную технологию голосового управления роем боевых дронов. Конкурс будет проходить в несколько этапов, в зависимости от прогресса и мотивации участников. Подчёркивается, что технология будет носить явно выраженный наступательный характер. ИИ-стартап xAI недавно начал нанимать специалистов инженерного профиля с уровнем доступа к секретным и совершенно секретным сведениям, чтобы работать с федеральными заказчиками, включая Министерство обороны США. Компания xAI уже заключила с Пентагоном контракт на $200 млн, который предусматривает интеграцию чат-бота Grok в системы военного назначения. Материнская SpaceX также давно обслуживает контракты с Министерством обороны США, доставляя на орбиту военные спутники и другие грузы. Ранее Маск неоднократно выступал за запрет автоматически управляемых систем вооружений, которые могут самостоятельно выбирать цели и уничтожать их без вмешательства человека. Упоминаемый выше конкурс Пентагона на первых этапах будет подразумевать только создание профильного программного обеспечения для управления дронами, фактические их испытания должны состояться гораздо позже. OpenAI также поддерживает одного из потенциальных подрядчиков Пентагона в этом конкурсе, как отмечает Bloomberg. Свою роль в проекте OpenAI собирается ограничить переводом голосовых команд в цифровые, непосредственно управлять роем дронов программное обеспечение этой компании не будет. Ещё один участник конкурса также будет использовать разработки OpenAI, имеющие статус открытого исходного кода. При этом считается, что SpaceX и xAI будут полноценно участвовать в разработке специализированного управляющего ПО для военных дронов. Среди американских военных уже появились противники идеи внедрения ИИ в процесс управления вооружениями. По их мнению, роль технологий ИИ должна быть ограничена переводом речевых команд в цифровые, а сам процесс управления дронами должен оставаться за человеком. Специалисты в сфере безопасности уже давно говорят о том, что ИИ склонен к ошибкам и галлюцинациям, а потому не следует слишком на него полагаться в ответственных сферах применения. Пентагон при этом взял курс на внедрение ИИ-агентов на поле боя. Крупные американские компании технологического сектора периодически выступали в роли подрядчиков оборонного ведомства. В 2018 году Google занималась разработкой технологии анализа получаемых военными дронами видеоизображений при помощи искусственного интеллекта, данный прецедент вызвал ряд протестов. Пентагон пригрозил «болезненно» наказать Anthropic за запрет применять Claude для слежки и автономного оружия
17.02.2026 [11:52],
Павел Котов
Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей со специализирующейся на технологиях искусственного интеллекта компанией Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic. Об этом сообщило Axios со ссылкой на высокопоставленного чиновника в Пентагоне.
Источник изображений: anthropic.com «Разорвать эти связи будет чрезвычайно болезненно, и мы позаботимся, чтобы они заплатили за то, что вынудили нас к этому», — заявил источник издания. Такие радикальные меры обычно применяются к компаниям из считающихся недружественными США стран. «Отношения Министерства обороны с Anthropic будут пересмотрены. Страна требует, чтобы наши партнёры были готовы помочь военнослужащим одержать победу в любой битве. В конечном счёте, речь идёт о наших войсках и безопасности американского народа», — заявил официальный представитель Пентагона Шон Парнелл (Sean Parnell). Anthropic Claude сейчас является единственной моделью ИИ, которая используется в секретных военных системах, и она выступает мировым лидером во многих бизнес-приложениях. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. В Anthropic хотят гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки оружия, которое стреляет без участия человека. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. ![]() В переговорах с тремя другими крупными разработчиками ИИ — OpenAI, Google и xAI — ведомство настаивает на своём праве использовать их модели «для всех законных целей». Высокопоставленные чиновники в Пентагоне уже некоторое время недовольны Anthropic, и теперь они воспользовались возможностью вступить с компанией в конфликт, утверждает источник Axios. Сегодня Пентагон обладает правом собирать огромные массивы данных о людях — от сообщений в соцсетях до разрешений на скрытое ношение оружия, — но действующее законодательство не предусматривает использования ИИ в этих целях. ИИ способен значительно расширить эти полномочия и дать возможность преследовать гражданских лиц. «Мы ведём продуктивные, добросовестные переговоры с Министерством обороны о том, как продолжать эту работу и надлежащим образом решать эти новые и сложные вопросы», — заявил представитель Anthropic. Он подтвердил, что компания привержена использованию ИИ в целях национальной безопасности и подчеркнул, что чат-бот Claude первым появился в секретных сетях. Кроме того, им пользуются восемь из десяти крупнейших американских компаний, добавили в Anthropic. Но для продолжения сотрудничества с Пентагоном их могут вынудить подтверждать отсутствие связей с Anthropic. Контракт с Министерством обороны оценивается в $200 млрд при общей выручке компании в $14 млрд за год. Разработанные конкурентами модели ИИ «немного отстают» в отношении специализированных государственных приложений, признали в ведомстве, поэтому резкий переход может оказаться непростым. Жёсткая позиция Пентагона в отношении Anthropic задала тон переговорам ведомства с OpenAI, Google и xAI — они уже согласились снять ограничения для систем, которые работают в несекретных военных системах, но для секретной работы эти системы пока не применяются. В Министерстве обороны уверены, что эти три компании примут стандарт «использования во всех законных целях», сообщил один источник; окончательное решение ещё не принято, оговорился другой. США снова нацелились на Xiaomi: компанию хотят вернуть в чёрный список Пентагона вместе с DeepSeek и Unitree
24.12.2025 [08:31],
Алексей Разин
Давно понятно, что американские власти не брезгуют темой национальной безопасности для решения преимущественно коммерческих вопросов и защиты своих интересов в сфере внешней торговли. Хотя Xiaomi удалось в 2021 году доказать через суд свою непричастность к развитию китайского оборонного сектора, американские парламентарии опять требуют включить её в чёрный список Пентагона вместе с DeepSeek и Unitree.
Источник изображения: Xiaomi Речь идёт, как поясняет South China Morning Post, о попытках включения указанных китайских компаний в так называемый раздел 1260H списка Пентагона, который содержит имена компаний, с которыми американским ведомствам и бизнесменам не рекомендуется иметь дело по соображениям национальной безопасности. Появление имени китайской компании в списке 1260H не означает моментального введения санкций против неё, но значительно усложняет ведение ими бизнеса. Девять сенаторов, представляющих интересы Республиканской партии США, на прошлой неделе обратились с открытым письмом к министру обороны Питу Хегсету (Pete Hegseth) с просьбой включить в список 1260H более десяти китайских компаний, среди которых оказались Xiaomi, DeepSeek и Unitree. Первая производит потребительскую электронику и электромобили, вторая разрабатывает систем генеративного искусственного интеллекта, а третья известна своими человекоподобными роботами. Кроме того, авторы инициативы предлагают включить в этот список и другие китайские компании из сектора робототехники, разработчиков чипов и представителей сегмента биотехнологий. Китайский производитель беспилотных летательных аппаратов DJI до сих пор судится с Министерством обороны США, пытаясь отменить своё включение в соответствующий список ведомства. Аналогичные попытки предпринимают интернет-гигант Tencent и китайский производитель тяговых батарей CATL. Xiaomi удалось в 2021 году добиться своего исключения из списка 1260H по итогам судебного разбирательства, новые обвинения в свой адрес компания тоже отвергает, подчёркивая свою причастность лишь к выпуску потребительской продукции гражданского назначения. Попытки включить Xiaomi в список 1260H американского военного ведомства являются безосновательными, по словам представителей китайской компании. DJI снова открестилась от связей китайским оборонным комплексом
01.10.2025 [14:29],
Алексей Разин
Федеральный суд США в конце прошлого месяца постановил, что Министерство обороны США имеет право считать китайского производителя дронов DJI компанией, связанной с китайским оборонным сектором. При этом суд не выявил явных тому доказательств, и это воодушевило представителей DJI, которые в очередной раз выразили своё несогласие с решением суда.
Источник изображения: DJI В официальном заявлении DJI говорится, что компания продолжает искать пути защиты своих интересов в правовом поле и восстановления справедливости. Она настаивает, что никак не контролируется китайскими властями и не имеет никакого отношения к китайскому оборонному комплексу. Фактически, доказательства этого были опубликованы американским судом в ходе изучения дела, как отмечается в пресс-релизе DJI. Представителей компании воодушевляет тот факт, что суд отмёл основную часть доводов американского министерства обороны. Не было найдено никаких доказательство того, что DJI каким-то образом контролируется Коммунистической партии Китая или принадлежит ей хотя бы частично. У DJI нет связей и правительством КНР, а также с участниками программы частно-государственного партнёрства в сфере оборонной промышленности. Всё это было признано судом, как подчёркивают представители DJI, но право Министерства обороны США считать компанию связанной с военной деятельностью КНР было сохранено за этим ведомством безосновательно. Всего два довода американских военных в части обвинения DJI не были признаны судом «произвольными и своенравными». Суд поддержал Пентагон в признании наличия у DJI статуса Центра национальных технологий, который присуждается в Китае всем производителям, способным оказывать существенное влияние на технологическое развитие страны. По сути, этот статус имеется у многих крупных американских компаний, работающих в пищевой, автомобильной и прочих отраслях промышленности КНР. Сам по себе такой статус никак не указывает на связи с оборонным сектором, как отмечают представители DJI. Суд также поддержал довод Пентагона о том, что технологии DJI могут иметь двойное применение — не только в мирных целях, другими словами. По словам представителей компании, многие коммерчески доступные изделия и технологии могут применяться на поле боя, но DJI никоим образом этому не способствует и всячески осуждает. Принимаются все меры со стороны производителя, чтобы дроны данной марки не применялись в военных целях. Осознанное производство дронов для военного применения компанией DJI никогда не осуществлялось. От своей политики максимального препятствования военному применению своих дронов компания не откажется вне зависимости от решений, принимаемых судом в США. Сейчас DJI изучает возможность продолжить защиту своих интересов в юридическом поле. Microsoft прекратила привлекать китайских инженеров к обслуживанию облачных систем Пентагона
20.07.2025 [05:05],
Алексей Разин
В конце этой недели в США разразился скандал, поскольку журналистское расследование выявило использование труда находящихся в Китае технических специалистов для обслуживания облачных систем Пентагона, работающих на вычислительных мощностях Microsoft. Компании пришлось пообещать, что подобная практика прекращена.
Источник изображения: Unsplash, Sam Torres Представитель Microsoft Фрэнк Шоу (Frank Shaw) со страниц социальной сети X в конце рабочей недели заявил, что корпорация изменила подход к обслуживанию американских правительственных клиентов, чтобы обеспечить отсутствие китайских инженеров среди лиц, выполняющих данные виды работ для систем, используемых Пентагоном. Напомним, ранее обнаружилось, что китайским субподрядчикам разрешалось работать с облачными системами Пентагона при условии, что их курируют американские специалисты с необходимым уровнем доступа. Выяснилось, что последние чаще всего не обладали достаточной технической квалификацией, чтобы понять характер осуществляемых китайскими подрядчиками действий и вовремя выявить возможную угрозу для национальной безопасности. Microsoft пришлось столкнуться с парламентским запросом одного из американских сенаторов, который назвал недопустимым использование китайских инженеров в столь чувствительной сфере. Министр обороны США Пит Хегсет (Pete Hegseth) накануне заявил, что запущено двухнедельное расследование, целью которого является исключение доступа китайских инженеров к любым облачным системам, имеющим отношение к деятельности ведомства. Он добавил, что иностранные инженеры в целом, включая китайских, никогда не должны иметь доступа к системам Министерства обороны США. Пентагон будет постоянно отслеживать угрозы для своей военной инфраструктуры и противодействовать им адекватно. Microsoft уличили в допуске китайцев к секретным облачным системам Пентагона
18.07.2025 [20:47],
Анжелла Марина
Американский сенатор Том Коттон (Tom Cotton) направил письмо министру обороны США с требованием предоставить подробную информацию о привлечении китайских инженеров компанией Microsoft к работе с военными облачными системами. С копией письма ознакомилось агентство Reuters. Поводом для запроса стало расследование издания ProPublica, в котором утверждается, что корпорация использовала специалистов из Китая для обслуживания критической инфраструктуры Пентагона.
Источник изображения: Simon Ray/Unsplash Согласно материалам ProPublica, китайские инженеры работали с американскими военными облачными системами под наблюдением так называемых «цифровых сопровождающих » (digital escorts) — сотрудников, имеющих допуск к секретной информации. Однако, как отмечает издание, эти сопровождающие зачастую не обладали достаточной технической квалификацией, чтобы оценить, представляет ли деятельность китайских специалистов угрозу в каком-либо плане. Microsoft отказалась комментировать Reuters как расследование ProPublica, так и письмо сенатора. Однако ранее компания заявляла изданию, что раскрывала свои методы работы правительству США в рамках процедуры авторизации. При этом, являясь крупным подрядчиком американских госструктур, Microsoft неоднократно становилась жертвой хакерских атак со стороны Китая и некоторых других стран. В своём письме Коттон, возглавляющий комитет по разведке Сената и входящий в состав комитета по вооружённым силам, потребовал от Министерства обороны предоставить список всех подрядчиков, использующих китайский персонал, а также информацию о подготовке «цифровых сопровождающих». Сенатор подчеркнул, что кибервозможности Китая представляют одну из самых серьёзных угроз для США, о чём свидетельствуют случаи проникновения в критическую инфраструктуру, телекоммуникационные сети и цепочки поставок. Военное ведомство, по его словам, обязано учитывать все потенциальные риски, включая угрозы со стороны субподрядчиков. |