|
Опрос
|
реклама
Быстрый переход
Anthropic возобновила переговоры с Пентагоном в надежде исправить ситуацию
05.03.2026 [07:37],
Алексей Разин
Прошлая пятница стала не очень удачной для истории развития ИИ-стартапа Anthropic, поскольку конфликт с Пентагоном по поводу этических ограничений на использование фирменных технологий привёл к отказу американского военного ведомства от сотрудничества с этой компанией. Она возобновила переговоры с Министерством войны США в надежде исправить ситуацию.
Источник изображения: Anthropic Об этом сообщает Bloomberg со ссылкой на собственные информированные источники. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) вернулся к переговорам с Пентагоном, рассчитывая найти применение фирменным ИИ-моделям в инфраструктуре этого ведомства. Со стороны последнего контактным лицом изначально выступал заместитель министра Эмиль Майкл (Emil Michael), отвечающий за разработки и инженерное направление. Стороны надеялись заключить контракт, определяющий возможности использования ИИ-технологий Anthropic американским военным ведомством, но в прошлую пятницу сделка развалилась из-за несогласия компании дать контрагенту полную свободу в использовании ИИ. Стартап моментально попал в перечень неблагонадёжных поставщиков, а конкурирующая OpenAI умудрилась заключить аналогичное соглашение с Пентагоном, причём на тех условиях, которых со скандалом пыталась добиться сама Anthropic. С минувшей пятницы переговоры с Anthropic успели возобновиться, как сообщает источник. Если стороны достигнут соглашения, это позволит компании сохранить доступ к обслуживанию американского военного ведомства, а также избежать окончательной блокировки на рынке правительственных услуг в США. Возможно, возвращение Anthropic на эту арену усложнит жизнь конкурирующей OpenAI, которая не преминула воспользоваться открывшейся возможностью занять место первой из компаний. О возобновлении переговоров между Пентагоном и Anthropic первым сообщило издание Financial Times. Противостояние с американскими властями могло бы дорого обойтись Anthropic, тогда как по приведённой годовой выручке компания уже догнала OpenAI, а по капитализации вышла на уровень $380 млрд. На стороне Anthropic выступили и другие технологические компании, включая Google и Apple, которые призвали президента США Дональда Трампа (Donald Trump) не включать компанию в список неблагонадёжных, поскольку прецедент имел бы губительные последствия для всей национальной отрасли. После Пентагона OpenAI нацелилась на контракт с НАТО — Альтман попросил сотрудников не спорить о политике
04.03.2026 [12:07],
Алексей Разин
Поскольку недавняя поспешная сделка OpenAI с Министерством войны США вызвала протест даже среди сотрудников стартапа, генеральный директор Сэм Альтман (Sam Altman) призвал их не давать оценок действиям Пентагона, добавив, что все операционные решения будут оставаться за властями США. По слухам, OpenAI также пытается заключить контракт с НАТО в целом.
Источник изображения: OpenAI Вчера, как отмечает CNBC, состоялось общее собрание сотрудников OpenAI, на котором обсуждалась тема недавней сделки с Пентагоном. Позиция Альтмана осталась неизменной с прошлой недели — сама компания не может влиять на то, как военные используют её технологии. «Может быть, вы думаете, что удар по Ирану был хорошей идеей, а вторжение в Венесуэлу плохой, но вам не нужно об этом рассуждать», — пояснил глава OpenAI. Компания, по его словам, не способна принимать операционные решения по использованию разработанных ею технологий ИИ американскими военными. Альтман добавил, что Пентагон с уважением относится к техническому опыту OpenAI, прислушивается к рекомендациям по оптимальному использованию ИИ, а также позволит определять границы безопасного применения технологий в тех случаях, когда сочтёт это уместным. При этом военное ведомство США чётко дало понять, что операционные решения останутся за его главой Питом Хегсетом (Pete Hegseth). Считается, что ИИ-решения конкурирующей Anthropic уже использовались Пентагоном не только при операции по захвату президента Венесуэлы в январе, но и при недавних атаках на Иран. Пентагон с прошлого года использует решения OpenAI в несекретных сферах своей деятельности, сумма профильного контракта составила $200 млн. Теперь профильные технологии смогут применяться и в секретных видах активности. «Я верю, что у нас будут лучшие ИИ-модели, которые вдохновят правительство работать с нами, даже если наши ограничения в сфере безопасности будут их раздражать. Но будет как минимум ещё одно действующее лицо, которым, я полагаю, станет xAI, которое фактически скажет: "Мы сделаем всё, что вы захотите"», — заявил Сэм Альтман. Агентство Reuters сообщило со ссылкой на The Wall Street Journal, что OpenAI рассматривает возможность заключения контракта с НАТО на использование технологий ИИ данной компании в несекретных системах. Альтман также заявил об этом на общем собрании персонала OpenAI. Учитывая главенствующую роль американского военного комплекса в функционировании альянса, в подобных намерениях стартапа нет ничего удивительного. Пентагон настаивает, что считает возможным использование ИИ в любых законных целях. Anthropic, а затем и OpenAI считают необходимым исключить использование ИИ для массовой слежки за гражданами США и управления системами вооружений, которые автоматически выбирают и уничтожают цели. OpenAI добивается того, чтобы её ИИ-системы не использовались АНБ и другими разведывательными структурами США, а в военной сфере применение ИИ ограничивалось только облачной инфраструктурой ведомства, а не конечными устройствами, управляющими оружием. Само заключение сделки с Пентагоном Альтман назвал крайне трудным, но правильным решением, которое будет иметь негативные последствия для имиджа OpenAI в краткосрочной перспективе. Сэм Альтман пообещал, что OpenAI внесёт поправки в «скользкий» контракт с Минобороны, чтобы защитить людей от слежки
03.03.2026 [13:52],
Алексей Разин
Вскоре после того, как Пентагон отказался от использования ИИ-моделей Anthropic из-за сопротивления руководства компании предоставить ведомству полную свободу их применения, соответствующая сделка была заключена с конкурирующей OpenAI. Глава последней Сэм Альтман (Sam Altman) признал, что этот шаг выглядел не очень красиво в сложившихся обстоятельствах.
Источник изображения: OpenAI Напомним, что до заключения сделки с Министерством войны США, как оно теперь называется, Альтман выражал солидарность с позицией своего бывшего соратника Дарио Амодеи (Dario Amodei), который ныне возглавляет Anthropic. Однако, как только военное ведомство США отказалось от услуг этой компании и начало искать альтернативу для внедрения в свою секретную инфраструктуру, сделка с OpenAI была заключена поспешно и на не самых прозрачных условиях. Альтман назидательно повторял после заключения контракта с Пентагоном, что интересы правительства выше принципов любой частной компании. В конце прошлой недели Альтман настаивал, что изначальный вариант соглашения OpenAI с Пентагоном подразумевал больше ограничений, чем все предыдущие случаи применения ИИ в секретных системах, включая сделку с Anthropic. К понедельнику генеральный директор OpenAI Сэм Альтман заявил, что заключать соглашение с Пентагоном не следовало бы в такой спешке, а его условия будут пересматриваться уже после сделки, и изменения вносятся в настоящий момент. Он отметил, что в тексте соглашения следовало бы явно прописать, что «ИИ-система не должна намеренно использоваться для наблюдения за гражданами и жителями США на территории страны». Как подчеркнул Альтман, Министерство войны понимает, что существуют подобного рода ограничения на применение ИИ, даже если данные о гражданах были получены третьей стороной. Соответствующие правки будут внесены в текст соглашения OpenAI с военным ведомством США. OpenAI также удалось получить от Министерства войны США гарантии того, что ИИ-инструменты компании не будут использоваться разведывательными структурами типа АНБ. Альтман пояснил: «Есть много вещей, к которым технология пока не готова, и много сфер, в которых мы не понимаем, какими должны быть уступки для обеспечения безопасности». Компания, по его словам, готова сотрудничать с Пентагоном для создания технических ограничений, обеспечивающих безопасное применение ИИ. Поспешность заключения сделки в пятницу он объяснил желанием снизить градус эскалации и избежать гораздо худшего исхода, но он понимает, что со стороны всё выглядело «оппортунистическим и скользким». Ещё в пятницу глава OpenAI сообщил, что Пентагон согласился на ограничения использования технологий, выдвинутые компанией. Публичное недовольство действиями OpenAI уже привело к тому, что люди начали отказываться от ChatGPT в пользу решений Anthropic. Последняя с момента своего основания в 2021 году делает особый упор на безопасное применение ИИ. Условия соглашения OpenAI с Пентагоном были пересмотрены не в последнюю очередь под давлением общественности. Даже сотрудники компании начали выражать недовольство первоначальным вариантом сделки. В минувшие выходные перед штаб-квартирой OpenAI в Сан-Франциско появилась выполненная мелом надпись "Нет массовой слежке!". Альтман добавил, что в тексте соглашения с Anthropic фигурировали простые формулировки ограничений, но не было ссылок на соответствующие законодательные акты, тогда как сама OpenAI в предоставлении таких ссылок проблем не видела. OpenAI подтверждает, что может ограничивать применение своих технологий для массовой слежки за гражданами США и управления вооружениями, предназначенными для автоматического выбора и уничтожения целей. Компания разрешила Пентагону применять свои ИИ-модели только в облачной части инфраструктуры с сохранением доступа к ним со стороны своих сотрудников, но не на конечном оборудовании военной техники, которое используется для управления оружием. В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях
03.03.2026 [12:04],
Павел Котов
OpenAI заключила с Пентагоном соглашение об использовании разработанных компанией систем искусственного интеллекта, сменив Anthropic, у которой возникли серьёзные сомнения в моральной стороне такого сотрудничества. В ответ на обеспокоенность общественности глава OpenAI Сэм Альтман (Sam Altman) объявил, что компания успешно договорилась с Министерством обороны США о новых условиях соглашения, но на деле это не вполне так, пишет The Verge.
Источник изображения: Mariia Shalabaieva / unsplash.com «Два важнейших для нас принципа безопасности — это запрет на внутреннюю массовую слежку и ответственность человека за применение силы, в том числе с автономными системами вооружения. Министерство обороны согласилось с этими принципами, отражая их в законах и политике, и мы включили их в наше соглашение», — подчеркнул Альтман. В соцсетях, однако, стали выражать сомнения по поводу того, что OpenAI удалось договориться с Пентагоном о соблюдении этих ограничений. Эксперты считают, что в действительности Министерство обороны США не уступило, и сделка с OpenAI предполагает более мягкие условия для ведомства — всё упирается в формулировку «любое законное применение». В ходе переговоров, сообщил осведомлённый источник издания, Пентагон не отступал от желания собирать и анализировать большие объёмы данных, связанных с гражданами США; OpenAI же открыла военным возможность выполнять любые действия, которые с технической точки зрения являются законными. За последние десятилетия американские власти в значительной мере расширили представления о том, что «технически законно», и в это определение сейчас включаются программы массовой слежки. В OpenAI, впрочем, такую интерпретацию отвергли. «Систему нельзя использовать для сбора или анализа данных американцев в больших объёмах, в неограниченном объёме или в обобщённом виде», — заявила представитель компании. Важнейшим достоинством систем ИИ является их умение находить закономерности, а поведение человека — это как раз набор закономерностей. ИИ способен объединять источники данных для каждого человека: информацию о местоположении, о просмотре веб-страниц, личную финансовую информацию, записи с камер видеонаблюдения, данные о регистрации избирателей и многое другое — часть из этого массива находится в открытом доступе, а часть приобретается у брокеров данных. Anthropic добивалась того, чтобы эти действия не допускались вне зависимости от их правового статуса, а OpenAI ограничилась существующими законодательными ограничениями. Упоминаются, в частности, Четвёртая поправка к Конституции США, «Закон о национальной безопасности» от 1947 года, «Закон о внешней разведке и наблюдении» от 1978 года, Исполнительный указ номер 12333, а также директивы ведомства, в которых указываются конкретные цели в области внешней разведки.
Источник изображения: Growtika / unsplash.com После трагедии 11 сентября 2001 года американские спецслужбы усилили систему слежки, сохранив её, по их мнению, в пределах действующего законодательства. В 2013 году подрядчик Агентства национальной безопасности Эдвард Сноуден (Edward Snowden) раскрыл истинные масштабы происходящего: запись телефонных разговоров абонентов оператора Verizon и сбор данных о физических лицах у технологических компаний, в том числе Microsoft, Google и Apple. А исполнительный указ 12333 позволяет спецслужбам перехватывать данные вне США, даже если эти данные содержат сведения о гражданах страны, отмечают эксперты. Глава Anthropic Дарио Амодеи (Dario Amodei) отмечал, что закон ещё не описывает всех возможностей ИИ по проведению массовой слежки. Альтман, в свою очередь подчеркнул, что контракт OpenAI с Пентагоном ограничен действующим законодательством, то есть если в США начнут действовать новые нормы, формулировки соглашения останутся прежними. Эксперты, однако, обращают внимание, что использованные представителем компании формулировки не дают возможности определить, что именно запрещается в соглашении. «Использование слов „неограниченный“, „обобщённый“, „открытый“ способ — это не полный запрет. Это формулировка, призванная дать руководству свободу выбора. <..> Она также позволяет руководству не лгать сотрудникам, если Пентагон на законных основаниях будет использовать большие языковые модели без ведома руководства OpenAI», — говорят эксперты. Соглашение с OpenAI и действующие правовые ограничения позволяют Пентагону, например, искать информацию об американцах по базам иностранных разведок, скупать базы у брокеров данных и создания профилей граждан по их типичному поведению на основе материалов видеонаблюдения, публикаций в соцсетях, новостей онлайн, данных о регистрации избирателей и других источников. Сомнения вызывает и позиция OpenAI по поводу автономного летального оружия. В контракте компании с Пентагоном говорится о том, что её ИИ «не будет использоваться для самостоятельного управления автономным оружием в тех случаях, когда закон, нормативные акты или политика Министерства требуют контроля со стороны человека», что соответствует директиве Пентагона от 2023 года, но не предполагает иных запретов и ограничений. Для сравнения, Anthropic добивалась полного запрета на неконтролируемое летальное автономное оружие как минимум до тех пор, пока разработчик сам не сочтёт эту технологию готовой к работе.
Источник изображения: Gavin Phillips / unsplash.com Альтман указывает и на другие решения, способные гарантировать, что Пентагон не станет злоупотреблять возможностями ИИ-моделей OpenAI. Некоторые сотрудники компании получат доступ к секретной информации для проверки систем; будут развёрнуты «классификаторы» — небольшие модели ИИ, способные следить за работой больших и по необходимости блокировать для них некоторые операции. На практике эти меры могут не помочь. Классификатор не сможет подтвердить, проверял ли человек решение системы о нанесении удара, а также является ли запрос на составление профиля американского гражданина единичным или входящим в систему массового наблюдения. И если власти объявят какую-либо операцию законной, классификатор не сможет предотвратить её выполнение. OpenAI говорит об «ответственности человека за применение силы, в том числе в случае с автономными системами вооружения»; Anthropic же требовала вообще не развёртывать эти системы «без надлежащего контроля [со стороны человека]». Это может значить, что в сценарии OpenAI можно будет привлечь к ответственности некое лицо уже после факта нанесения удара, а сценарий Anthropic предусматривает участие людей до и/или во время принятия ИИ решения об уничтожении других людей. OpenAI говорит о технической защите своих систем от возможности строить «роботов-убийц»: для этого применяются средства дополнительного обучения ИИ, а также запуск моделей только в облачной инфраструктуре, а не локально на устройствах. В случае массового наблюдения, однако, подойдёт только способная работать в облаке модель; а в сценарии с автономным оружием непосредственное решение об атаке может принимать сторонняя локальная модель, тогда как система OpenAI возьмёт на себя все предшествующие этапы. «Полностью автономное оружие (то, что полностью исключает участие человека в автоматическом выборе и поражении целей) может оказаться критически важным для нашей национальной обороны. Но сегодня передовые системы ИИ просто недостаточно надёжны для обеспечения [его] работы», — предупредил глава Anthropic Дарио Амодеи. Скандал между Anthropic с Пентагоном может обойтись стартапу потерей инвестиций на $60 млрд
03.03.2026 [08:49],
Алексей Разин
Как и OpenAI, конкурирующий стартап Anthropic остаётся частной компанией, хотя привлекает для своего развития весьма серьёзные суммы денег. Более 200 венчурных инвесторов вложили в Anthropic в общей сложности более $60 млрд, и теперь их доверие будет испытано на прочность скандалом, в который компания оказалась втянута из-за противоречий с Пентагоном.
Источник изображения: Anthropic Напомним, что в конце прошлой недели американское военное ведомство отказалось от использования ИИ-разработок Anthropic в секретной части своей инфраструктуры, поскольку стартап настаивал на блокировке использования своих систем для массового слежения за гражданами США и управления теми видами вооружений, которые способны принимать решение о выборе и уничтожении целей без участия человека. Проблем в переговорах добавили и некоторые другие факторы, но они не были первостепенными. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) настаивает, что для применения в указанных видах вооружений ИИ пока не достиг адекватного развития, а в случае с массовым сбором информации о гражданах США не готова законодательная база. Контракт с Пентагоном был сорван, решения Anthropic были запрещены к использованию всеми американскими правительственными структурами, за шесть месяцев им предстоит найти альтернативу. Публикация Амодеи на страницах корпоративного блога, в которой обсуждались коренные причины спора с Министерством войны США, как отмечает Axios, вызвала в Белом доме дополнительное раздражение. Чиновники опасаются, что своими публичными выступлениями руководство Anthropic «заразит» специалистов других ИИ-компаний, с которыми Пентагон хотел бы наладить сотрудничество. Если запрет на сотрудничество с Anthropic распространится на прочих подрядчиков Пентагона, компания может пострадать серьёзным образом. По крайней мере, та же Nvidia может лишиться возможности снабжать Anthropic своими ускорителями вычислений, а без них развитие бизнеса стартапа станет проблематичным. Как известно, Anthropic своё отнесение к числу сомнительных поставщиков хочет оспорить в суде. По данным Axios, венчурные инвесторы исторически старались избегать вложения средств в капиталы компаний, связанных с правительственными заказами, поскольку эта сфера казалась довольно рискованной и непредсказуемой. Исключением была сфера только биотехнологий, но в последние годы венчурные капиталисты стали посматривать и на другие области, в которых стартапы вели активное сотрудничество с властями. Ситуация с Anthropic снова заставляет инвесторов задуматься, а нужно ли слепо доверять компаниям, пытающимся наладить сотрудничество с правительством. На репутации Anthropic, которая в основном зарабатывает на корпоративных заказах, данный скандал тоже скажется не лучшим образом. ChatGPT подвергли «отмене» за сотрудничество OpenAI с Пентагоном
02.03.2026 [13:27],
Павел Котов
Обеспокоенные сомнительным сценарием сотрудничества компании OpenAI и Министерства обороны США представители американской общественности сформировали движение по «отмене ChatGPT». Цель движения — поддержать попавшую в «чёрный список» Пентагона компанию Anthropic, которая запретила использовать свои модели искусственного интеллекта для некоторых целей.
Источник изображения: Levart_Photographer / unsplash.com Конфликт Anthropic и Пентагона разгорелся на почве двух «красных линий», которые разработчик ИИ переходить отказался. Компания не захотела, чтобы её модели самостоятельно принимали решения о применении оружия по человеку, а также чтобы они использовались для наблюдения за американскими гражданами. В результате соглашение с Anthropic расторгли, а саму компанию поместили в «чёрный список», запретив всем оборонным подрядчикам с ней сотрудничать. Место Anthropic в системах Пентагона заняла OpenAI. Глава компании Сэм Альтман (Sam Altman) пообещал, что её модели не станут использоваться для массового наблюдения, но представитель американского правительства опроверг это утверждение и заявил, что они будут работать во «всех законных сценариях», а принятый после трагедии 11 сентября 2001 года «Патриотический акт» позволяет, в частности, собирать метаданные в сетях связи, даже с учётом того, что некоторые его аспекты в последние годы ограничили.
Источник изображения: Dima Solomin / unsplash.com Этот шаг вызвал резко отрицательную реакцию в сетевых сообществах — люди, которые заявляли, что прекращают пользоваться ChatGPT, стали получать положительные оценки. Следует отметить, что пересекать указанные Anthropic «красные линии» отказываются далеко не все крупные разработчики ИИ. Во внутренних правилах Google такой запрет значился ранее, но теперь компания его отменила. Microsoft не возражает против использования оружия с ИИ, если собственно выстрел производит человек. Amazon ограничивается расплывчатой формулировкой об «ответственном использовании» ИИ. Впоследствии Сэм Альтман повторил тезис, что Министерство обороны США будет соблюдать заявленные компанией «красные линии» в отношении автономного оружия и массового наблюдения за гражданами США, но не внёс ясности, как эти гарантии будут реализованы. Глава OpenAI сослался на действующее в США законодательство, а оно, в частности, допускает наблюдение за лицами без американского гражданства, и в этих целях позволяет косвенным или случайным образом собирать данные о гражданах страны. В глазах общественности, однако, OpenAI предоставила Пентагону возможность интерпретировать, что считается законным, а Anthropic решила сохранить полный контроль над использованием своих технологий. В результате приложение Anthropic Claude AI выбилось в лидеры официальных магазинов как для Android, так и для iOS; оно также выпущено для Windows 11. Пентагон и Anthropic пытались спасти сделку до последнего момента
02.03.2026 [08:30],
Алексей Разин
На прошлой неделе вокруг сотрудничества Anthropic с Министерством обороны США разразился скандал, который привёл к включению компании в список неблагонадёжных поставщиков и потере ею всех правительственных контрактов. Как поясняет The Atlantic, даже на поздних этапах переговоров противоречия пытались сглаживаться обеими сторонами, но им так и не удалось найти общий язык.
Источник изображения: Unsplash, Sergey Koznov Напомним, компанию Anthropic смущала перспектива использования её ИИ-систем для массового слежения за гражданами США и автономно управляемых систем вооружения, которые могли бы самостоятельно определять цели и уничтожать их. Ещё в пятницу утром, как сообщает источник, представители американского военного ведомства были готовы пойти на уступки, прописав в тексте контракта соответствующие ограничения, но с важной оговоркой. В исключительных случаях Министерство войны США, как оно теперь называется, хотело оставить за собой право и следить за гражданами страны, и применять ИИ для управления системами вооружений. Представители Anthropic до последнего момента надеялись, что вторая сторона переговоров подобные исключения прописывать не будет, но чуда не произошло, а потому всё завершилось срывом контракта. Главная причина, которая этому способствовала, заключалась в намерениях властей США использовать ИИ компании Anthropic для анализа данных, собираемых об активности американских граждан. Переписка с чат-ботами, социальные сети, история поиска в Google, перемещения с указаниями координат GPS, транзакции по банковским картам и счетам — все эти данные о конкретном гражданине могли быть проанализированы и взаимосвязаны для нужд правительственных структур США. Anthropic это явно не устраивало, поэтому данное противоречие и стало ключевым в развале сделки с Пентагоном. В части управления системами вооружений Anthropic не противилась данной идее в целом, но пыталась сделать его более безопасным. Руководство компании считает, что на современном этапе развития ИИ не настолько совершенен, чтобы управлять вооружениями в полной мере. На одном из этапов переговоров Anthropic настаивала, чтобы её ИИ применялся военными только в пределах облачной инфраструктуры, не переходя на периферийный уровень — грубо говоря, внутри самого дрона или иного автономного средства уничтожения целей. Если бы дроны при таком разделении допускали фатальные ошибки, номинально ИИ компании Anthropic нельзя было бы обвинить в них. Пентагон подобного разделения обеспечить не мог, поскольку современная архитектура управления военной техникой и живой силой не подразумевает чёткой границы между облачными и периферийными вычислениями. Anthropic сама пришла к выводу, что изолировать свой ИИ в облаке она не сможет, а потому связываться с управлением вооружениями лучше вообще не следует. Отдельного внимания заслуживает поведение конкурирующей OpenAI, чей руководитель Сэм Альтман (Sam Altman) выражал солидарность с Anthropic за несколько часов до того, как объявил о достижении договорённости с Пентагоном об использовании ИИ этой компании в секретных системах американского военного ведомства. Он поделился своими взглядами на ситуацию с Anthropic, и ключевой его тезис заключается в том, что в вопросах такого уровня последнее слово должно оставаться не за частной компанией, а за государством. Глава OpenAI заявил, что частные компании не могут иметь больше власти, чем правительство США
02.03.2026 [07:33],
Алексей Разин
Вечером в пятницу Сэм Альтман (Sam Altman) заявил, что возглавляемая им OpenAI заключила с Пентагоном контракт на внедрение технологий ИИ в секретные системы этого ведомства. Чтобы развеять страхи и сомнения общественности по поводу её условий, Альтман провёл сессию вопросов и ответов, заявив о верховенстве демократически избранного правительства над принципами любых частных компаний.
Источник изображения: OpenAI Напомним, попытки Пентагона внедрить ИИ разработки Anthropic в свои секретные системы без ограничений на его использование наткнулись на протест со стороны разработчиков, в результате контракт на $200 млн был расторгнут, а сама Anthropic попала в список неблагонадёжных поставщиков. Использовать её разработки всем американским правительственным структурам было запрещено, в течение шести месяцев они должны найти замену сервисам Anthropic. Альтман на страницах социальной сети X сообщил, что сделка между OpenAI и Пентагоном была заключена очень быстро для снижения накала ситуации, в обычных условиях переговоры заняли бы больше времени. Он признал, что если сделка OpenAI позволит снизить напряжённость в отношениях Министерства обороны США (с недавних пор — Министерства войны) с представителями отрасли, то на имидже компании это скажется положительным образом. Если же устранить эти противоречия не удастся, то OpenAI обвинят в небрежности и поспешности заключения сделки, как заявил Альтман. Впрочем, пока он видит больше положительных для OpenAI сигналов в этой сфере. Рассуждая, почему именно OpenAI была выбрана в роли подрядчика американскими военными, а не Anthropic, Альтман предположил, что на уровне «языка контракта» обе стороны пришли к согласию быстрее, чем в случае с конкурентом. Глава OpenAI выдвинул гипотезу, что Anthropic пыталась сохранить больше операционного контроля за использованием своих разработок Пентагоном, чем это пытается сделать его компания. Говоря о так называемых «красных линиях», Альтман назвал три ключевых принципа, которых OpenAI готова придерживаться в сфере этики применения ИИ своими клиентами. С другой стороны, как отмечает глава компании, она готова пересматривать данные принципы по мере развития технологий, но при некотором стечении обстоятельств «красных линий» может стать больше. «Для нас нормально, если ChatGPT будет искать ответ на тот или иной противоречивый вопрос. Но я действительно не хотел бы, чтобы мы решали, что делать, если ядерная бомба будет направлена против США», — пояснил позицию OpenAI Альтман. Он добавил, что страной руководят демократически избранные лидеры, и было бы странно, если бы частная компания сама решала, что этично, а что нет, в самых важных областях. По словам Альтмана, переговоры между OpenAI и Пентагоном по поводу использования ИИ-сервисов компании в несекретной части бизнес-процессов ведомства велись на протяжении долгих месяцев, но сферы секретных операций они коснулись лишь недавно. В своих переговорах с Министерством обороны США, как подчеркнул Альтман, OpenAI старалась добиться равных условий взаимодействия ведомства со всеми участниками рынка. Глава компании пояснил, что Anthropic в этой ситуации выглядит не очень красиво, поскольку она сперва поясняет правительству, что в сфере ИИ на международной арене имеются некоторые риски, а потом отказывается помогать ему, обвиняя в разного рода грехах. Реакцию властей США в этой ситуации можно понять, как считает Альтман. По его словам, руководители частных компаний не должны иметь столько же власти, как избранные правители, но помогать последним они могут. Глава OpenAI привёл два примера использования ИИ в сфере национальной безопасности, которые способны продемонстрировать его реальную пользу. Во-первых, ИИ может применяться для защиты от массовых хакерских атак. Во-вторых, сфера биологической безопасности может стать тем полигоном применения ИИ, который позволит предотвратить новую пандемию, например. Anthropic обжалует в суде своё внесение в «чёрный список»
01.03.2026 [13:49],
Владимир Мироненко
Anthropic пообещала обжаловать в суде решение Министерства обороны США о её внесении в чёрный список поставщиков, представляющих риск для национальной безопасности, из-за отказа предоставить ведомству право использования своей модели Claude без каких-либо ограничений, добавив, что она «глубоко опечалена» эскалацией спора.
Источник изображения: Anthropic В пятницу президент Дональд Трамп (Donald Trump и министр обороны Пит Хегсет (Pete Hegseth) пригрозили лишить Anthropic не только контракта на $200 млн с Пентагоном, но и многочисленных клиентов, присвоив ей статус «риска для цепочки поставок» (Supply Chain Risk), который исторически применяется к угрозам национальной безопасности, в частности, к китайским компаниям. В ответ компания заявила, что «никакое запугивание или угроза наказания» со стороны Министерства обороны США не изменит её позицию в отношении запрета использования Claude для массового слежения за американскими гражданами и полностью автоматизированных систем вооружений. «Мы будем оспаривать любое определение риска в цепочке поставок в суде», — сообщила Anthropic, также сославшись на статью 10 USC 3252, которая гласит, что определение риска для цепочки поставок может распространяться только на контракты с Пентагоном, то есть это определение не может относиться к военным подрядчикам, которые используют Claude для обслуживания других клиентов. Anthropic заявила, что этот спор не касается клиентов или компаний, имеющих с ней коммерческие контракты: «Если вы являетесь индивидуальным клиентом или имеете коммерческий контракт с Anthropic, ваш доступ к Claude — через наш API, claude.ai или любой из наших продуктов — совершенно не затронут». Компания добавила, что для подрядчиков Пентагона определение риска для цепочки поставок — если оно будет официально принято — повлияет только на использование Claude в рамках контрактов Министерства обороны США. При использовании ИИ-технологии в любых других целях всё остается без изменений. OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic
28.02.2026 [08:12],
Алексей Разин
Драма, которая развивалась вокруг несогласия руководства Anthropic с бесконтрольным использованием ИИ американскими военными, получила новый этап развития вечером в пятницу, когда глава OpenAI Сэм Альтман (Sam Altman) подтвердил достижение договорённости с Пентагоном об адаптации решений этой компании под нужды ведомства.
Источник изображения: OpenAI По словам Альтмана, на которые ссылается CNBC, компании OpenAI удалось договориться с Министерством обороны США об условиях использования её разработок в секретных системах данного ведомства. «На всех этапах нашего взаимодействия Министерство обороны выражало глубокое уважение к безопасности и стремление к сотрудничеству с целью достижения максимально благоприятных итогов», — сообщил Альтман в своей публикации на страницах социальной сети X. Напомним, что нежелание Anthropic разрешить Пентагону использование своих разработок без предусмотренных компанией этических ограничений привело к отказу ведомства от контракта с компанией на $200 млн, а также включению Anthropic в список сомнительных поставщиков, представляющих угрозу для национальной безопасности. Всем американским правительственным структурам велено незамедлительно прекратить использование чат-бота Claude, и в течение шести месяцев найти альтернативу. Что характерно, Сэм Альтман заявил о готовности Министерства обороны США соблюдать предусмотренные OpenAI ограничения на использование ИИ. Два принципа, вокруг которых разразился спор между Пентагоном и Anthropic, найдут отображение в тексте контракта с OpenAI и будут соблюдаться американским оборонным ведомством, как заявил глава компании. Речь идёт о неприменении ИИ для массовой слежки за американскими гражданами и неиспользовании ИИ для управления полностью автономными системами вооружения, которые способы истреблять людей без санкции человека. По словам Альтмана, OpenAI позаботится о том, чтобы эти принципы соблюдались государственным заказчиком. За безопасность в этой сфере будут отвечать отдельные специалисты на стороне OpenAI. Попутно Альтман призвал Пентагон распространить такие условия сотрудничества на все компании в сфере ИИ, чтобы устранить возникшие противоречия с некоторыми участниками рынка. Представители Anthropic выразили глубокое разочарование решением Пентагона о включении их компании в список неблагонадёжных поставщиков. Разработчик оставляет за собой право оспорить данное решение в суде. Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном
28.02.2026 [07:15],
Алексей Разин
Эта неделя характеризуется разразившимся скандалом между Anthropic и её правительственным клиентом в лице Министерства обороны США, который настаивал на более широком применении ИИ, чем подразумевали правила разработчика. Сотни сотрудников OpenAI и Google выразили солидарность с позицией Anthropic, которая выступает против бесконтрольного использования ИИ властями.
Источник изображения: Anthropic Напомним, Anthropic желает не допустить применения своей ИИ-модели Claude американскими военными для сбора данных об американских гражданах и управления полностью автономными системами вооружений, конечное применение которых не сможет контролировать человек. В открытом письме под заголовком «Нас не разделить» сотрудники OpenAI и Google призвали руководство своих компаний оставить разногласия и выступить вместе ради запрета на использование ИИ-моделей для слежки за гражданами США и уничтожения одних людей без контроля за процессом со стороны других. Как отмечает Engadget, петиция успела набрать более 450 подписей, подавляющая часть которых поставлена сотрудниками Google. При этом примерно половина подписавших её раскрыла свои имена, остальные действовали анонимно. Все подписавшие петицию являются сотрудниками одной из двух указанных компаний. Авторы петиции при этом не причисляют себя ни к каким ИИ-компаниям, политическим партиям или юридическим объединениям. Вчера стало известно, что на фоне отказа Anthropic предоставить Пентагону неограниченный доступ к использованию Claude в военных целях американские власти включили компанию в «чёрный список», и теперь всем связанным с военными контрактами США подрядчикам в течение шести месяцев нужно будет найти альтернативу Claude, а саму эту ИИ-модель нужно прекратить использовать немедленно. Переговоры Пентагона с OpenAI и Google уже ведутся, а ещё ведомство располагает действующим контрактом с xAI на использование чат-бота Grok в своих секретных системах. Генеральный директор OpenAI Сэм Альтман (Sam Altman) не только обратился к сотрудникам с заявлением о готовности придерживаться схожих с Anthropic принципов, но и признался CNBC, что не считает уместным применение угроз со стороны Пентагона ко всем участникам рынка. Пентагон поместил непокорную Anthropic в чёрный список и в течение шести месяцев перейдёт на альтернативы Claude
28.02.2026 [06:40],
Алексей Разин
На данный момент Anthropic остаётся единственной компанией, чья ИИ-модель Claude одобрена Министерством обороны США для работы с секретными ведомственными системами. Несогласие Anthropic предоставить этому ведомству право неограниченного использования своих разработок привело к тому, что Пентагон поместил компанию в «чёрный список» и откажется от её услуг.
Источник изображения: Anthropic Напомним, что суть спора между руководством Anthropic и Министерством обороны США свелась к допустимым областям применения фирменных ИИ-систем. Разработчик утверждает, что не допустит использования Claude для слежения за американскими гражданами и применения полностью автоматизированных систем вооружений, которые не подразумевают принятия окончательного решения человеком. Пентагон, который за контракт с Anthropic выложил $200 млн, считает, что может полностью распоряжаться приобретаемым ПО и применять его в любых законных целях. Попытки продавить позицию руководства Anthropic со стороны американского военного ведомства ничем не увенчались, а потому к вечеру пятницы компания попала в список поставщиков, представляющих риск для национальной безопасности. Традиционно в нём состоят компании, преимущественно имеющие связи с геополитическими оппонентами США. Anthropic данное решение американских властей готова оспаривать в суде, но пока не подала соответствующего иска. Пентагон также требует от своих подрядчиков в течение шести месяцев отказаться от использования Claude в пользу решений других разработчиков. Президент США Дональд Трамп (Donald Trump) со страниц собственной социальной сети Truth Social потребовал от всех правительственных ведомств немедленно прекратить использование любых разработок Anthropic. Перед введением запрета представители Министерства обороны США пытались договориться с Anthropic о послаблениях в политике последней, которые позволили бы собирать и анализировать данные граждан США, включая их геопозицию, персональные финансовые данные и историю браузера — всё это планировалось покупать у специализированных брокеров. Пентагон теперь, как утверждает Axios, собирается перейти на использование ИИ-моделей OpenAI, хотя эта компания обладает схожими ограничениями с Anthropic в сфере применения своего ПО в разведывательных и военных целях. Подрядчикам Пентагона придётся доказывать, что они не используют решения Anthropic в своей деятельности. При этом чисто с технической точки зрения представители Пентагона до сих были довольны итогами использования продуктов Anthropic, и необходимость предстоящей миграции вызывает у них сильный дискомфорт. Компании Palantir также придётся перейти на альтернативу. Представители Пентагона обрушились с обвинениями в адрес генерального директора Anthropic Дарио Амодеи (Dario Amodei), назвав его «лжецом с комплексом Бога, который ставит под угрозу всю национальную безопасность». Недавно стартапу Илона Маска (Elon Musk) xAI удалось заключить контракт с Пентагоном на использование Grok в секретных системах американского ведомства. Источники считают, что полноценной и прямой заменой Claude данное решение стать не сможет. Gemini компании Google и ChatGPT компании OpenAI применяются американскими военными в системах общего назначения, и теперь Пентагон ускорит переговоры об их внедрении в секретной сфере. Сотрудники Google и OpenAI начали демонстрировать солидарность с Anthropic и пытаются выразить свой протест в форме открытых петиций, поддержку последней компании выражают и прочие общественные группы. Anthropic отказала Пентагону в неограниченном военном применении ИИ, несмотря на угрозы
27.02.2026 [14:05],
Владимир Мироненко
Anthropic отказалась выполнить требование Министерства обороны США предоставить неограниченный доступ к своим ИИ-технологиям, несмотря на то, что это ставит под угрозу её контракт с военным ведомством на $200 млн. На встрече в Белом доме министр обороны Пит Хегсет (Pete Hegseth) дал компании время на обдумывание предложения до конца рабочего дня в пятницу, но компания уже в четверг заявила об отказе.
Источник изображения: Anthropic По словам представителя Министерства обороны США, другие ведущие компании в сфере ИИ поддержали требование ведомства, чтобы военные имели полную свободу использовать мощные ИИ-инструменты по своему усмотрению. OpenAI, разработчик ChatGPT, Google и xAI Илона Маска (Elon Musk) согласились разрешить Пентагону использовать их ИИ-системы для «всех законных целей» в незасекреченных сетях, и работают над соглашениями для засекреченных сетей. В опубликованном в четверг заявлении генеральный директор Anthropic Дарио Амодеи (Dario Amodei) написал: «Я глубоко верю в экзистенциальную важность использования ИИ для защиты Соединённых Штатов и других демократических стран. Поэтому Anthropic активно работала над внедрением своих моделей в Министерство обороны и разведывательное сообщество». Он подчеркнул, что компания «никогда не высказывала возражений против конкретных военных операций и не пыталась ограничивать использование технологии произвольно», и добавил, что в «узком круге случаев мы считаем, что ИИ может подрывать, а не защищать демократические ценности». По словам Амодеи, у компании есть две «красные линии», которые она не будет пересекать: никакого массового наблюдения за американцами и никакого летального автономного оружия (или оружия, имеющего лицензию на уничтожение целей без какого-либо человеческого контроля). Возможно, в будущем Anthropic согласится на использование полностью автономного оружия военными, но сейчас она к этому не готова, добавил он. Сообщается, что Пентагон уже обратился к крупным оборонным подрядчикам с просьбой оценить их зависимость от ИИ-модели Claude компании Anthropic. Из-за позиции Anthropic военное ведомство вполне может объявить её «риском для цепочки поставок», что затронет не только Anthropic, но и любую фирму, использующую ИИ компании. Обычно эта классификация применяется к угрозам национальной безопасности, в частности, к китайским и российским компаниям. «Мы можем потребовать от всех наших поставщиков и подрядчиков подтверждения того, что они не используют никакие антропогенные модели», — сообщил газете The Washington Post представитель Пентагона. Сообщается также, что Пентагон рассматривает возможность применения «Закона об оборонном производстве» 1950 года, который позволяет федеральной власти вмешиваться в деятельность частных компаний, чтобы заставить Anthropic выполнить требование. Амодеи указал в своём заявлении, что «угрозы Пентагона не меняют нашей позиции: мы не можем с чистой совестью удовлетворить их просьбу». Он добавил, что «если министерство решит отказаться от услуг Anthropic, мы будем работать над обеспечением плавного перехода к другому поставщику, избегая любых сбоев в текущем военном планировании, операциях или других важных миссиях. Наши модели будут доступны на предложенных нами расширенных условиях столько, сколько потребуется». Пентагон поставил Anthropic ультиматум: открыть полный доступ к ИИ до пятницы или столкнуться с санкциями
25.02.2026 [11:12],
Павел Котов
Министерство обороны США дало компании Anthropic время до вечера пятницы, 27 февраля, чтобы та открыла ведомству полный доступ к модели искусственного интеллекта — в противном случае разработчику придётся готовиться к последствиям, передаёт Axios.
Источник изображения: anthropic.com На состоявшейся накануне встрече министр обороны США Пит Хегсет (Pete Hegseth) заявил главе Anthropic Дарио Амодеи (Dario Amodei), что Пентагон либо объявит компанию «угрозой цепочке поставок» — этот статус обычно присваивается иностранному противнику, — либо задействует «Закон о производстве продукции оборонного назначения» (DPA), чтобы принудить компанию адаптировать модель ИИ к потребностям армии. DPA наделяет президента правом заставлять компании отдавать приоритет или расширять производство для оборонных нужд. В годы пандемии этот закон задействовали, чтобы принудить General Motors и 3M выпускать аппараты ИВЛ и маски соответственно. Anthropic не хочет, чтобы её технологии использовались для массового наблюдения за американцами, а также для создания полностью автономного оружия, и отказывается идти на компромиссы по этим вопросам. В Пентагоне настаивают, что применение технологий военными должно регулироваться законодательством США и конституционными ограничениями, а не политикой частных подрядчиков. Применение DPA в области ИИ значительно расширит практическое применение этого закона; Anthropic же действительно не планирует ослаблять ограничения на использование своих моделей, узнало Reuters. Сейчас Anthropic является единственной передовой лабораторией ИИ, продукция которой имеет доступ к секретным материалам Министерства обороны — резервный вариант отсутствует, хотя, по неофициальным данным, Пентагон уже договорился с xAI о применении Grok в секретных системах. Отсутствие альтернативного варианта могло бы объяснить агрессивную политику ведомства, считают эксперты. Противоречивого бота xAI Grok допустят к секретным военным системам США
24.02.2026 [18:15],
Сергей Сурабекянц
Компания Илона Маска (Elon Musk) xAI, занимающаяся разработкой искусственного интеллекта, подписала соглашение, разрешающее военным использовать свою модель Grok в секретных системах, подтвердил сегодня представитель Министерства обороны США.
Источник изображения: xAI До сегодняшнего дня Claude от Anthropic была единственной моделью, применяемой военными США для секретной разведывательной деятельности, разработки оружия и боевых операций. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. Но Anthropic требует гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки полностью автономного оружия. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. Anthropic отказалась выполнить требование Пентагона о предоставлении Claude для «всех законных целей», что вызвало резкую реакцию со стороны военного ведомства. Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей с Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic.
Источник изображения: Anthropic Фактически, министр обороны США предъявил Anthropic ультиматум. В свою очередь xAI согласилась с требованием Пентагона по поводу использования ИИ для «всех законных целей», хотя пока неясно, сможет ли xAI полностью заменить Anthropic, и сколько времени займёт этот процесс. Представители Министерства обороны признают, что заменить Claude будет очень непросто. Осведомлённые источники сообщают, что Пентагон также ускорил переговоры с другими ведущими разработчиками ИИ, готовясь к возможному разрыву отношений с Anthropic. В частности, сообщается, что Пентагон «обратился к OpenAI, чтобы возобновить переговоры с новой силой», хотя стороны всё ещё «далеки от заключения сделки». New York Times сообщила, что Google «близка» к сделке, разрешающей использование Gemini в секретных целях, в то время как OpenAI «далека». Представитель Министерства обороны опроверг это утверждение, заявив, что переговоры ведутся с обеими компаниями, и ведомство полагает, что обе компании подпишут соглашения при условии согласия с критерием «всех законных целей». |