Сегодня 07 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → anthropic
Быстрый переход

Разработчик доверил Claude Code управление AWS — ИИ полностью удалил два сайта и базу данных

Помогающие в написании программного кода агенты искусственного интеллекта, такие как Anthropic Claude Code никогда не дают стопроцентной гарантии результата, и в отдельных случаях возможны неприятные инциденты, например, с удалением данных. Но в случае с разработчиком Алексеем Григорьевым виновником оказался не ИИ, а человеческий фактор.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Разработчик решил перенести свой сайт в облачную инфраструктуру Amazon Web Services (AWS), где уже находился другой его ресурс. Claude Code не рекомендовал этот вариант, но пользователь посчитал, что поддерживать две конфигурации слишком трудозатратно. Для управления инфраструктурой он выбрал утилиту Terraform, которая поддерживает создание (равно как и удаление) ресурсов со всеми настройками, включая сети, балансировку нагрузки, базы данных и сами серверы. Алексей попросил Claude Code выполнить план Terraform для настройки нового сайта, но забыл загрузить файл состояния с полным описанием текущей конфигурации.

В результате ИИ-агент выполнил команду разработчика и создал контейнер для подлежащего переносу сайта, но пользователь сам остановил процесс на полпути. Из-за отсутствия файла состояния ресурсы начали дублироваться. Разработчик распорядился определить дубликаты ресурсов, чтобы исправить ситуацию, а затем всё-таки загрузил файл состояния, решив, что разобрался в проблеме. Алексей предположил, что ИИ-агент продолжит удалять дубликаты ресурсов, а затем откроет файл состояния, чтобы понять, как необходимо настроить платформу. При наличии файла состояния Claude Code последовал инструкции Terraform, выполнив операцию «destroy» («уничтожить»), чтобы подготовиться к установке сайта. Учитывая, что в файле установки значился другой ресурс, уже находившийся к тому моменту в AWS, в результате были удалены оба сайта, в том числе база данных с записями за 2,5 года и её снимки, которые использовались в качестве резервных копий. Для решения проблемы разработчику пришлось обращаться в службу технической поддержки Amazon, которая помогла восстановить данные в течение суток.

Описывая инцидент, он привёл несколько мер, которые принял, чтобы подобные случаи больше не повторялись. Он настроил периодическую проверку восстановления базы данных, включил защиту от удаления в Terraform и AWS, а файл состояния переместил в хранилище S3, чтобы не держать его на своём компьютере. Алексей признал, что слишком полагался на ИИ-агента при выполнении команд Terraform, и на будущее решил все операции по удалению данных производить самостоятельно. Винить ИИ в инциденте он не стал.

Anthropic запустила  маркетплейс приложений, построенных на её ИИ-моделях — по примеру Amazon

Компания Anthropic представила платформу Anthropic Marketplace, которая позволит корпоративным клиентам приобретать сторонние программные приложения, построенные на базе её моделей. В числе партнёров площадки названы Snowflake, Harvey и Replit, сообщает Bloomberg.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Компания не станет удерживать комиссию с этих покупок и разрешит зачитывать годовые обязательства по расходам на собственные сервисы в счёт оплаты инструментов от третьих сторон, сравнивая такой подход с маркетплейсами программного обеспечения от Amazon и Microsoft.

Bloomberg отмечает, что запуск платформы произошёл в период, когда компания столкнулась с неопределённостью из-за противостояния с Министерством обороны США. Ранее ведомство признало разработчика угрозой для цепочки поставок — статус, который обычно применяют к представителям недружественных стран.

Такое решение создаёт не только риск для дальнейшего сотрудничества с Пентагоном, но и для совместных оборонных проектов с другими компаниями. В Anthropic заявили о намерении оспорить это решение в суде. Кейт Дженсен (Kate Jensen), глава подразделения Anthropic в Северной и Южной Америке, отметила, что компания активно обсуждает ситуацию с клиентами и ожидает сохранения обычного режима работы для большинства заказчиков. «Хорошая новость заключается в том, что, по большей части, мы ожидаем, что для подавляющего большинства наших клиентов все останется по-прежнему», — сказала она.

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) добавил, что правительственные ограничения сформулированы достаточно узко и не должны повлиять на коммерческую деятельность компании, не связанную с конкретными военными контрактами. В свою очередь представитель Microsoft сообщил, что компания может продолжать сотрудничество с Anthropic в проектах, не относящихся к оборонной сфере. Тем не менее для организаций, работающих с Пентагоном и одновременно с Anthropic, сохраняется значительная неопределённость относительно дальнейшего взаимодействия.

ИИ-бот Claude прирастает миллионом пользователей каждый день после скандального разрыва Anthropic с Пентагоном

Власти США официально присвоили Anthropic статус «угрозы для цепочки поставок» из-за того, что компания не разрешила использовать свои модели искусственного интеллекта для неэтичных, по её мнению, целей. Пока стартап планирует оспорить это решение в суде, рядовые граждане выражают ему поддержку, регистрируясь на его платформе — каждый день их число увеличивается на миллион.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Гендиректор Anthropic Дарио Амодеи (Dario Amodei) назвал решение американских властей юридически необоснованным. Статус «угрозы для цепочки поставок» впервые был присвоен американской компании — он означает, что всем подрядчикам Министерства обороны США запрещается с ней сотрудничать. Однако на рядовых граждан это решение не влияет, они имеют право пользоваться продуктами Anthropic неограниченно — и они начали реализовывать это право.

 Источник изображения: x.com/mikeyk

Источник изображения: x.com/mikeyk

Пока Anthropic и Белый дом пытаются урегулировать разногласия, платформа Claude переживает всплеск числа пользователей — возможно, из-за этической позиции по отношению ИИ в армии. Каждый день здесь регистрируются более миллиона человек, сообщил сотрудник компании Майк Кригер (Mike Kreiger). Anthropic не публикует данных о количестве пользователей, но, по оценкам, на начало года Claude пользовались 20 млн человек в месяц. Значительная часть могла перейти сюда, отказавшись от ChatGPT — самого популярного в мире чат-бота. Он теперь активно теряет аудиторию, потому что это OpenAI сменила Anthropic в Пентагоне. И есть версия, что компания Сэма Альтмана (Sam Altman) моральными сомнениями не терзается.

Anthropic заверила, что санкции Пентагона не повлияют на основную часть клиентов

Прошла неделя с того момента, как Anthropic вступила в конфликт с руководством американского военного ведомства по поводу определения границ допустимого применения искусственного интеллекта в военной сфере и слежением за гражданами США. Руководство стартапа теперь утверждает, что на её бизнес последствия внесения в «чёрный список» Пентагона повлияют незначительно.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) накануне подтвердил, что получил от Министерства войны США официальное уведомление о включении его компании в список неблагонадёжных поставщиков. Предполагалось, что данный запрет на сотрудничество с Anthropic вынудит многих подрядчиков государственных структур США отказаться от использования ИИ-сервисов этой компании. Её приведённая к году выручка недавно превысила $19 млрд, но как и многие конкуренты, Anthropic продолжает оставаться убыточной. Правда, её выраженная зависимость от корпоративного рынка позволяла до недавних пор рассчитывать на более быстрое достижение окупаемости по сравнению с той же OpenAI.

Как подчеркнул глава Anthropic, запрет на использование её продуктов подрядчиками Министерства войны США распространяется только непосредственно на контракты с этим ведомством, а не всю прочую деятельность соответствующих компаний. Другими словами, даже подрядчики Пентагона смогут продолжить использовать решения Anthropic в тех сферах, которые не имеют отношения к контрактам с этим ведомством. Применение ИИ-моделей Anthropic в системах компании Palantir будет прекращено, а именно они помогают американским военным выбирать цели при атаках на Иран в настоящее время. Ряд прочих американских правительственных ведомств уже заявили о своём решении отказаться от использования услуг Anthropic. Попутно Дарио Амодеи подчеркнул, что не считает попадание Anthropic в указанный список законным, а потому не имеет иного выхода, кроме как обратиться в суд для оспаривания данного решения.

Представители Министерства войны США отдельно отметили, что ведомство изначально придерживалось принципа наличия у военных права использования технологий Anthropic для достижения любых законных целей. Пентагон никогда не допустит, чтобы поставщик вмешивался в цепочку управления, ограничивая законное применение критических технологий, тем самым подвергая риску военнослужащих. Дарио Амодеи не стал отрицать, что в последние дни принял участие в довольно продуктивных контактах с представителями Министерства войны США, и надеется предоставлять ему услуги так долго, как получится. Заместитель министра обороны США Эмиль Майкл (Emil Michael) подчеркнул, что на данный момент все переговоры между ведомством и Anthropic прекращены. Главе Anthropic пришлось извиняться за свои недавние резкие высказывания в адрес Пентагона и других участников рынка, которые он допустил в письменном обращении к сотрудникам своей компании. Он отметил, что тон высказываний не отображает его взвешенных взглядов на ситуацию.

Пентагон запретил подрядчикам работать с Anthropic, но Microsoft сохранит доступ для клиентов

По некоторым данным, Министерство войны США, как оно теперь именуется, на этой неделе перешло от слов к делу, отнеся Anthropic к числу неблагонадёжных поставщиков, тем самым лишив подрядчиков государственных структур права работать с этим ИИ-стартапом. Microsoft утверждает, что на её собственных клиентов этот запрет не распространяется.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Как отмечает CNBC, после изучения действующих законодательных норм юристы корпорации Microsoft пришли к выводу, что её собственные клиенты смогут сохранить доступ к ИИ-моделям Anthropic через фирменное ПО. Некоторые связанные с оборонным сектором США компании уже велели своим сотрудникам отказаться от использования решений Anthropic и перейти на альтернативы. Формально, на подобную миграцию закон отводит до шести месяцев, но отказаться от использования ИИ-моделей Anthropic государственные служащие должны незамедлительно.

Представители Microsoft при этом подчёркивают, что сотрудникам Министерства войны США запрещается использовать продукты Anthropic через интеграцию с собственными решениями Microsoft, включая чат-бот Claude. В тех случаях, если работа клиентов Microsoft с продуктами Anthropic не имеет отношения к оборонной сфере США, их можно будет использовать через Microsoft 365, GitHub и AI Foundry. Корпорация Microsoft начала интегрировать решения Anthropic в свои сервисы прошлой осенью, при этом не отказавшись от партнёрства с OpenAI, чьим крупнейшим инвестором является уже много лет. Например, разработчики ПО могут воспользоваться ИИ-ботом Claude через сервис GitHub Copilot AI, хотя им одновременно доступен и Codex конкурирующей OpenAI. В сервисе Microsoft 365 Copilot клиенты компании с прошлого октября могут переключаться между решениями Anthropic и OpenAI по своему усмотрению.

Пентагон официально уведомил руководство Anthropic о включении компании в список неблагонадёжных поставщиков

Если прошлая пятница завершилась для Anthropic только угрозами со стороны представителей американского военного ведомства по включению в «чёрный список», не позволяющий более претендовать на правительственные контракты, то к концу этой рабочей недели данный статус был закреплён за ИИ-стартапом официально.

 Источник изображения: Getty Images, Unsplash+

Источник изображения: Getty Images, Unsplash+

Как поясняет Bloomberg со ссылкой на представителей Министерства войны США, соответствующее уведомление поступило руководству Anthropic официально только накануне. Ведомство определило, что компания и её продукты представляют риск для цепочек поставок, связанных с государственными заказами и проектами. Данное определение вступает в силу немедленно, по информации источника. Нюанс заключается в том, как добавляет Bloomberg, что решения Anthropic технически продолжают использоваться Пентагоном самым активным образом в ходе иранской операции. Существующая процедура предусматривает шестимесячный переходный период, на протяжении которого американские военные структуры и их подрядчики должны будут перейти от использования разработок Anthropic к альтернативам.

Ранее уже отмечалось, что данное определение Anthropic собирается оспорить в суде. Более того, компания предпринимает попытки возобновить переговоры с представителями Пентагона, чтобы вернуть всё в прежнее русло. Неясно при этом, как будет развиваться сотрудничество Министерства войны США с конкурирующей OpenAI, которая буквально в считанные часы после отлучения Anthropic от госконтракта попыталась занять её место, спешно пересматривая условия работы с Пентагоном уже на этой неделе.

Представители Пентагона сочли нужным отметить, что изначально руководствуются принципом, согласно которому американские военные имеют право использовать технологии для всех законных целей. Ведомство не намерено позволять никакой компании вмешиваться в цепочку командования и ограничивать законное применение таких технологий, потенциально ставя под удар военнослужащих. По данным Bloomberg, ИИ-модель Claude компании Anthropic была интегрирована в систему управления Maven, разработанную Palantir Technologies для Пентагона, и теперь активно используется в ходе боевых действий против Ирана. Хотя потенциально ссора с американскими военными может привести к сокращению выручки Anthropic на направлении государственных контрактов, в краткосрочной перспективе спрос на решения компании растёт среди рядовых пользователей, которые переходят на них из соображений солидарности с этической позицией руководства стартапа.

OpenAI увеличила выручку до $25 млрд, сохранив лидерство над Anthropic — но до прибыли ещё далеко

Большинство крупнейших ИИ-стартапов остаются убыточными, но свою выручку они наращивают довольно быстро. Как отмечалось недавно, Anthropic недавно преодолела рубеж в $19 млрд годовой выручки в приведённом значении, полученном методом экстраполяции ежемесячной величины. OpenAI с выручкой в размере $25 млрд всё равно её опережает.

 Источник изображения: Unsplash, Дима Соломин

Источник изображения: Unsplash, Дима Соломин

Данными на эту тему делится Reuters со ссылкой на The Information. В конце прошлого года данный показатель OpenAI достиг $21,4 млрд. Получается, что за прошедшее время он вырос на 17 %. По сути, подобная динамика отражает способность ИИ-стартапа активно наращивать выручку. Однако, с учётом запланированных на ближайшие годы расходов в размере $600 млрд, выйти на безубыточность компания сможет в лучшем случае к концу десятилетия.

Руководство OpenAI, которому нередко приходится слышать упрёки инвесторов в непомерном росте расходов, на тематические вопросы обычно отвечает уклончиво и даже раздражительно, утверждая, что не следует сейчас жалеть денег, чтобы в будущем получить весьма хорошую финансовую отдачу. При этом большинство сделок OpenAI по финансированию строительства вычислительной инфраструктуры для её нужд организовано таким образом, что сам стартап ни за что не отвечает, а долговые обязательства ложатся на сторонние компании и подрядчиков. Выйдя на IPO, которое может оценить капитализацию OpenAI в $1 трлн, компания столкнётся с более пристальным вниманием инвесторов к своим финансовым показателям.

Понимая, что в корпоративном сегменте продавать технологии ИИ сейчас выгоднее, OpenAI уже заключила соглашения с четырьмя крупнейшими в мире консалтинговыми агентствами. По итогам 2025 года OpenAI смогла выйти на годовую величину выручки в $20 млрд, полученную методом умножения месячной выручки на 12. На тот момент конкурирующая Anthropic довольствовалась лишь $9 млрд приведённой годовой выручки, но смогла быстро наверстать отставание. Впрочем, сейчас OpenAI со своими $25 млрд годовой выручки всё равно оказывается впереди конкурента.

Хуанг подтвердил, что Nvidia передумала вливать $100 млрд в OpenAI — новых вложений в Anthropic тоже не предвидится

Ещё недавно считалось, что Nvidia вложит в капитал OpenAI обещанные $100 млрд, но позже условия сделки были пересмотрены в пользу единовременной инвестиции на сумму $30 млрд. На этой неделе основатель первой из компаний Дженсен Хуанг (Jensen Huang) вообще заявил, что данная инвестиция в капитал OpenAI, возможно, была последней, да и конкурирующей Anthropic нет смысла рассчитывать на дополнительные вложения.

 Источник изображения: Nvidia

Источник изображения: Nvidia

«Я думаю, что возможность вложить $100 млрд в OpenAI не рассматривается. Так что это вполне может оказаться последней возможностью вложить в столь важную компанию, как эта»,подчеркнул генеральный директор Nvidia, добавив, что OpenAI может выйти на IPO до конца текущего года. В прошлом месяце Nvidia вложила $30 млрд в капитал OpenAI вместе с рядом других стратегических инвесторов. По итогам недавнего раунда финансирования капитализация OpenAI выросла до $730 млрд.

Хотя Nvidia и уменьшила объёмы средств, направляемые в капитал OpenAI, никакого разочарования в этом стартапе она не испытывает, как дал понять в конце января Дженсен Хуанг. На конференции Morgan Stanley на этой неделе он добавил, что и вложенные недавно $10 млрд в капитал Anthropic могут стать последней инвестицией такого масштаба для данного ИИ-стартапа со стороны Nvidia. Как и OpenAI, компания Anthropic тоже рассчитывает выйти на IPO.

Опасения отдельных инвесторов по поводу формирования ИИ-пузыря Хуанг привычно отмёл, ссылаясь на генерирование прибыли соответствующими технологиями для компаний типа Microsoft. Именно вычислительные мощности сейчас сдерживают рост прибыли на этом направлении, как подчеркнул глава Nvidia. Если бы у них было в три раза больше вычислительных мощностей, то и выручка была бы в три раза выше, как резюмировал Хуанг. По мнению главы Nvidia, поставщики программного обеспечения для проектирования чипов типа Synopsys и Cadence в эпоху бума ИИ начнут наращивать свою значимость для всей отрасли. Она, по его словам, сейчас находится в самом начале большого цикла роста. Доходами своей компании за прошлый квартал Хуанг очень доволен.

Anthropic возобновила переговоры с Пентагоном в надежде исправить ситуацию

Прошлая пятница стала не очень удачной для истории развития ИИ-стартапа Anthropic, поскольку конфликт с Пентагоном по поводу этических ограничений на использование фирменных технологий привёл к отказу американского военного ведомства от сотрудничества с этой компанией. Она возобновила переговоры с Министерством войны США в надежде исправить ситуацию.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Об этом сообщает Bloomberg со ссылкой на собственные информированные источники. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) вернулся к переговорам с Пентагоном, рассчитывая найти применение фирменным ИИ-моделям в инфраструктуре этого ведомства. Со стороны последнего контактным лицом изначально выступал заместитель министра Эмиль Майкл (Emil Michael), отвечающий за разработки и инженерное направление. Стороны надеялись заключить контракт, определяющий возможности использования ИИ-технологий Anthropic американским военным ведомством, но в прошлую пятницу сделка развалилась из-за несогласия компании дать контрагенту полную свободу в использовании ИИ. Стартап моментально попал в перечень неблагонадёжных поставщиков, а конкурирующая OpenAI умудрилась заключить аналогичное соглашение с Пентагоном, причём на тех условиях, которых со скандалом пыталась добиться сама Anthropic.

С минувшей пятницы переговоры с Anthropic успели возобновиться, как сообщает источник. Если стороны достигнут соглашения, это позволит компании сохранить доступ к обслуживанию американского военного ведомства, а также избежать окончательной блокировки на рынке правительственных услуг в США. Возможно, возвращение Anthropic на эту арену усложнит жизнь конкурирующей OpenAI, которая не преминула воспользоваться открывшейся возможностью занять место первой из компаний. О возобновлении переговоров между Пентагоном и Anthropic первым сообщило издание Financial Times.

Противостояние с американскими властями могло бы дорого обойтись Anthropic, тогда как по приведённой годовой выручке компания уже догнала OpenAI, а по капитализации вышла на уровень $380 млрд. На стороне Anthropic выступили и другие технологические компании, включая Google и Apple, которые призвали президента США Дональда Трампа (Donald Trump) не включать компанию в список неблагонадёжных, поскольку прецедент имел бы губительные последствия для всей национальной отрасли.

Anthropic почти догнала OpenAI по годовой выручке

В условиях бума искусственного интеллекта профильные стартапы редко задумываются о необходимости скорейшего выхода на окупаемость, но инвесторы то и дело напоминают им об этом. До скандала с Пентагоном финансовые показатели Anthropic росли уверенными темпами, в приведённом значении годовая выручка стартапа успела вырасти до более чем $19 млрд. Фактически, подобным значением в январе могла похвастаться и конкурирующая OpenAI.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Напомним, в конце прошлого года Anthropic вышла на $9 млрд приведённой ежегодной выручки. Как отмечает Bloomberg со ссылкой на собственные источники, уже в текущем году данный показатель поднялся до $14 млрд, и совсем недавно смог преодолеть рубеж в $19 млрд. В основном такая динамика последних недель была обусловлена активным использованием ИИ-ассистента Claude, который помогает разработчикам создавать программный код.

Текущая капитализация Anthropic достигла $380 млрд, хотя пока непонятно, как на финансовых показателях деятельности скажется недавний скандал с Пентагоном. Американское военное ведомство пыталось заключить с компанией контракт на использование ИИ-моделей Anthropic в секретной части своих операций, но руководство стартапа решило ставить ограничения на его применение. Договориться по примеру воспользовавшейся данной возможностью OpenAI не удалось, поэтому теперь Anthropic будет лишена возможности работать с правительственными учреждениями США в любом контексте, а также с большинством их подрядчиков.

Anthropic собирается оспорить в суде своё отнесение к числу неблагонадёжных поставщиков. Тем временем, заключившая аналогичный контракт с Пентагоном компания OpenAI его условия уже начала менять «задним числом». Позиции Anthropic традиционно были сильны в корпоративном сегменте, и пока сложно предсказать, как противостояние с Пентагоном скажется на способности компании удерживать клиентов. Рядовые пользователи начали переходить на продукты Anthropic в знак протеста против политики американских властей, но насколько данный порыв будет способствовать генерации устойчивой выручки, предугадать сложно.

Сотрудники Google и OpenAI призывают к ужесточению ограничений на использование ИИ в военных целях

Сотрудники Google и OpenAI опубликовали открытое письмо «Мы не будем разделены», собравшее почти 900 подписей, с призывом к более строгим ограничениям на использование искусственного интеллекта военными. Напряжённость в технологической индустрии возросла в последние несколько дней после того, как Министерство обороны США внесло технологии Anthropic в чёрный список.

Свои подписи под письмом поставили около ста работников OpenAI и около восьмисот сотрудников Google. В письме критикуются действия Министерства обороны США против компании Anthropic, которая отказалась разрешить использование своих технологий для массового наблюдения или создания полностью автономного оружия.

«Они пытаются разделить каждую компанию, надеясь, что другая уступит, — говорится в письме. — Эта стратегия работает только в том случае, если никто из нас не знает, какова позиция другой стороны. Это письмо призвано создать взаимопонимание и солидарность перед лицом этого давления со стороны Министерства обороны».

Напряжённость в технологической отрасли нарастает уже несколько месяцев. Работники отрасли требуют большей прозрачности в отношении работы, которую их работодатели выполняют с правительством, особенно в отношении контрактов на облачные технологии и искусственный интеллект. Для Google последняя волна критики связана с тем, что компания, как сообщается, ведёт переговоры с Пентагоном о внедрении своей модели ИИ Gemini в секретную военную систему.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

В пятницу группа No Tech For Apartheid, которая давно критикует сделки по облачным технологиям между правительством США и технологическими гигантами, опубликовала совместное заявление под названием «Amazon, Google, Microsoft должны отклонить требования Пентагона». Эти компании, по мнению правозащитников, должны отказаться от условий Министерства обороны, которые позволят осуществлять массовое наблюдение или иное неправомерное использование ИИ.

Группа прямо указала на Google, сославшись на потенциальную сделку с Пентагоном, которая может быть аналогична соглашению, позволяющему Министерству обороны развёртывать Grok от xAI «в секретных средах — насколько нам известно, без каких-либо ограничений». В то время как Anthropic и OpenAI сделали публичные заявления относительно своих переговоров с Министерством обороны, Alphabet, материнская компания Google, хранит молчание.

Сотни сотрудников технологических компаний подписали открытое письмо в поддержку Anthropic, призывающее Министерство обороны отменить присвоение компании статуса «риска для цепочки поставок». В список подписантов вошли десятки сотрудников OpenAI, а также работники таких компаний, как Salesforce, Databricks, IBM и Cursor. В письме содержится призыв к Конгрессу «изучить вопрос о целесообразности использования этих чрезвычайных полномочий против американской технологической компании».

Аналогичные опасения высказывались внутри Google на прошлой неделе, когда более 100 сотрудников, работающих над технологиями искусственного интеллекта, обратились к руководству, выразив опасения по поводу сотрудничества компании с Министерством обороны. Сообщается, что они попросили провести те же «красные линии», что ранее сделала Anthropic.

 Источник изображения: Axios

Источник изображения: Axios

Главный научный сотрудник Google Джефф Дин (Jeff Dean) считает, что «массовое наблюдение нарушает Четвёртую поправку и оказывает сдерживающее воздействие на свободу выражения мнений», а системы слежки «склонны к злоупотреблениям в политических или дискриминационных целях».

Похоже, что далеко не все менеджеры Google согласны с ним. В 2018 году компания пережила настоящий бунт тысяч сотрудников из-за проекта Maven, программы Пентагона, которая использовала ИИ для анализа видеозаписей с дронов. Позже компания разработала свои «Принципы ИИ», определяющие порядок использования этих технологий.

Тем не менее, ситуация продолжает вызывать беспокойство. В 2024 году Google уволила более 50 сотрудников после протестов по поводу проекта Nimbus, совместного контракта с Amazon на сумму $1,2 млрд на работу с правительством Израиля. Хотя руководители утверждали, что контракт не нарушает ни один из «Принципов ИИ», документы и отчёты показывают, что это соглашение позволяло предоставлять Израилю инструменты ИИ, включая категоризацию изображений, отслеживание объектов и положения для государственных производителей оружия.

Сообщается, что в начале прошлого года Google пересмотрела свои принципы в области искусственного интеллекта и удалила формулировки, которые прямо запрещали «создание оружия» или «технологий слежки».

Сэм Альтман пообещал, что OpenAI внесёт поправки в «скользкий» контракт с Минобороны, чтобы защитить людей от слежки

Вскоре после того, как Пентагон отказался от использования ИИ-моделей Anthropic из-за сопротивления руководства компании предоставить ведомству полную свободу их применения, соответствующая сделка была заключена с конкурирующей OpenAI. Глава последней Сэм Альтман (Sam Altman) признал, что этот шаг выглядел не очень красиво в сложившихся обстоятельствах.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, что до заключения сделки с Министерством войны США, как оно теперь называется, Альтман выражал солидарность с позицией своего бывшего соратника Дарио Амодеи (Dario Amodei), который ныне возглавляет Anthropic. Однако, как только военное ведомство США отказалось от услуг этой компании и начало искать альтернативу для внедрения в свою секретную инфраструктуру, сделка с OpenAI была заключена поспешно и на не самых прозрачных условиях. Альтман назидательно повторял после заключения контракта с Пентагоном, что интересы правительства выше принципов любой частной компании. В конце прошлой недели Альтман настаивал, что изначальный вариант соглашения OpenAI с Пентагоном подразумевал больше ограничений, чем все предыдущие случаи применения ИИ в секретных системах, включая сделку с Anthropic.

К понедельнику генеральный директор OpenAI Сэм Альтман заявил, что заключать соглашение с Пентагоном не следовало бы в такой спешке, а его условия будут пересматриваться уже после сделки, и изменения вносятся в настоящий момент. Он отметил, что в тексте соглашения следовало бы явно прописать, что «ИИ-система не должна намеренно использоваться для наблюдения за гражданами и жителями США на территории страны». Как подчеркнул Альтман, Министерство войны понимает, что существуют подобного рода ограничения на применение ИИ, даже если данные о гражданах были получены третьей стороной. Соответствующие правки будут внесены в текст соглашения OpenAI с военным ведомством США.

OpenAI также удалось получить от Министерства войны США гарантии того, что ИИ-инструменты компании не будут использоваться разведывательными структурами типа АНБ. Альтман пояснил: «Есть много вещей, к которым технология пока не готова, и много сфер, в которых мы не понимаем, какими должны быть уступки для обеспечения безопасности». Компания, по его словам, готова сотрудничать с Пентагоном для создания технических ограничений, обеспечивающих безопасное применение ИИ. Поспешность заключения сделки в пятницу он объяснил желанием снизить градус эскалации и избежать гораздо худшего исхода, но он понимает, что со стороны всё выглядело «оппортунистическим и скользким». Ещё в пятницу глава OpenAI сообщил, что Пентагон согласился на ограничения использования технологий, выдвинутые компанией. Публичное недовольство действиями OpenAI уже привело к тому, что люди начали отказываться от ChatGPT в пользу решений Anthropic. Последняя с момента своего основания в 2021 году делает особый упор на безопасное применение ИИ.

Условия соглашения OpenAI с Пентагоном были пересмотрены не в последнюю очередь под давлением общественности. Даже сотрудники компании начали выражать недовольство первоначальным вариантом сделки. В минувшие выходные перед штаб-квартирой OpenAI в Сан-Франциско появилась выполненная мелом надпись "Нет массовой слежке!". Альтман добавил, что в тексте соглашения с Anthropic фигурировали простые формулировки ограничений, но не было ссылок на соответствующие законодательные акты, тогда как сама OpenAI в предоставлении таких ссылок проблем не видела.

OpenAI подтверждает, что может ограничивать применение своих технологий для массовой слежки за гражданами США и управления вооружениями, предназначенными для автоматического выбора и уничтожения целей. Компания разрешила Пентагону применять свои ИИ-модели только в облачной части инфраструктуры с сохранением доступа к ним со стороны своих сотрудников, но не на конечном оборудовании военной техники, которое используется для управления оружием.

В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях

OpenAI заключила с Пентагоном соглашение об использовании разработанных компанией систем искусственного интеллекта, сменив Anthropic, у которой возникли серьёзные сомнения в моральной стороне такого сотрудничества. В ответ на обеспокоенность общественности глава OpenAI Сэм Альтман (Sam Altman) объявил, что компания успешно договорилась с Министерством обороны США о новых условиях соглашения, но на деле это не вполне так, пишет The Verge.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

«Два важнейших для нас принципа безопасности — это запрет на внутреннюю массовую слежку и ответственность человека за применение силы, в том числе с автономными системами вооружения. Министерство обороны согласилось с этими принципами, отражая их в законах и политике, и мы включили их в наше соглашение», — подчеркнул Альтман. В соцсетях, однако, стали выражать сомнения по поводу того, что OpenAI удалось договориться с Пентагоном о соблюдении этих ограничений. Эксперты считают, что в действительности Министерство обороны США не уступило, и сделка с OpenAI предполагает более мягкие условия для ведомства — всё упирается в формулировку «любое законное применение».

В ходе переговоров, сообщил осведомлённый источник издания, Пентагон не отступал от желания собирать и анализировать большие объёмы данных, связанных с гражданами США; OpenAI же открыла военным возможность выполнять любые действия, которые с технической точки зрения являются законными. За последние десятилетия американские власти в значительной мере расширили представления о том, что «технически законно», и в это определение сейчас включаются программы массовой слежки. В OpenAI, впрочем, такую интерпретацию отвергли. «Систему нельзя использовать для сбора или анализа данных американцев в больших объёмах, в неограниченном объёме или в обобщённом виде», — заявила представитель компании.

Важнейшим достоинством систем ИИ является их умение находить закономерности, а поведение человека — это как раз набор закономерностей. ИИ способен объединять источники данных для каждого человека: информацию о местоположении, о просмотре веб-страниц, личную финансовую информацию, записи с камер видеонаблюдения, данные о регистрации избирателей и многое другое — часть из этого массива находится в открытом доступе, а часть приобретается у брокеров данных. Anthropic добивалась того, чтобы эти действия не допускались вне зависимости от их правового статуса, а OpenAI ограничилась существующими законодательными ограничениями. Упоминаются, в частности, Четвёртая поправка к Конституции США, «Закон о национальной безопасности» от 1947 года, «Закон о внешней разведке и наблюдении» от 1978 года, Исполнительный указ номер 12333, а также директивы ведомства, в которых указываются конкретные цели в области внешней разведки.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

После трагедии 11 сентября 2001 года американские спецслужбы усилили систему слежки, сохранив её, по их мнению, в пределах действующего законодательства. В 2013 году подрядчик Агентства национальной безопасности Эдвард Сноуден (Edward Snowden) раскрыл истинные масштабы происходящего: запись телефонных разговоров абонентов оператора Verizon и сбор данных о физических лицах у технологических компаний, в том числе Microsoft, Google и Apple. А исполнительный указ 12333 позволяет спецслужбам перехватывать данные вне США, даже если эти данные содержат сведения о гражданах страны, отмечают эксперты.

Глава Anthropic Дарио Амодеи (Dario Amodei) отмечал, что закон ещё не описывает всех возможностей ИИ по проведению массовой слежки. Альтман, в свою очередь подчеркнул, что контракт OpenAI с Пентагоном ограничен действующим законодательством, то есть если в США начнут действовать новые нормы, формулировки соглашения останутся прежними. Эксперты, однако, обращают внимание, что использованные представителем компании формулировки не дают возможности определить, что именно запрещается в соглашении. «Использование слов „неограниченный“, „обобщённый“, „открытый“ способ — это не полный запрет. Это формулировка, призванная дать руководству свободу выбора. <..> Она также позволяет руководству не лгать сотрудникам, если Пентагон на законных основаниях будет использовать большие языковые модели без ведома руководства OpenAI», — говорят эксперты. Соглашение с OpenAI и действующие правовые ограничения позволяют Пентагону, например, искать информацию об американцах по базам иностранных разведок, скупать базы у брокеров данных и создания профилей граждан по их типичному поведению на основе материалов видеонаблюдения, публикаций в соцсетях, новостей онлайн, данных о регистрации избирателей и других источников.

Сомнения вызывает и позиция OpenAI по поводу автономного летального оружия. В контракте компании с Пентагоном говорится о том, что её ИИ «не будет использоваться для самостоятельного управления автономным оружием в тех случаях, когда закон, нормативные акты или политика Министерства требуют контроля со стороны человека», что соответствует директиве Пентагона от 2023 года, но не предполагает иных запретов и ограничений. Для сравнения, Anthropic добивалась полного запрета на неконтролируемое летальное автономное оружие как минимум до тех пор, пока разработчик сам не сочтёт эту технологию готовой к работе.

 Источник изображения: Gavin Phillips / unsplash.com

Источник изображения: Gavin Phillips / unsplash.com

Альтман указывает и на другие решения, способные гарантировать, что Пентагон не станет злоупотреблять возможностями ИИ-моделей OpenAI. Некоторые сотрудники компании получат доступ к секретной информации для проверки систем; будут развёрнуты «классификаторы» — небольшие модели ИИ, способные следить за работой больших и по необходимости блокировать для них некоторые операции. На практике эти меры могут не помочь. Классификатор не сможет подтвердить, проверял ли человек решение системы о нанесении удара, а также является ли запрос на составление профиля американского гражданина единичным или входящим в систему массового наблюдения. И если власти объявят какую-либо операцию законной, классификатор не сможет предотвратить её выполнение.

OpenAI говорит об «ответственности человека за применение силы, в том числе в случае с автономными системами вооружения»; Anthropic же требовала вообще не развёртывать эти системы «без надлежащего контроля [со стороны человека]». Это может значить, что в сценарии OpenAI можно будет привлечь к ответственности некое лицо уже после факта нанесения удара, а сценарий Anthropic предусматривает участие людей до и/или во время принятия ИИ решения об уничтожении других людей. OpenAI говорит о технической защите своих систем от возможности строить «роботов-убийц»: для этого применяются средства дополнительного обучения ИИ, а также запуск моделей только в облачной инфраструктуре, а не локально на устройствах. В случае массового наблюдения, однако, подойдёт только способная работать в облаке модель; а в сценарии с автономным оружием непосредственное решение об атаке может принимать сторонняя локальная модель, тогда как система OpenAI возьмёт на себя все предшествующие этапы.

«Полностью автономное оружие (то, что полностью исключает участие человека в автоматическом выборе и поражении целей) может оказаться критически важным для нашей национальной обороны. Но сегодня передовые системы ИИ просто недостаточно надёжны для обеспечения [его] работы», — предупредил глава Anthropic Дарио Амодеи.

Скандал между Anthropic с Пентагоном может обойтись стартапу потерей инвестиций на $60 млрд

Как и OpenAI, конкурирующий стартап Anthropic остаётся частной компанией, хотя привлекает для своего развития весьма серьёзные суммы денег. Более 200 венчурных инвесторов вложили в Anthropic в общей сложности более $60 млрд, и теперь их доверие будет испытано на прочность скандалом, в который компания оказалась втянута из-за противоречий с Пентагоном.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Напомним, что в конце прошлой недели американское военное ведомство отказалось от использования ИИ-разработок Anthropic в секретной части своей инфраструктуры, поскольку стартап настаивал на блокировке использования своих систем для массового слежения за гражданами США и управления теми видами вооружений, которые способны принимать решение о выборе и уничтожении целей без участия человека. Проблем в переговорах добавили и некоторые другие факторы, но они не были первостепенными.

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) настаивает, что для применения в указанных видах вооружений ИИ пока не достиг адекватного развития, а в случае с массовым сбором информации о гражданах США не готова законодательная база. Контракт с Пентагоном был сорван, решения Anthropic были запрещены к использованию всеми американскими правительственными структурами, за шесть месяцев им предстоит найти альтернативу. Публикация Амодеи на страницах корпоративного блога, в которой обсуждались коренные причины спора с Министерством войны США, как отмечает Axios, вызвала в Белом доме дополнительное раздражение. Чиновники опасаются, что своими публичными выступлениями руководство Anthropic «заразит» специалистов других ИИ-компаний, с которыми Пентагон хотел бы наладить сотрудничество.

Если запрет на сотрудничество с Anthropic распространится на прочих подрядчиков Пентагона, компания может пострадать серьёзным образом. По крайней мере, та же Nvidia может лишиться возможности снабжать Anthropic своими ускорителями вычислений, а без них развитие бизнеса стартапа станет проблематичным. Как известно, Anthropic своё отнесение к числу сомнительных поставщиков хочет оспорить в суде.

По данным Axios, венчурные инвесторы исторически старались избегать вложения средств в капиталы компаний, связанных с правительственными заказами, поскольку эта сфера казалась довольно рискованной и непредсказуемой. Исключением была сфера только биотехнологий, но в последние годы венчурные капиталисты стали посматривать и на другие области, в которых стартапы вели активное сотрудничество с властями. Ситуация с Anthropic снова заставляет инвесторов задуматься, а нужно ли слепо доверять компаниям, пытающимся наладить сотрудничество с правительством. На репутации Anthropic, которая в основном зарабатывает на корпоративных заказах, данный скандал тоже скажется не лучшим образом.

ChatGPT подвергли «отмене» за сотрудничество OpenAI с Пентагоном

Обеспокоенные сомнительным сценарием сотрудничества компании OpenAI и Министерства обороны США представители американской общественности сформировали движение по «отмене ChatGPT». Цель движения — поддержать попавшую в «чёрный список» Пентагона компанию Anthropic, которая запретила использовать свои модели искусственного интеллекта для некоторых целей.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Конфликт Anthropic и Пентагона разгорелся на почве двух «красных линий», которые разработчик ИИ переходить отказался. Компания не захотела, чтобы её модели самостоятельно принимали решения о применении оружия по человеку, а также чтобы они использовались для наблюдения за американскими гражданами. В результате соглашение с Anthropic расторгли, а саму компанию поместили в «чёрный список», запретив всем оборонным подрядчикам с ней сотрудничать.

Место Anthropic в системах Пентагона заняла OpenAI. Глава компании Сэм Альтман (Sam Altman) пообещал, что её модели не станут использоваться для массового наблюдения, но представитель американского правительства опроверг это утверждение и заявил, что они будут работать во «всех законных сценариях», а принятый после трагедии 11 сентября 2001 года «Патриотический акт» позволяет, в частности, собирать метаданные в сетях связи, даже с учётом того, что некоторые его аспекты в последние годы ограничили.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Этот шаг вызвал резко отрицательную реакцию в сетевых сообществах — люди, которые заявляли, что прекращают пользоваться ChatGPT, стали получать положительные оценки. Следует отметить, что пересекать указанные Anthropic «красные линии» отказываются далеко не все крупные разработчики ИИ. Во внутренних правилах Google такой запрет значился ранее, но теперь компания его отменила. Microsoft не возражает против использования оружия с ИИ, если собственно выстрел производит человек. Amazon ограничивается расплывчатой формулировкой об «ответственном использовании» ИИ.

Впоследствии Сэм Альтман повторил тезис, что Министерство обороны США будет соблюдать заявленные компанией «красные линии» в отношении автономного оружия и массового наблюдения за гражданами США, но не внёс ясности, как эти гарантии будут реализованы. Глава OpenAI сослался на действующее в США законодательство, а оно, в частности, допускает наблюдение за лицами без американского гражданства, и в этих целях позволяет косвенным или случайным образом собирать данные о гражданах страны.

В глазах общественности, однако, OpenAI предоставила Пентагону возможность интерпретировать, что считается законным, а Anthropic решила сохранить полный контроль над использованием своих технологий. В результате приложение Anthropic Claude AI выбилось в лидеры официальных магазинов как для Android, так и для iOS; оно также выпущено для Windows 11.


window-new
Soft
Hard
Тренды 🔥
Разработчик доверил Claude Code управление AWS — ИИ полностью удалил два сайта и базу данных 57 мин.
Mozilla готовит масштабный редизайн Firefox с кодовым именем Nova — вот как это будет выглядеть 4 ч.
Энтузиаст превратил Sony PlayStation 5 в игровой ПК под Linux и запустил на ней GTA V 7 ч.
X начала тестировать «рекламу без рекламы» — рекомендации брендов прямо под постами 7 ч.
Anthropic запустила  маркетплейс приложений, построенных на её ИИ-моделях — по примеру Amazon 14 ч.
OpenAI представила ИИ-агента Codex Security, который сам находит и закрывает «дыры» в ПО 14 ч.
Новая статья: Resident Evil Requiem — два шага вперёд, три назад. Рецензия 20 ч.
Nintendo подала в суд на правительство США и потребовала возместить ущерб от пошлин Трампа — «с процентами» 22 ч.
Брутфорс уходит в прошлое: Cloudflare назвала ИИ и дипфейки главной проблемой года 22 ч.
Спецслужбы США и Европола накрыли LeakBase — один из крупнейших хакерских форумов в мире с 142 000 участников 23 ч.
Китай впервые перекрыл все новые потребности в электроэнергии силами возобновляемых источников 55 мин.
В России создали прототип квантовой оперативной памяти — для компьютеров, радаров и телескопов невероятной чувствительности 5 ч.
Спутник «Экспресс-АТ1» объявлен потерянным после загадочной аварии — тысячи россиян остались без «Триколора» 6 ч.
Valve отложила Steam Machine: вместо запуска в «начале 2026 года» теперь расплывчатое «надеемся начать поставки в 2026-м» 8 ч.
Китайские производители чипов призвали власти создать «китайскую ASML» 8 ч.
Анонсирован смартфон Realme C83 5G с батареей на 7000 мА·ч, прочным корпусом и ценой от $145 8 ч.
BYD представила электромобиль Denza Z9 GT с рекордным запасом хода в 1036 км 12 ч.
Власти США запретят закупку отдельных китайских полупроводниковых изделий для государственных нужд 13 ч.
Глава Google может получить до $692 млн, но лишь в случае успеха беспилотных такси Waymo 13 ч.
Термодинамику научили вычислять — энергоэффективность улетела в космос 20 ч.