Сегодня 07 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → чёрный список

Anthropic заверила, что санкции Пентагона не повлияют на основную часть клиентов

Прошла неделя с того момента, как Anthropic вступила в конфликт с руководством американского военного ведомства по поводу определения границ допустимого применения искусственного интеллекта в военной сфере и слежением за гражданами США. Руководство стартапа теперь утверждает, что на её бизнес последствия внесения в «чёрный список» Пентагона повлияют незначительно.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) накануне подтвердил, что получил от Министерства войны США официальное уведомление о включении его компании в список неблагонадёжных поставщиков. Предполагалось, что данный запрет на сотрудничество с Anthropic вынудит многих подрядчиков государственных структур США отказаться от использования ИИ-сервисов этой компании. Её приведённая к году выручка недавно превысила $19 млрд, но как и многие конкуренты, Anthropic продолжает оставаться убыточной. Правда, её выраженная зависимость от корпоративного рынка позволяла до недавних пор рассчитывать на более быстрое достижение окупаемости по сравнению с той же OpenAI.

Как подчеркнул глава Anthropic, запрет на использование её продуктов подрядчиками Министерства войны США распространяется только непосредственно на контракты с этим ведомством, а не всю прочую деятельность соответствующих компаний. Другими словами, даже подрядчики Пентагона смогут продолжить использовать решения Anthropic в тех сферах, которые не имеют отношения к контрактам с этим ведомством. Применение ИИ-моделей Anthropic в системах компании Palantir будет прекращено, а именно они помогают американским военным выбирать цели при атаках на Иран в настоящее время. Ряд прочих американских правительственных ведомств уже заявили о своём решении отказаться от использования услуг Anthropic. Попутно Дарио Амодеи подчеркнул, что не считает попадание Anthropic в указанный список законным, а потому не имеет иного выхода, кроме как обратиться в суд для оспаривания данного решения.

Представители Министерства войны США отдельно отметили, что ведомство изначально придерживалось принципа наличия у военных права использования технологий Anthropic для достижения любых законных целей. Пентагон никогда не допустит, чтобы поставщик вмешивался в цепочку управления, ограничивая законное применение критических технологий, тем самым подвергая риску военнослужащих. Дарио Амодеи не стал отрицать, что в последние дни принял участие в довольно продуктивных контактах с представителями Министерства войны США, и надеется предоставлять ему услуги так долго, как получится. Заместитель министра обороны США Эмиль Майкл (Emil Michael) подчеркнул, что на данный момент все переговоры между ведомством и Anthropic прекращены. Главе Anthropic пришлось извиняться за свои недавние резкие высказывания в адрес Пентагона и других участников рынка, которые он допустил в письменном обращении к сотрудникам своей компании. Он отметил, что тон высказываний не отображает его взвешенных взглядов на ситуацию.

Пентагон запретил подрядчикам работать с Anthropic, но Microsoft сохранит доступ для клиентов

По некоторым данным, Министерство войны США, как оно теперь именуется, на этой неделе перешло от слов к делу, отнеся Anthropic к числу неблагонадёжных поставщиков, тем самым лишив подрядчиков государственных структур права работать с этим ИИ-стартапом. Microsoft утверждает, что на её собственных клиентов этот запрет не распространяется.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Как отмечает CNBC, после изучения действующих законодательных норм юристы корпорации Microsoft пришли к выводу, что её собственные клиенты смогут сохранить доступ к ИИ-моделям Anthropic через фирменное ПО. Некоторые связанные с оборонным сектором США компании уже велели своим сотрудникам отказаться от использования решений Anthropic и перейти на альтернативы. Формально, на подобную миграцию закон отводит до шести месяцев, но отказаться от использования ИИ-моделей Anthropic государственные служащие должны незамедлительно.

Представители Microsoft при этом подчёркивают, что сотрудникам Министерства войны США запрещается использовать продукты Anthropic через интеграцию с собственными решениями Microsoft, включая чат-бот Claude. В тех случаях, если работа клиентов Microsoft с продуктами Anthropic не имеет отношения к оборонной сфере США, их можно будет использовать через Microsoft 365, GitHub и AI Foundry. Корпорация Microsoft начала интегрировать решения Anthropic в свои сервисы прошлой осенью, при этом не отказавшись от партнёрства с OpenAI, чьим крупнейшим инвестором является уже много лет. Например, разработчики ПО могут воспользоваться ИИ-ботом Claude через сервис GitHub Copilot AI, хотя им одновременно доступен и Codex конкурирующей OpenAI. В сервисе Microsoft 365 Copilot клиенты компании с прошлого октября могут переключаться между решениями Anthropic и OpenAI по своему усмотрению.


window-new
Soft
Hard
Тренды 🔥
IBM когда-то хотела отказаться от навигации с клавишей Tab — Microsoft не согласилась, сославшись на маму Билла Гейтса 25 мин.
«Профиль низкой задержки» ускорит Windows 11 — но процессору придётся кратковременно работать на максимум 26 мин.
ИИ с «глазами» оказался в разы дороже обычного API — агенты сжигают бюджеты, ходя по сайтам 29 мин.
Глава Take-Two взял вину за неудачи Sid Meier’s Civilization VII на себя, а обновление Test of Time исправит главную проблему игры 46 мин.
Доля российского ПО в госсекторе превысила 75 % 54 мин.
Фейковый сайт ИИ-бота Claude распространяет новый вредонос Beagle для Windows 2 ч.
Созданные с помощью ИИ сайты кишат уязвимостями — разработчики ИИ-сервисов валят всё на клиентов 3 ч.
Евросоюз хочет отрезать американские облака от конфиденциальных госданных 3 ч.
На «Яндекс» пожаловались в ФАС из-за изменений в поисковой выдаче 4 ч.
У Роскомнадзора нет ни планов, ни оснований для блокировки GTA, Red Dead Redemption, Battlefield, Fortnite и других популярных в России игр 5 ч.