|
Опрос
|
реклама
Быстрый переход
Подрядчики Пентагона и его сотрудники не спешат отказываться от использования Anthropic
20.03.2026 [12:27],
Алексей Разин
Три недели назад противоречия между Anthropic и руководством Пентагона привели к тому, что профильное программное обеспечение было запрещено к использованию в деятельности не только самого Министерства войны США, но и его подрядчиков в оборонной сфере. При этом фактически пользователи Anthropic в этой сфере не торопятся от него отказываться.
Источник изображения: Anthropic Напомним, руководство Anthropic выразило озабоченность по поводу возможности использования разработанных компанией систем для тотальной слежки за гражданами США и применения оружия в автоматическом режиме, это вызвало недовольство представителей американского военного ведомства, в результате контракт на использование чат-бота Claude в военной инфраструктуре США был расторгнут, а сама Anthropic была отнесена к числу неблагонадёжных поставщиков. Военному ведомству США и части его подрядчиков теперь предстоит перевести свои ИИ-системы на альтернативные платформы в течение шести месяцев. OpenAI уже подписала контракт с Пентагоном и надеется стать таким «заменителем». Как поясняет Reuters, на деле отказываться от использования инструментов Anthropic не торопятся не только подрядчики Пентагона, но и его сотрудники. Во-первых, на их использование завязаны многие процессы, прерывать которые в условиях высокой военной активности США просто не представляется возможным. Во-вторых, пользователи считают решения Anthropic более удобными или эффективными по сравнению с доступными альтернативами. Специалисты Пентагона в сфере информационных технологий директивой по отказу от Anthropic недовольны по той причине, что только недавно научились использовать профильные системы в комфортном для себя режиме, а теперь их заставляют всё разрушить. Многие считают Claude самым совершенным на данный момент чат-ботом. Один из подрядчиков Пентагона добавил, что повторная сертификация систем на новой платформе потребует многих месяцев, а в худшем случае — до полутора лет. Кроме того, переход на новую платформу потребует от Пентагона новых крупных затрат. Наконец, на функциональных процессах Министерства войны США подобная миграция также негативно скажется. Контракт Anthropic с американским военным ведомством на сумму $200 млн был заключён в июле прошлого года, Claude удалось интегрировать в ведомственные системы, управляющие секретными операциями, глубина этой интеграции по состоянию на конец февраля была очень большой. В ходе иранской операции американские военные продолжают использовать разработки Anthropic даже в условиях запрета. Некоторые сотрудники Пентагона всё же вынуждены подчиняться запрету на использование инструментов Anthropic. В отдельных случаях от успешной автоматизации обработки данных приходится возвращаться к ручной работе с тем же Excel, например. Для написания программного кода в Пентагоне Claude Code также активно использовался в последние месяцы. Известная в определённых кругах компания Palantir, являющаяся крупным подрядчиком Пентагона, использует решения Anthropic в контрактах с ведомством на общую сумму более $1 млрд. Перестройка инфраструктуры под другое ПО потребует не только времени, но и серьёзных финансовых затрат. В некоторых случаях решения Anthropic используются для формирования потоков данных, которые требуются Пентагону буквально на ежеминутной основе, и отказаться от этого ПО крайне сложно. Некоторые подрядчики ведомства задумались о том, чтобы при отказе от использования решений Anthropic оставить возможность быстрого возврата к ним. В этом случае представители отрасли надеются, что Пентагон отменит свой запрет до истечения шестимесячного срока, отведённого для миграции. «Это не инопланетянин»: глава Nvidia призвал отрасль ИИ перестать пугать людей страшилками о технологии
20.03.2026 [09:45],
Алексей Разин
Затянувшаяся история с конфликтом Anthropic и Пентагона по поводу безопасного и этичного использования ИИ в военной сфере не оставила шансов основателю Nvidia Дженсену Хуангу (Jensen Huang) отмолчаться на эту тему. Он призвал руководителей компаний, создающих генеративный ИИ, не «пугать людей страшилками» по поводу последствий его использования.
Источник изображения: Nvidia «Желание предупредить людей о возможностях технологии — это потрясающе. Предупреждать — хорошо, пугать уже хуже, потому что эта технология очень важна для нас», — заявил глава Nvidia с трибуны конференции GTC 2026. По мнению Хуанга, для национальной безопасности США главным риском сейчас являются сами опасения по поводу того, что страна отстаёт от соперников в сфере освоения новых технологий. Даже с учётом отстранения Anthropic от выполнения оборонных контрактов в США, по мнению Хуанга, дела у этой компании в финансовом плане пойдут нормально. Он считает, что к 2030 году выручка Anthropic перевалит за $1 трлн. По его мнению, глава стартапа Дарио Амодеи (Dario Amodei) в своих собственных прогнозах на этот счёт излишне консервативен. Как добавил Хуанг, представителям отрасли следует меньше стращать окружающих по поводу угроз, исходящих от ИИ. «Это не что-то биологическое. Это не инопланетянин. У него нет сознания. Это компьютерная программа. Говорить довольно экстремальные вещи, довольно катастрофичные, для которых нет никаких предпосылок к реализации, — само по себе может приносить больше ущерба, чем думают люди», — пояснил Дженсен Хуанг. Он также призвал власти США не провоцировать Китай к захвату острова Тайвань, на котором сам родился и жил в детстве, пока родители не переехали в США, забрав с собой будущего основателя Nvidia. «Давайте демонстрировать сдержанность, никого ни к чему не подталкивать», — посоветовал глава Nvidia. При этом он призвал снизить концентрацию производства чипов на Тайване за счёт развития полупроводниковой промышленности не только в Южной Корее и Японии, но и в США. В последнем случае нужно действовать максимально быстро, как убеждён основатель Nvidia. Опыт Тайваня в сфере производства передовых чипов, по его словам, «заслуживает нашей дружбы и поддержки». Anthropic догоняет OpenAI в сфере ИИ для бизнеса
19.03.2026 [13:03],
Дмитрий Федоров
Anthropic ускоряет рост на корпоративном рынке ИИ. В феврале её бизнес-подписки выросли на 4,9 % месяц к месяцу, тогда как доля OpenAI снизилась на 1,5 %. Последняя пока сохраняет лидерство на корпоративном рынке подписок с долей 34,4 % против 24,4 % у Anthropic, однако разрыв быстро сокращается на фоне конфликта вокруг сотрудничества с военным сектором США и роста интереса к ИИ-моделям Claude.
Источник изображения: Anthropic Экономист Ramp Ара Харазян (Ara Kharazian) сообщил, что почти каждая четвёртая компания, работающая через Ramp, теперь платит за Anthropic, тогда как год назад такой была одна из 25 организаций. Снижение OpenAI на 1,5 % он назвал крупнейшим месячным падением среди всех компаний-разработчиков ИИ-моделей за всё время наблюдений за корпоративным внедрением ИИ. По словам Харазяна, компании, впервые выбирающие ИИ-сервисы, теперь примерно в 70 % случаев выбирают Anthropic. Одновременно OpenAI, по имеющимся данным, пересматривает стратегию и усиливает фокус на продажах ИИ бизнесу и разработчикам программного обеспечения — именно в тех сегментах, где Anthropic показывает наибольший рост. Рост интереса к Claude совпал с конфликтом между Anthropic и Министерством войны США (DoW). В конце января Reuters сообщило о разногласиях, вызванных отказом компании снять защитные ограничения с ИИ-моделей, чтобы сделать их более пригодными для военного применения. В конце февраля Anthropic публично выступила против такого давления. 4 марта компания заявила, что получила уведомление о признании её рискованной организацией для цепочки поставок с точки зрения национальной безопасности США. После этого Anthropic подала иски, оспаривающие фактическое исключение компании из взаимодействия с DoW. Этот конфликт не улучшил отношения Anthropic с администрацией Дональда Трампа (Donald Trump). По данным Sensor Tower, конфликт с DoW совпал со всплеском установок Claude и ростом числа удалений ChatGPT. На положении OpenAI также могло сказаться сотрудничество компании с Пентагоном и признание её генерального директора Сэма Альтмана (Sam Altman), что ситуация была урегулирована неудачно. После конфликта с DoW компанию Claude публично поддержали американская певица Кэти Перри (Katy Perry) и сенатор США Брайан Шатц (Brian Schatz). Харазян описал этот эффект так: «Anthropic позиционировала себя иначе, и определённая категория пользователей это заметила». К этой же аудитории относятся пользователи, готовые платить $20 или $200 в месяц за доступ к Claude и испытывающие неприязнь к OpenAI из-за рекламы в ChatGPT. В феврале Anthropic сообщила, что её годовой темп выручки достиг $14 млрд. Тогда же компания объявила о привлечении ещё $30 млрд. При этом в судебном документе, поданном ранее, финансовый директор Anthropic Кришна Рао (Krishna Rao) указал, что с момента выхода компании на коммерческий рынок она получила более $5 млрд выручки. «Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic
18.03.2026 [19:26],
Владимир Фетисов
Министерство обороны США заявило, что компания Anthropic представляет «неприемлемый риск национальной безопасности». Это первое официальное заявление ведомства в ответ на иски ИИ-разработчика, пытающегося оспорить решение министра обороны Пита Хегсета (Pete Hegseth) о присвоении Anthropic статуса компании, представляющей риски для цепочки поставок. Компания просит суд приостановить исполнение этого решения Минобороны до окончания разбирательства.
Источник изображения: Anthropic Суть аргументации Минобороны, изложенной в 40-страничном заявлении, поданном в федеральный суд Калифорнии, заключается в опасении, что Anthropic может «попытаться отключить свои технологии или упреждающе изменить поведение своих ИИ-моделей» до или во время «боевых операций», если компания «почувствует, что её корпоративные „красные линии“ могут быть пересечены». Минувшим летом Anthropic подписала с Пентагоном соглашение на $200 млн на развёртывание своих алгоритмов в закрытых системах. В ходе последующих переговоров об изменении условий контракта компания выразила несогласие с тем, чтобы её ИИ-алгоритмы использовались для массовой слежки за американцами, а также заявила, что технология ещё не готова к применению в системах наведения или принятия решений о применении летального оружия. Пентагон в ответ заявил, что частная компания не может диктовать военным условия использования технологий. Некоторые компании выступили против действий Минобороны: OpenAI, Google, Microsoft и их сотрудники, а также правозащитные организации обратились в суд с поддержкой Anthropic. Сама Anthropic подала в суд несколько исков, в которых обвинила Минобороны в нарушении прав компании, гарантированных Первой поправкой к Конституции США. ИИ-разработчик также обвинил военных в несправедливом наказании компании по идеологическим мотивам. Слушания по этому делу о вынесении предварительного судебного запрета пройдут на следующей неделе. Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста
17.03.2026 [18:46],
Павел Котов
Службы на основе искусственного интеллекта постепенно переходят к решению задач творческого характера, которые ранее требовали специального ПО — теперь чат-боты умеют преобразовывать рукописные символы в цифровой шрифт. Правда, пока система работает не идеально.
Источник изображения: anthropic.com Чтобы получить свой собственный шрифт, пользователю необходимо изобразить от руки алфавит, цифры и знаки препинания, отсканировать страницу и загрузить получившийся файл чат-боту с ИИ — тот преобразует рукописное начертание в шрифт формата TrueType. Результат будет зависеть от почерка человека — те, у кого он разборчивый, получат более качественный результат, чем остальные.
Источник изображения: x.com/ashebytes Функция неочевидна — её обнаружила инженер-программист и специалист по ИИ Аше Магальяеш (Ashe Magalhaes). Его подход основан на одной из функций Anthropic Claude, который для решения сложных задач может вызывать внешние инструменты на языке Python. Для генерации шрифта на основе латинского алфавита необходимо изобразить на бумаге все буквы в заглавном и строчном начертаниях, цифры и знаки препинания. Изображение сканируется и загружается в чат-бот. Он анализирует контуры каждой буквы и преобразует их в векторные фигуры, которые задают основу для файла шрифта.
Источник изображения: x.com/ashebytes Процесс требует аккуратного подхода. В ходе тестирования служба ИИ сначала предоставила шаблон, чтобы пользователь разместил символы на странице. Буквы должны быть чёткими, расстояние между символами — равномерным, а сканировать необходимо в оптимальных условиях без теней или эффектов неравномерного освещения. Первые попытки были неудачными: в первом выходном файле формы были искажены и напоминали скорее чернильные пятна, а не буквы. Система проанализировала собственную работу и пришла к выводу, что внешние контуры некоторых символов она распознать не смогла и запустила процесс конвертации повторно. Второй заход оказался значительно удачнее, но такие буквы как «O», «A» и «R» изображались сплошными поверхностями, без отверстий. Пришлось производить доработку. Возникали и дальнейшие проблемы: в какой-то момент в единый глиф слились буквы «x» и «y» — это тоже пришлось корректировать. В окончательном варианте удалось добиться вполне приемлемого результата. OpenAI откажется от второстепенных разработок, чтобы не проигрывать конкурентам ИИ-гонку
17.03.2026 [13:03],
Алексей Разин
После выхода осенью 2022 года ChatGPT стартап OpenAI проявлял завидную активность и всеядность с точки зрения поиска новых способов использования ИИ, но в условиях жёсткой конкуренции подобная тактика уже не может себя оправдывать с точки зрения бизнеса. Руководство компании готовится выделить приоритетные направления развития, чтобы отказаться от второстепенных.
Источник изображения: OpenAI Как отмечает The Wall Street Journal, о грядущих изменениях в бизнес-стратегии OpenAI на общем собрании сотрудников сообщила директор по приложениям Фиджи Симо (Fidji Simo). По её словам, вышестоящие руководители в лице генерального директора Сэма Альтмана (Sam Altman) и ведущего исследователя Марка Чэня (Mark Chen) сейчас заняты поиском тех направлений деятельности, которые следует исключить из числа приоритетных. О принятых руководством решениях персонал OpenAI будет уведомлён в ближайшие недели. «Мы не можем упустить этот момент, поскольку нас отвлекают второстепенные задачи», — заявила сотрудникам OpenAI Фиджи Симо на прошлой неделе, как отмечает источник. «Нам реально нужно зафиксировать продуктивность в целом и в особенности — на бизнес-направлении», — добавила она. В прошлом году OpenAI анонсировала целый спектр инициатив, который охватывал самые разные сегменты рынка, от интернет-торговли и генерации видео до интернет-браузера и выпуска аппаратных устройств. Сэм Альтман пояснял такое многообразие проектов попыткой «ставить на несколько стартапов» внутри самой OpenAI. По имеющимся данным, в дальнейшем OpenAI хотела бы сосредоточиться на инструментах для генерирования программного кода и работе с корпоративными клиентами. В последней сфере преуспевает конкурирующая Anthropic, которой удаётся быстрее монетизировать собственные разработки, и OpenAI просто не желает отставать от соперника. Та же Anthropic пока не предложила клиентам средства для генерации видео и изображений, в отличие от OpenAI. Обе компании настроены выйти на IPO до конца текущего года, причём в случае с OpenAI выход на биржу может состояться в четвёртом квартале. Успех Anthropic в коммерческом сегменте рынка, по словам Симо, должен стать сигналом к пробуждению для OpenAI, и теперь компания ставит перед собой задачу выхода в лидеры как в сегменте инструментария для разработчиков ПО, так и для разного рода бизнес-клиентов. Бывшие и действующие сотрудники OpenAI признались The Wall Street Journal, что прежняя разнонаправленная стратегия компании мешала им сконцентрироваться на приоритетных задачах и понимать общую стратегию компании. Команда создателей генератора видео Sora, например, работала в подразделении стартапа, занимающегося исследованиями, хотя конечный продукт оказался одним из наиболее влиятельных и сложных среди разработок OpenAI. В прошлом сентябре Sora вышла в качестве самостоятельно приложения, но после первоначального наплыва пользователей последовал спад интереса, и теперь OpenAI намеревается встроить этот генератор видео в приложение ChatGPT. Нанятая в августе прошлого года Фиджи Симо предложила руководству более плотно интегрировать команды, занятые разработками и выпуском продуктов, а также унифицировать долгосрочную стратегию OpenAI вокруг повышения производительности труда своих пользователей. Инструмент Claude Code для автоматизации разработки ПО, выпущенный Anthropic, быстро набрал популярность среди профессионалов в этой сфере. Отыграть часть позиций на этом рынке OpenAI позволил выпуск инструмента Codex в прошлом месяце, а также дебют модели GPT 5.4, которая более ориентирована на профессиональное использование. Сейчас инструментом Codex еженедельно пользуются более двух миллионов пользователей, что в четыре раза выше показателя по состоянию на начало года. OpenAI решила активнее привлекать к разработке своих моделей консультантов со стороны и представителей клиентов. При этом Фиджи Симо не считает целесообразным регулярно объявлять «красный код опасности», но предлагает сотрудникам OpenAI работать, словно бы соответствующее объявление было сделано. Anthropic удвоила лимиты Claude для всех пользователей, но с ограничениями
16.03.2026 [18:58],
Сергей Сурабекянц
В последние дни пользователи чат-ботов с ИИ массово мигрируют на Claude, не в последнюю очередь из-за позиции Anthropic в отношении сделок с американскими военными. Компания решила выразить благодарность пользователям — все они получили удвоенные лимиты использования в течение следующих двух недель. Это изменение распространяется на все уровни подписки и планы (включая бесплатный), и для его активации никаких действий не требуется.
Источник изображения: Anthropic Однако имеется один небольшой подвох: эти дополнительные лимиты использования доступны только вне часов пик, которые приходятся на промежуток с 8:00 до 14:00 по восточному времени (с 16:00 до 22:00 по московскому времени). В выходные дни дополнительные лимиты можно использовать в течение всего дня. Более подробную информацию можно найти на странице акции на официальном сайте Anthropic. Предложение действует с 13 марта по 27 марта включительно. Корпоративные аккаунты в акции не участвуют. Отметим, что даже пользователи самых дорогих платных тарифных планов не получают неограниченного количества чатов с Claude. Принципы Anthropic в отношении использования искусственного интеллекта в военных целях привели к тому, что от него отказалось министерство обороны и другие государственные учреждения США, поэтому сотрудники Белого дома и Пентагона не смогут воспользоваться этой акцией. У американских законодателей возникли вопросы к OpenAI из-за сделки с Пентагоном
13.03.2026 [11:38],
Алексей Разин
Спешно заключённая OpenAI сделка с Министерством войны США, как признался глава компании Сэм Альтман (Sam Altman), потребовала доработки некоторых пунктов контракта, но публично он выражал лояльность идее использования ИИ в военных целях. При этом даже у американских конгрессменов возникли вопросы к руководителю OpenAI на данную тему. ![]() В четверг на этой неделе, как отмечает CNBC, генеральный директор OpenAI Сэм Альтман встретился с группой американских конгрессменов в Вашингтоне. Сенатор Марк Келли (Mark Kelly), например, заявил о наличии у него «серьёзных вопросов» по поводу подходов OpenAI к использованию технологий компании в боевых действиях и самой сделке с Пентагоном в целом. В своём интервью каналу CNBC сенатор Келли признался, что группа его коллег в подробностях обсудила с Альтманом подходы к слежению за гражданами и использованию ИИ в боевых условиях. Разговор сенатор назвал «хорошей дискуссией». «Должны быть определённые ограничения, и мы должны быть уверены, что всё время думаем о Конституции и обеспечиваем соблюдение её основных положений», — подчеркнул сенатор. Напомним, что сделка американского военного ведомства с конкурирующей Anthropic развалилась после того, как руководство этой компании потребовало исключить использование её разработок при массовом слежении за американскими гражданами и применении систем вооружений без согласия человека. Конфликт между сторонами сделки привёл к тому, что Anthropic оказалась включена в перечень неблагонадёжных поставщиков, а подрядчикам Пентагона было запрещено использовать её разработки. На поиск альтернативы у самого ведомства и его подрядчиков остаётся шесть месяцев, но применять ИИ-модели Anthropic им запрещается уже сейчас. Примечательно, что глава OpenAI Сэм Альтман именно упоминаемые выше ограничения включил в текст контракта с Пентагоном, и конфликт ведомства с Anthropic стал носить характер «наказания непокорного», а не последствия реальных противоречий. Хотя Альтман и выразил несогласие с отнесением Anthropic к числу неблагонадёжных поставщиков, он подчеркнул, что «именно правительство должно решать, как именно будут работать самые важные вещи в стране». Сенатор Келли заявил, что группа парламентариев работает над законопроектом, определяющим характер взаимоотношений Министерства войны США с разработчиками ИИ, и что должно существовать законодательство, определяющее некоторые границы применения таких технологий. Конгрессмен посетовал, что в парламенте США вопросы рассматриваются не так быстро, как развиваются новые технологии. Anthropic научила Claude генерировать графики и таблицы прямо в чате с пользователем
13.03.2026 [07:01],
Алексей Разин
Проблемы во взаимоотношениях с американскими властями не мешают Anthropic продолжать совершенствование своего чат-бота Claude. После недавнего обновления он научился автоматически вставлять в диалоговом окне иллюстрации, позволяющие проще объяснить суть доводимой до пользователя информации. Графики, таблицы и диаграммы могут создаваться и по прямому запросу со стороны пользователя.
Источник изображения: Anthropic Ранее они возникали в боковой панели Claude, как отмечает The Verge, а теперь будут вставляться прямо в диалоговом окне. Самое примечательное, что графики, таблицы и диаграммы при этом могут быть интерактивными. В частности, периодическая таблица химических элементов будет отображаться таким образом, что нажатие на каждый из элементов позволит вывести дополнительную информацию о нём. Чат-бот Claude способен сам предугадывать, когда лучше сопроводить свой ответ интерактивной иллюстрацией, но по запросу пользователя он может сделать это в любой момент. Конкурирующие платформы подобными возможностями уже обзавелись. Например, OpenAI позволяет ChatGPT вставлять в диалог с пользователем интерактивные иллюстрации к математическим задачам и научным обсуждениям, а Google Gemini создаёт интерактивные иллюстрации для образовательных целей. Ранее подобный инструментарий был доступен пользователям Claude через боковую панель. Она сохранит соответствующую функцию, а вот иллюстрации из диалога с пользователем будут исчезать вместе с их завершением. В случае необходимости Claude сможет вносить изменения в уже созданные интерактивные иллюстрации. Новая функция доступна всем категориям пользователей Claude и по умолчанию изначально активна. Microsoft первой среди крупных компаний встала на сторону Anthropic в её тяжбе с Пентагоном
11.03.2026 [15:08],
Владимир Мироненко
Microsoft стала первой крупной технологической компанией, вставшей на сторону Anthropic в её споре с Пентагоном по поводу условий военного использования её ИИ-моделей. Она призвала суд к временному запрету на исполнение решения Министерства обороны США о признании Anthropic фактором риска для цепочки поставок, пока рассматривается дело по иску стартапа.
Источник изображения: Wesley Tingey/unsplash.com Microsoft предупредила, что «радикальные» и «беспрецедентные» шаги против Anthropic будут иметь «широкие негативные последствия» для американской технологической индустрии. После отказа стартапа предоставить Пентагону право использования своей модели Claude без каких-либо ограничений, военное ведомство включило его в чёрный список поставщиков, представляющих риск для цепочки поставок. Также администрация президента США потребовала, чтобы все федеральные агентства прекратили использование чат-бота Claude. После этого Anthropic подала в суд на администрацию Дональда Трампа (Donald Trump), назвав действия правительства «беспрецедентными и незаконными» и отметив, что они «наносят Anthropic непоправимый ущерб», ставя под угрозу контракты на сотни миллионов долларов. Microsoft заявила, что её «позиция заключается в том, что ИИ должен быть сосредоточен на законных и надлежащим образом защищённых вариантах использования». ИИ, по её словам, «не должен использоваться для проведения внутреннего массового наблюдения или для того, чтобы поставить страну в положение, когда автономные машины могут самостоятельно начать войну». Microsoft утверждает, что временный запрет необходим для предотвращения дорогостоящих сбоев для поставщиков, которым в противном случае пришлось бы быстро перестраивать свои продукты, зависящие от продукции Anthropic. В то время как Пентагон отвёл себе шесть месяцев на поэтапное прекращение использования технологий Anthropic, он не предоставил такой же переходный период для подрядчиков, использующих продукцию или услуги Anthropic для выполнения работ в рамках Министерства обороны, сообщила Microsoft. IT-гигант добавил, что временный запретительный приказ позволит выработать решение путём переговоров, одновременно защищая доступ военных к передовым технологиям и гарантируя, что ИИ не будет использоваться для массового наблюдения за гражданами или для проведения военных действий без участия человека. Это «обеспечит более упорядоченный переход и позволит избежать сбоев в продолжающемся использовании передового ИИ американскими военными», отметила компания. Свои выводы Microsoft указала в поданном в окружной суд США в Сан-Франциско заключении Amicus Curiae. Такие документы подаются сторонами, которые не указаны в деле, но обладают соответствующей экспертизой, или на которых может повлиять исход рассматриваемого дела. Anthropic предупредила, что включение в «чёрный список» Пентагона принесёт ей многомиллиардные убытки
10.03.2026 [12:53],
Алексей Разин
Клиентам и инвесторам Anthropic может говорить о последствиях своего включения в перечень неблагонадёжных поставщиков Пентагона одно, а в исковом судебном заявлении указывать совершенно иную информацию. В последнем случае она старается «нагнать жути» и заявить, что подобные санкции повлекут многомиллиардные убытки не только в текущем году, но и в последующие периоды.
Источник изображения: Unsplash, David Veksler Агентство Reuters проанализировало текст искового заявления Anthropic, с которым компания обратилась в суд с просьбой отменить решение Пентагона о включении её в список неблагонадёжных с точки зрения национальной безопасности США поставщиков. Ситуация возникла вскоре после отказа Anthropic передать американским военным полный контроль над применением своих ИИ-моделей, включая поголовную слежку за американскими гражданами и автоматизацию применения оружия с учётом выбора целей искусственным интеллектом. Оспаривая данное решение американского военного ведомства, Anthropic упоминает ряд значимых финансовых доводов. Одна только потеря контракта с Пентагоном лишит компанию сотен миллионов долларов США в текущем году (потери составят не менее $150 млн). По мнению руководства Anthropic, последствия включения компании в «чёрный список» окажут необратимое негативное воздействие на бизнес стартапа. Он потеряет от 50 до 100 % выручки от контрактов с подрядчиками Пентагона, а подрыв доверия инвесторов может усложнить привлечение необходимых для развития бизнеса средств. В общей сложности готовые потери Anthropic могут достичь нескольких миллиардов долларов США. Даже за пределами оборонных контрактов скандал может повлечь для Anthropic потери, связанные с отказом клиентов сотрудничать с компанией. В период с декабря 2025 года по январь 2026 года Anthropic в четыре раза увеличила приведённый размер годовой выручки от контрактов с представителями публичного сектора экономики США, в следующие пять лет эта выручка могла бы вырасти до нескольких миллиардов долларов. Компании публичного сектора в случае утраты доверия к Anthropic со стороны клиентов могут лишить её более чем $500 млн выручки по итогам текущего года. Anthropic успела понести прямой ущерб от действий Пентагона, как отмечается в иске. Один из партнёров стартапа, заключивший контракт с одним из американских правительственных ведомств, перешёл от использования Claude к конкурирующему решению, лишив Anthropic ожидаемой годовой выручки в размере более $100 млн. Прерваны переговоры с финансовыми учреждениями на сумму около $180 млн, один из контрактов на $15 млн был поставлен на паузу, а некая французская компания уменьшила сумму выплат Anthropic в два раза до $5 млн после действий Пентагона. В целом, компания успела получить обращения от более чем 100 корпоративных клиентов, в которых они выражали своё сомнение по поводу целесообразности дальнейшего сотрудничества с Anthropic. Все эти данные должны быть учтены судом при вынесении вердикта по делу. Anthropic запустила ИИ для поиска багов в программном коде, написанном ИИ
10.03.2026 [09:57],
Алексей Разин
Автоматизация процесса написания программного кода для приложений неизбежно привела к наличию в нём ошибок, но искусственный интеллект может не только порождать их, но и бороться с ними. Именно для этого предназначен новый инструмент Code Review, который был предложен Anthropic пользователям Claude Code.
Источник изображения: Anthropic Напомним, Claude Code является ИИ-агентом для написания программного кода, его сейчас активно используют многие разработчики. Жизненный цикл любой программы обычно подразумевает внесение изменений и исправлений, причём основная их часть делается до выхода ПО на рынок. Чтобы ускорить работу над исправлениями на этапе разработки, Anthropic предложила ИИ-агента Code Review, который позволяет проводить её без участия человека или с его минимальным привлечением. Code Review уже доступен пользователям Claude for Teams и Claude for Enterprise в качестве экспериментального исследовательского решения. Данный инструмент позволит разработчикам ПО, которые пользуются Claude, ускорить внесение исправлений до выпуска продукта в тираж. Code Review может интегрироваться с репозиторием GitHub и автоматически рецензировать предлагаемые разработчиками ПО изменения и исправления, генерируя профильные комментарии к их запросам. Инструмент призван исправлять основные логические ошибки, а претензии к «изящности» программного кода он не предъявляет. Code Review способен аргументировать свои замечания к программному коду, он использует цветовую маркировку для ранжирования проблем. Красным цветом помечаются самые важные проблемы, жёлтым — потенциальные, но требующие внимания, а фиолетовый используется для обозначения ошибок, связанных с ранее сгенерированным кодом. Сразу несколько ИИ-агентов работают параллельно, анализируя один и тот же фрагмент кода по разным критериям. На финальном этапе отдельный агент резюмирует накопленные замечания, удаляет дублирующиеся и выделяет наиболее важные. Инструмент позволяет провести первичный аудит кибербезопасности, а у разработчиков есть возможность настроить свои критерии дополнительных проверок. Anthropic фактически будет использовать сдельную систему оплаты при использовании Code Review. Анализ одного фрагмента кода будет обходиться разработчикам в сумму от $15 до $25. Не самое дешёвое удовольствие, по словам представителей компании, станет необходимостью по мере усиления использования ИИ для написания программного кода. По мнению Anthropic, качество кода не должно страдать от роста скорости его создания, поэтому ИИ-инструменты для поиска ошибок будут востребованы на рынке ПО. Представители Google и OpenAI готовы выступить в суде в поддержку Anthropic в деле о конфликте с Пентагоном
10.03.2026 [07:44],
Алексей Разин
Процессуальные процедуры традиционно растянуты во времени, но Anthropic не стала особо медлить с подачей судебного иска против Пентагона, пытаясь оспорить своё включение в список неблагонадёжных поставщиков. Поддержать позиции компании в суде готовы представители конкурирующих OpenAI и Google, но только как частные лица, обладающие определённой экспертизой в рассматриваемом споре.
Источник изображения: OpenAI Почти 40 сотрудников OpenAI и Google, включая руководителя разработки Gemini Джеффа Дина (Jeff Dean), направили в суд процессуальный документ, формально позволяющий помочь судье составить более полное представление о предмете спора между истцом и ответчиком. По мнению составителей документа, включение Anthropic в перечень неблагонадёжных поставщиков является некорректным проявлением мести, которое вредит интересам общества. Как считают подписавшие обращение к суду представители указанных компаний, обозначенные Anthropic «красные линии» реальны и требуют конкретного ответа. Даже в ответственных руках, по мнению авторов письма, инструменты тотальной слежки за гражданами представляют серьёзный риск для демократических институтов, да и создание полностью автономных систем вооружения представляет собой риск, требующий особого внимания. Авторы письма относят себя к учёным, разработчикам и инженерам, занятым в создании передовых американских систем ИИ. По их замыслу, обращение к суду направлено не на решение проблем какой-то конкретной компании, а на представление интересов всей отрасли. Подписавшие письмо эксперты считают себя достаточно компетентными, чтобы предупреждать власти США о неприятных последствиях рассматриваемого ими применения ИИ в военных и разведывательных целях. Как поясняют авторы письма, сейчас данные о гражданах США существуют в разрозненном виде, и никто пока не объединял эти массивы с помощью ИИ для подробного анализа в масштабе реального времени. По сути, при желании американские власти могли бы составить подробное досье на сотни миллионов человек одновременно, с учётом постоянных изменений в этих данных. В части использования ИИ для выбора целей системами вооружения, как предупреждают эксперты, опасность таится в возможности появления ошибок из-за различий между условиями обучения профильных моделей и реальной обстановкой на поле боя. Как отмечают авторы обращения, ИИ не в состоянии оценивать возможный сопутствующий ущерб при выборе тех или иных целей, как это способен сделать человек. Кроме того, склонность ИИ к «галлюцинациям» делает военное применение таких технологий ещё более опасным без контроля со стороны человека. Авторы письма резюмируют, что на текущем этапе развития технологий предлагаемые Пентагоном сферы применения ИИ представляют серьёзную опасность и требуют ограничений либо на техническом уровне, либо на административном. Microsoft представила Copilot Cowork — автономного ИИ-агента для сложных задач на базе моделей Anthropic
09.03.2026 [22:34],
Анжелла Марина
Microsoft объявила о начале интеграции технологий Anthropic в свои сервисы, представив инструмент Copilot Cowork, основанный на модели Claude Cowork. Инструмент позволяет использовать автономных ИИ-агентов для выполнения сложных задач, таких как разработка приложений, создание электронных таблиц и структурирование больших массивов данных при минимальном участии человека. ![]() Джаред Спатаро (Jared Spataro), руководитель направления AI-at-Work в Microsoft, заявил агентству Reuters, что ключевое отличие Copilot Cowork от Claude Cowork состоит в подходе к обработке данных. Инструмент Copilot работает исключительно в облачной среде и действует от имени пользователя, позволяя контролировать, к какой информации ИИ-агент может получать доступ. Claude Cowork, напротив, использует только локальную среду устройства и, по словам Спатаро, большинство компаний чувствуют себя «очень некомфортно» с точки зрения безопасности. Помимо запуска Copilot Cowork, Microsoft открыла пользователям M365 Copilot доступ к новейшим моделям Claude Sonnet, диверсифицируя таким образом свой технологический стек. Ранее сервис полагался исключительно на модели GPT от компании OpenAI, уточняет Reuters. Запуск состоялся спустя несколько недель после того, как новые инструменты Anthropic обвалили акции компаний в секторе традиционного программного обеспечения. Инвесторы забеспокоились, что автономные ИИ-агенты могут подорвать позиции классических софтверных продуктов. Акции самой Microsoft в феврале упали почти на 9 %. На текущий момент Copilot Cowork находится в стадии тестирования, а доступ для ранних пользователей откроется в этом месяце. Стоимость Microsoft не раскрыла, но уточнила, что для организаций часть функциональности будет включена в подписку M365 Copilot стоимостью $30 на пользователя в месяц, а дополнительный объём использования можно будет приобрести отдельно. Anthropic подала в суд на власти США из-за включения её в «чёрный список» Пентагона
09.03.2026 [22:30],
Владимир Мироненко
Компания Anthropic подала иск в федеральный суд Калифорнии в связи с её включением Министерством обороны США в список поставщиков, представляющих риск для национальной безопасности США. В своем иске Anthropic назвала это решение незаконным и нарушающим её права на свободу слова и надлежащую правовую процедуру, пишет агентство Reuters.
Источник изображения: Anthropic «Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за её защищённую законом свободу слова», — заявила Anthropic. На основании этого компания обратилась к суду с просьбой отменить решение Пентагона и запретить федеральным агентствам применять его. На прошлой неделе Пентагон официально присвоил компании Anthropic статус представляющей риск для цепочки поставок из-за отказа предоставить военному ведомству право использования своей модели Claude без каких-либо ограничений. В частности, Министерство обороны США требовало от Anthropic отменить запрет на использование Claude для массового слежения за американскими гражданами и полностью автоматизированных систем вооружений. Как сообщило агентство Reuters, напряжённые переговоры по поводу этих ограничений между сторонами велись в течение нескольких месяцев. В Anthropic заявили, что судебный иск не исключает возобновления переговоров с Пентагоном и достижения соглашения. Компания сообщила, что не хочет конфликтовать с правительством США. В свою очередь, представитель Пентагона неделю назад заявил, что переговоры между сторонами прекращены. Президент Дональд Трамп (Donald Trump) поручил правительству прекратить сотрудничество с Anthropic, среди инвесторов которой Google и Amazon.com. Также сообщалось, что прекращение сотрудничества правительства с компанией займёт шесть месяцев. |