Сегодня 28 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → anthropic
Быстрый переход

Anthropic урезала лимиты общения с ИИ-ботом Claude в часы пик

Anthropic пересмотрела механизм применения временных лимитов для пользователей Claude, чтобы сбалансировать спрос и доступную вычислительную мощность. В часы пик пятичасовой лимит сессии для подписчиков Free, Pro и Max теперь может расходоваться быстрее, тогда как недельные лимиты остаются прежними.

 Источник изображения: Getillustrations / unsplash.com

Источник изображения: Getillustrations / unsplash.com

Об изменении сообщил сотрудник технической команды Anthropic Тарик Шихипар (Thariq Shihipar). По его оценке, около 7 % пользователей столкнутся с лимитами сессий в сценариях, в которых раньше этого не происходило, прежде всего на более высоких тарифах. Пиковым считается интервал с 05:00 до 11:00 по тихоокеанскому времени (с 16:00 до 22:00 по московскому). В этот период объём использования, соответствующий пяти часам, может исчерпываться быстрее. В остальное время пятичасовой лимит расходуется в обычном режиме.

 Источник изображения: @trq212 / x.com

Источник изображения: @trq212 / x.com

Anthropic привязывает почасовое использование к потреблению токенов, не раскрывая, какое именно количество токенов соответствует временному лимиту, поэтому пользователи не могут заранее планировать расход токенов. В документации Anthropic указано, что на объём использования влияют длина и сложность диалогов, используемые функции, а также выбранная модель Claude, а разные планы подписки, включая Pro, Max и Team, предусматривают разные объёмы допустимого использования.

Пользователям, запускающим фоновые задачи с высоким потреблением токенов, предложено переносить такую нагрузку на непиковые часы. Компания уточняет, что в периоды более низкого спроса доступная вычислительная мощность выше, поэтому общий недельный объём использования не сокращается: меняется только его распределение в течение недели. В интерфейсе Claude доступна панель мониторинга, показывающая расход пятичасовых лимитов сессий и недельных лимитов. После исчерпания лимита доступ блокируется, если пользователь не оплатил дополнительное использование.

Anthropic предлагает доступ к своим ИИ-сервисам в двух форматах: через API для разработчиков и по подписке для обычных пользователей Claude. В API стоимость рассчитывается по опубликованным правилам для разных типов операций с токенами, то есть с единицами текста, которые ИИ-модель обрабатывает и генерирует. У подписчиков Claude схема иная: вместо понятного расчёта по операциям действуют внутренние лимиты использования, точный порядок применения которых компания не раскрывает. Сейчас доступны тарифы Free, Pro за $20 в месяц, Max 5x за $100 в месяц и Max 20x за $200 в месяц.

Anthropic подтвердила, что готовит мощнейшую ИИ-модель Claude Mythos — утечка раскрыла детали

Anthropic подтвердила, что разрабатывает и тестирует с клиентами раннего доступа новую ИИ-модель, превосходящую по возможностям все предыдущие, после того как о её существовании стало известно из-за случайной утечки данных. Попавшие в открытый доступ черновики содержали сведения о ИИ-модели Claude Mythos, новом уровне Capybara и беспрецедентных, по оценке самой компании, рисках для кибербезопасности.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Публичное подтверждение последовало после утечки черновых материалов, обнаруженных в общедоступном кэше данных и изученных изданием Fortune. До вечера четверга в незащищённом и доступном для поиска хранилище находился черновик записи в блоге, где новая ИИ-модель называлась Claude Mythos и описывалась как ИИ, создающий беспрецедентные риски в сфере кибербезопасности. После уведомления от Fortune компания закрыла публичный поиск по хранилищу и доступ к документам. Anthropic заявила, что доступность чернового контента стала следствием «человеческой ошибки» при настройке системы управления контентом.

Масштаб утечки оценивается почти в 3 000 материалов, связанных с блогом Anthropic, ранее не публиковавшихся на новостных или исследовательских площадках компании, а также документы, выглядевшие как внутренние. Такую оценку дал исследователь кибербезопасности из Кембриджского университета (University of Cambridge) Александр Повелс (Alexandre Pauwels), которого Fortune попросило проанализировать массив данных. Независимо от него документы также обнаружил и изучил старший исследователь безопасности ИИ из компании LayerX Security Рой Паз (Roy Paz).

В кэше находился также PDF-файл о предстоящем закрытом выездном мероприятии для генеральных директоров европейских компаний в Великобритании с участием генерального директора Anthropic Дарио Амодеи (Dario Amodei). Мероприятие было рассчитано на 2 дня, описывалось как «камерная встреча» и предполагало обсуждение внедрения ИИ в бизнесе, а также демонстрацию новых возможностей Claude.

 Источник изображения: Ayush Kumar / unsplash.com

Источник изображения: Ayush Kumar / unsplash.com

В тех же материалах фигурировало название Capybara. Оно использовалось для обозначения нового уровня ИИ-моделей — более крупных и более интеллектуальных, чем Opus, до этого считавшиеся наиболее мощными в линейке компании. По содержанию документов Capybara и Mythos относятся к одной и той же базовой ИИ-модели. Сейчас Anthropic продаёт модели трёх уровней: Opus, Sonnet и Haiku. Capybara описывалась как ИИ, превосходящий Opus по возможностям и стоимости.

В черновике также говорилось, что по сравнению с Claude Opus 4.6 новая ИИ-модель показывает значительно более высокие результаты в тестах по программированию, академическому рассуждению и кибербезопасности. Там же сообщалось о завершении обучения Claude Mythos, названной самой мощной ИИ-моделью в истории компании. Структура документа с заголовками и датой публикации указывала на подготовку продуктового запуска. Схема вывода на рынок предполагала ограниченный ранний доступ, поскольку ИИ-модель дорога в эксплуатации и пока не готова к выходу в массы.

Ключевой темой утекших материалов стали риски для кибербезопасности. Модель описывалась как система, значительно опережающая другие ИИ-модели по кибервозможностям и предвосхищающая волну решений, способных использовать уязвимости быстрее, чем кибербезопасность успеет им противодействовать. Поэтому ранний доступ планировалось предоставить организациям, занимающимся киберзащитой, чтобы дать им фору в повышении устойчивости кодовых баз к атакам, управляемым ИИ.

 Источник изображения: Wesley Tingey / unsplash.com

Источник изображения: Wesley Tingey / unsplash.com

Этот подход совпал с более широким отраслевым сдвигом. В феврале OpenAI при выпуске GPT-5.3-Codex заявила, что это её первая ИИ-модель, классифицированная в рамках Preparedness Framework как система с высоким уровнем возможностей для задач, связанных с кибербезопасностью, и первая модель, напрямую обученная выявлению уязвимостей в программном обеспечении (ПО). Тогда же Anthropic выпустила Opus 4.6, способную выявлять ранее неизвестные уязвимости в кодовых базах. Компания признала двойной характер такой возможности: она может помогать и специалистам по защите, и злоумышленникам.

Anthropic также сообщила, что хакерские группы, включая структуры, якобы связанные с правительством Китая, пытались использовать Claude в реальных кибератаках. В одном таком случае поддерживаемая государством китайская группа применяла Claude Code для проникновения примерно в 30 организаций, включая технологические компании, финансовые учреждения и государственные ведомства. В течение последующих 10 дней компания установила масштаб операции, заблокировала причастные к взломам аккаунты и уведомила пострадавшие организации.

Anthropic тоже собралась на биржу — планируется привлечь более $60 млрд на развитие ИИ

В этом году, если верить слухам, сорвать куш с точки зрения привлечения средств на фондовом рынке попытаются три крупных ИИ-стартапа: OpenAI, Anthropic и xAI, входящий в состав SpaceX. По имеющимся данным, Anthropic своё IPO запланировала на октябрь текущего года, в ходе этого мероприятия компания рассчитывает привлечь более $60 млрд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Соответствующие данные публикует Bloomberg, ссылаясь на собственные осведомлённые источники. Сопровождать сделку будут крупные инвестиционные банки: Goldman Sachs, JPMorgan Chase и Morgan Stanley. В феврале, как напоминает издание, Anthropic удалось привлечь около $30 млрд на рынке частного капитала, основную часть средств предоставила MGX из Абу-Даби, капитализацию стартапа по итогам этого этапа финансирования оценили в $380 млрд. Принято считать, что на фоне OpenAI конкурирующая Anthropic пользуется большей благосклонностью инвесторов, поскольку больше внимания уделяет монетизации бизнеса через услуги корпоративным клиентам, и не злоупотребляет сделками с «кольцевыми» схемами финансирования, в которых ответственность прописана весьма размыто.

Первым о подготовке к октябрьскому IPO стартапа Anthropic заявило издание The Information. Вопрос находится на ранних стадиях обсуждения, условия IPO ещё могут быть пересмотрены. Anthropic намеревается направить $50 млрд на строительство ЦОД для инфраструктуры ИИ в США. Препятствием для успешного размещения акций Anthropic в США является продолжающаяся судебная тяжба с Пентагоном, который включил компанию в «чёрный список» из-за протестов руководства по поводу использования ИИ для тотальной слежки за гражданами и автоматического выбора целей с последующим применением оружия без участия человека в принятии решений. Хотя вчера суд признал включение Anthropic в этот перечень незаконным, вряд ли американские власти успокоятся и откажутся от дальнейшего преследования стартапа. Подобная активность вряд ли будет способствовать привлечению инвесторов, поскольку без правительственных контрактов финансовые перспективы бизнеса Anthropic заметно ухудшатся.

Пентагон проиграл дело против Anthropic — суд отменил внесение в «чёрный список»

Ещё вчера стало понятно, что федеральный судья Рита Лин (Rita Lin) в целом согласна с доводами Anthropic о незаконности включения этой компании в перечень неблагонадёжных поставщиков Пентагона. По итогам судебного заседания она признала отнесение Anthropic к их числу неправомерным, обязав американское ведомство снять санкции с компании через семь дней. Это время даётся Министерству войны США для подачи апелляции, если подобная возможность им рассматривается.

 Источник изображения: Unsplash, Wesley Tingey

Источник изображения: Unsplash, Wesley Tingey

Anthropic в своём иске утверждала, что отнесение её к числу неблагонадёжных поставщиков в США нарушает Первую поправку к Конституции США, которая даёт право гражданам и организациям на свободу речи и волеизъявления. Пятая поправка тоже была нарушена, по мнению представителей Anthropic, поскольку компании не предоставили права на обжалование решения Пентагона в предусмотренном законе порядке. В своём 43-страничном решении федеральная судья Рита Лин выразила согласие с основными доводами истца, удовлетворив просьбу о блокировке решения Пентагона по включению Anthropic в перечень неблагонадёжных поставщиков. На обжалование решения суда Пентагону отводится семь дней, после чего оно вступит в законную силу.

В решении суда отмечается, что действия ведомства имели своей целью наказание Anthropic, а не обеспечение перечисленных интересов в сфере национальной безопасности, которыми мотивировалось отнесение компании к числу неблагонадёжных поставщиков. Судья согласилась с доводом Anthropic о наличии в действиях Пентагона признаков нарушения Первой поправки к Конституции США.

Пентагон в своих документах по этому делу настаивал, что отказ Anthropic в снятии ограничений на использование ИИ в военных целях вызывает неопределённость в части применения этих технологий и формирует риск злонамеренного отключения военных систем в ходе операций. Как отмечал ответчик, включение Anthropic в «чёрный список» было обусловлено не стремлением компании отстаивать свои взгляды на безопасность применения ИИ, а отказом от исполнения контрактных обязательств с военным ведомством. Anthropic ещё предстоит в отдельном судебном разбирательстве отстоять своё право поставлять технологии ИИ прочим правительственным клиентам в США.

Американский судья усмотрела в действиях Пентагона желание наказать Anthropic за её позицию

Тот факт, то Пентагон внёс компанию Anthropic в список угроз нацбезопасности в цепочке поставок, можно интерпретировать как попытку ведомства наказать разработчика систем искусственного интеллекта за публичное выражение опасений по поводу безопасности этих систем в военном деле.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

В иске, который Anthropic подала в федеральный суд Калифорнии, утверждается, что глава министерства обороны Пит Хегсет (Pete Hegseth) превысил свои полномочия, когда присвоил компании статус угрозы нацбезопасности в цепочке поставок. Этот статус присваивается компаниям, подвергающим военные системы угрозе проникновения или саботажа со стороны неприятеля. «Похоже, что министерство обороны наказывает Anthropic за попытку привлечь внимание общественности к этому спору по поводу контракта», — заявила окружной судья Рита Лин (Rita Lin). Anthropic запросила у суда временный запрет на применение санкций до завершения судебного разбирательства; судья Лин в конце заседания пообещала вынести письменное решение в ближайшие дни.

Anthropic отказалась разрешить Пентагону использовать её модели ИИ для массового наблюдения за гражданами США и для создания оружия, в котором ИИ принимает решение о ликвидации человека. Из-за нового статуса компания только в этом году, по её оценкам, может потерять несколько миллиардов долларов, — скажутся ущерб бизнесу и репутации. Такая мера не применялась к американским компаниям ни разу; основанием для неё послужил малоизвестный закон о госзакупках, направленный на защиту военных систем от иностранного саботажа. Действия властей Anthropic расценила как нарушение её права на свободу слова, и компании не дали возможности оспорить присвоение статуса — в обоих случаях, по её мнению, была нарушена Конституция США.

Пентагон применяет заведомо неверное толкование закона о госзакупках для того, чтобы наказать Anthropic за её переговорную позицию, считает адвокат компании. Выступающий от имени властей представитель американского минюста возразил: «А что будет, если Anthropic через обновление установит „аварийный выключатель“ или добавит возможности, которые позволят ей изменять работу системы, когда она больше всего окажется нужна нашим военнослужащим? Такой риск неприемлем». Anthropic подала ещё один иск в столице США Вашингтоне по поводу другого решения Пентагона, из-за которого компанию могут исключить из числа участников госконтрактов.

Anthropic Claude научился управлять компьютером Mac за пользователя

Anthropic научила Claude управлять компьютером Mac вместо пользователя. В Claude Cowork и Claude Code ИИ-модель может сама открывать файлы, управлять браузером, запускать инструменты разработки и выполнять задачи через интерфейс компьютера, а передавать задания Claude можно со смартфона через функцию Dispatch.

 Источник изображения: claude.com

Источник изображения: claude.com

Работу новой функции компания продемонстрировала на YouTube. На видео Claude использует компьютер в режимах Cowork и Code и самостоятельно выполняет задачи и действует так же, как пользователь, — от открытия и редактирования файлов до выполнения сложных задач. Функция появится на macOS для пользователей платных подписок Claude Pro и Claude Max в формате исследовательского предварительного доступа.

Иными словами, Anthropic теперь сама внедряет подход, который ранее связывали с ИИ-агентом OpenClaw. Само направление ИИ-агентов начало развиваться вокруг Claude ещё до того, как к этому направлению подключилась OpenAI. Теперь в этом сегменте работают и другие игроки, в том числе Perplexity Computer и Manus компании Meta✴.

Галлюцинации ИИ пугают людей больше, чем угроза потери рабочих мест

До сих пор считалось, что искусственный интеллект может представлять угрозу для трудоустройства обладателей определённых профессий, но проведённый среди пользователей Anthropic Claude опрос показал, что людей больше всего пугает склонность ИИ к ошибкам и галлюцинациям.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом говорят данные социологического исследования, которое охватило более 80 000 пользователей чат-бота Claude в 159 странах, как отмечает Financial Times. Сильнейшей угрозой со стороны искусственного интеллекта 27 % опрошенных назвали его склонность к совершению ошибок. Утрата рабочих мест из-за распространения ИИ оказалась лишь на втором месте с 22 % ответов. Ещё 16 % респондентов выделили свои опасения по поводу утраты человечеством способности критически мыслить в качестве дополнительной угрозы со стороны ИИ.

Участники опроса подчёркивали, что галлюцинации ИИ не только отнимают много времени на их устранение, но и могут влиять на результаты работы без надлежащего экспертного контроля со стороны человека. В целом, результаты опроса сформировали довольно равномерное распределение ответов по типам угроз. Влияние ИИ на процессы управления выделили 15 % респондентов, угрозу распространения дезинформации назвали 14 % респондентов. По 13 % назвали злонамеренное использование и слежку соответственно в качестве главных факторов риска. По 12 % подчеркнули демотивацию творчества и чрезмерность регулирования соответственно, по 11 % сделали выбор в пользу подхалимства и психологической зависимости от ИИ в качестве основных проблем, связанных с его распространением.

При этом 32 % опрошенных пользователей Claude заявили, что ИИ повысил производительность их труда. Один из веб-дизайнеров в ОАЭ признался, что ИИ помогает заменить работу примерно 100 человек, и теперь не нужно ждать, пока они справятся со своими заданиями. Пользователи Claude в Японии, США и Колумбии подчеркнули, что ИИ помог им освободить от работы больше времени для нахождения с близкими и хобби. Примерно 19 % респондентов признались, что ИИ не оправдал их ожиданий в полной мере.

Примечательно, что эмоциональное восприятие ИИ разнится в зависимости от географического региона, в котором проживают пользователи Claude. В Африке, Южной Америке, на юге и юго-востоке Азии данные технологии воспринимаются людьми с более выраженным оптимизмом, чем в США, Европе и Восточной Азии. По сути, в пользу ИИ больше верят жители стран с более низким уровнем жизни, которым эти технологии доступны в меньшей мере. В странах Запада сильнее выражено беспокойство по поводу способности ИИ негативно влиять на экономику в целом и рынок труда в частности.

Anthropic собирается использовать подобные опросы для корректировки стратегии развития своих ИИ-моделей, поскольку их можно будет адаптировать под требования конкретных регионов. Проведённый опрос имел серьёзный перекос в сторону западных стран, поскольку в Центральной Азии, например, набралось не более нескольких сотен опрошенных. Это могло повлиять на представительность ответов, а потому результаты исследования необходимо воспринимать критически, как подчёркивают эксперты. Даже в США выборка не была представительной, поскольку доступ к Claude имеют довольно обеспеченные жители страны.

OpenAI планирует удвоить штат ради укрепления корпоративных продаж ChatGPT

К концу 2026 года OpenAI готовит почти двукратное расширение штата. Параллельно стартап с оценкой капитализации в $730 млрд усиливает продажи корпоративным клиентам, расширяет офисные площади в Сан-Франциско и меняет продуктовые приоритеты, пытаясь сократить отставание от Anthropic и укрепить позиции в корпоративном сегменте, где Anthropic в последние месяцы наращивает преимущество, а также сдержать давление со стороны Google.

 Источник изображения: openai.com

Источник изображения: openai.com

По данным источников, компания намерена увеличить численность сотрудников примерно с 4 500 до 8 000 человек к концу 2026 года. Новые сотрудники, как ожидается, будут наняты прежде всего в продуктовые, инженерные, исследовательские и коммерческие подразделения. Отдельный акцент компания делает на специалистах по техническому сопровождению внедрения. Их задача — помогать заказчикам быстрее интегрировать инструменты OpenAI в рабочие процессы и повышать прикладную отдачу от использования ИИ.

Компания заключила новый договор аренды в Сан-Франциско, увеличив общий объём занимаемых площадей в городе до 92 903 м2. По словам источников, в 2026 году компания рассчитывает расти примерно на 12 сотрудников в день. Такой темп указывает на системное масштабирование, а не на донабор отдельных команд.

Перестройка связана с ухудшением позиций OpenAI в корпоративных продажах. По данным финтех-компании Ramp с более чем 50 000 клиентов, компании, впервые закупающие решения на базе ИИ, выбирают Anthropic в 3 раза чаще, чем OpenAI. Год назад ситуация была обратной. В OpenAI с такой оценкой не согласны. Представитель компании заявил, что делать выводы о доле корпоративного рынка на основе данных платежей по банковским картам некорректно, поскольку крупные клиенты не оплачивают многомиллионные контракты картами и, вероятно, вообще не используют Ramp для таких платежей.

В конце 2025 года генеральный директор OpenAI Сэм Альтман (Sam Altman), как сообщалось, объявил внутри компании о всеобщей мобилизации ресурсов и потребовал вернуть фокус на ключевой продукт — ChatGPT. В марте 2026 года руководитель прикладного бизнеса OpenAI Фиджи Симо (Fidji Simo) призвала сотрудников отказаться от второстепенных задач и сосредоточиться на трёх направлениях: развитии Codex, расширении корпоративной клиентской базы и превращении ChatGPT в полноценный инструмент продуктивной работы.

 Anthropic быстро наращивает долю в корпоративном ИИ. Источник изображения: ramp.com

Anthropic быстро наращивает долю в корпоративном ИИ. Источник изображения: ramp.com

Симо также курирует объединение Codex и ChatGPT в единое настольное приложение, которое планируется продавать как частным пользователям, так и компаниям. Параллельно OpenAI обсуждает с инвестиционными фондами создание совместного предприятия для внедрения своих продуктов в портфельных компаниях этих фондов. Для компании это способ быстрее расширить присутствие в корпоративной среде.

ChatGPT остаётся самым успешным массовым приложением в сфере генеративного ИИ с момента запуска в 2023 году. При этом более 90 % из не менее чем 900 млн пользователей, регулярно взаимодействующих с сервисом, не платят OpenAI. Компания располагает огромной аудиторией, но значительная её часть не формирует выручку. Поэтому OpenAI одновременно ищет способы монетизации массовой базы, включая рекламу, и усиливает корпоративные продажи, где контракты крупнее и выручка устойчивее.

Anthropic с самого начала выбрала более узкую стратегию. Основанная в 2021 году бывшими исследователями OpenAI, компания сделала ставку прежде всего на корпоративных заказчиков. После запуска Claude Code эта стратегия, по данным источников, начала приносить особенно быстрый результат: в 2026 году Anthropic еженедельно увеличивала годовой темп выручки на $1 млрд. Это один из факторов, заставивших OpenAI ускорить пересмотр приоритетов.

При этом ни OpenAI, ни Anthropic пока не вышли на прибыльность. Обе компании тратят на обучение ИИ-моделей на миллиарды долларов больше, чем зарабатывают. На этом фоне для них критически важно одновременно удерживать технологический темп, сокращать издержки, наращивать выручку и приближаться к прибыли, особенно с учётом возможной подготовки к публичному размещению акций (IPO) уже в 2026 году.

 Anthropic опережает OpenAI у новых корпоративных клиентов. Источник изображения: ramp.com

Anthropic опережает OpenAI у новых корпоративных клиентов. Источник изображения: ramp.com

Следствием этого стало и быстрое распространение практики найма инженеров, работающих непосредственно у заказчика. Такие специалисты помогают адаптировать ИИ-модели, настраивать интеграции и ускорять внедрение. Подход, который раньше активно использовала Palantir, становится одним из стандартов рынка генеративного ИИ.

OpenAI рассчитывает, что к концу 2026 года около 50 % её выручки будет приходиться на корпоративных клиентов против примерно 40 % сейчас. Это означает, что корпоративный сегмент становится опорной частью её финансовой модели. Внутри OpenAI новый акцент связывают прежде всего с успехом инструментов для программирования, таких как Claude Code и Codex. По словам одного из руководителей компании, именно эти продукты открыли для бизнеса новые направления роста и заставили OpenAI изменить представление о том, как строить продуктовую линейку и работать с рынком.

Риск этой стратегии в том, что OpenAI приходится одновременно догонять Anthropic в корпоративном сегменте и удерживать позиции в массовом рынке, где с высокой интенсивностью конкурирует Google. Именно поэтому нынешнее расширение штата, рост офисных площадей и смещение продуктового фокуса следует рассматривать не как обычный этап развития, а как попытку заново определить место компании на быстро меняющемся рынке.

Пентагон принял боевую ИИ-систему Palantir Maven в качестве основной для армии США

Скандал с исключением Anthropic из числа благонадёжных поставщиков ИИ-решений с точки зрения Пентагона привлёк внимание общественности к деятельности американского военного ведомства по интеграции технологий искусственного интеллекта в свои операции. Новая памятка, полученная сотрудниками этого ведомства, гласит о выборе системы Maven компании Palantir в качестве основной для Пентагона.

 Источник изображения: Palantir

Источник изображения: Palantir

При этом сама по себе ИИ-система Maven не является новой для Министерства войны США, просто теперь она будет использоваться в качестве базовой для построения всех прочих решений в сфере искусственного интеллекта, связанных с ведением боевых действий и разведывательной деятельностью. В своём письме сотрудникам Пентагона от 9 марта заместитель министра обороны США Стив Файнберг (Steve Feinberg) подтвердил выбор Maven в качестве основной ИИ-системы в инфраструктуре военного ведомства США. На документальном уровне данный выбор будет окончательно закреплён к сентябрю текущего года, когда завершится очередной фискальный год.

Maven является ИИ-системой для боевого применения, которая позволяет обнаруживать цели на поле боя путём анализа поступающей разведывательной информации сразу по нескольким каналам. Только за время текущей операции США в Иране данная система позволила выбрать цели и нанести тысячи ударов по ним. Утверждение Maven в качестве главной системы такого типа позволит американским военным стандартизировать её применение во всех подразделениях и обеспечит Palantir долгосрочными оборонными контрактами. До сих пор эти контракты курировало Национальное агентство геопространственной разведки США, но в результате принятых решений они перейдут под контроль верховного командования американской армии.

Только один контракт Palantir с американскими военными прошлым летом принёс компании $10 млрд, а в целом их было заключено несколько штук. Капитализация этого оборонного подрядчика оценивается в $360 млрд. Система Maven обучена в автоматическом режиме обнаруживать цели на поле боя, идентифицировать возможные укрытия и склады боеприпасов и горючего. На решение соответствующих задач привычными методами ранее уходили часы. Palantir подчёркивает, что конечное решение о применении оружия делает человек, а система Maven только определяет цели. Разработка системы ведётся с 2017 года, первый контракт с Пентагоном был заключён компанией Palantir в 2024 году, принеся ей $480 млн. В мае прошлого года потолок финансирования был увеличен до $1,3 млрд. Примечательно, что сама Palantir использует для работы своих систем ИИ-решения Anthropic, от которых теперь придётся избавляться, если соответствующий запрет не будет снят.

Подрядчики Пентагона и его сотрудники не спешат отказываться от использования Anthropic

Три недели назад противоречия между Anthropic и руководством Пентагона привели к тому, что профильное программное обеспечение было запрещено к использованию в деятельности не только самого Министерства войны США, но и его подрядчиков в оборонной сфере. При этом фактически пользователи Anthropic в этой сфере не торопятся от него отказываться.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Напомним, руководство Anthropic выразило озабоченность по поводу возможности использования разработанных компанией систем для тотальной слежки за гражданами США и применения оружия в автоматическом режиме, это вызвало недовольство представителей американского военного ведомства, в результате контракт на использование чат-бота Claude в военной инфраструктуре США был расторгнут, а сама Anthropic была отнесена к числу неблагонадёжных поставщиков. Военному ведомству США и части его подрядчиков теперь предстоит перевести свои ИИ-системы на альтернативные платформы в течение шести месяцев. OpenAI уже подписала контракт с Пентагоном и надеется стать таким «заменителем».

Как поясняет Reuters, на деле отказываться от использования инструментов Anthropic не торопятся не только подрядчики Пентагона, но и его сотрудники. Во-первых, на их использование завязаны многие процессы, прерывать которые в условиях высокой военной активности США просто не представляется возможным. Во-вторых, пользователи считают решения Anthropic более удобными или эффективными по сравнению с доступными альтернативами. Специалисты Пентагона в сфере информационных технологий директивой по отказу от Anthropic недовольны по той причине, что только недавно научились использовать профильные системы в комфортном для себя режиме, а теперь их заставляют всё разрушить. Многие считают Claude самым совершенным на данный момент чат-ботом.

Один из подрядчиков Пентагона добавил, что повторная сертификация систем на новой платформе потребует многих месяцев, а в худшем случае — до полутора лет. Кроме того, переход на новую платформу потребует от Пентагона новых крупных затрат. Наконец, на функциональных процессах Министерства войны США подобная миграция также негативно скажется. Контракт Anthropic с американским военным ведомством на сумму $200 млн был заключён в июле прошлого года, Claude удалось интегрировать в ведомственные системы, управляющие секретными операциями, глубина этой интеграции по состоянию на конец февраля была очень большой. В ходе иранской операции американские военные продолжают использовать разработки Anthropic даже в условиях запрета.

Некоторые сотрудники Пентагона всё же вынуждены подчиняться запрету на использование инструментов Anthropic. В отдельных случаях от успешной автоматизации обработки данных приходится возвращаться к ручной работе с тем же Excel, например. Для написания программного кода в Пентагоне Claude Code также активно использовался в последние месяцы. Известная в определённых кругах компания Palantir, являющаяся крупным подрядчиком Пентагона, использует решения Anthropic в контрактах с ведомством на общую сумму более $1 млрд. Перестройка инфраструктуры под другое ПО потребует не только времени, но и серьёзных финансовых затрат. В некоторых случаях решения Anthropic используются для формирования потоков данных, которые требуются Пентагону буквально на ежеминутной основе, и отказаться от этого ПО крайне сложно.

Некоторые подрядчики ведомства задумались о том, чтобы при отказе от использования решений Anthropic оставить возможность быстрого возврата к ним. В этом случае представители отрасли надеются, что Пентагон отменит свой запрет до истечения шестимесячного срока, отведённого для миграции.

«Это не инопланетянин»: глава Nvidia призвал отрасль ИИ перестать пугать людей страшилками о технологии

Затянувшаяся история с конфликтом Anthropic и Пентагона по поводу безопасного и этичного использования ИИ в военной сфере не оставила шансов основателю Nvidia Дженсену Хуангу (Jensen Huang) отмолчаться на эту тему. Он призвал руководителей компаний, создающих генеративный ИИ, не «пугать людей страшилками» по поводу последствий его использования.

 Источник изображения: Nvidia

Источник изображения: Nvidia

«Желание предупредить людей о возможностях технологии — это потрясающе. Предупреждать — хорошо, пугать уже хуже, потому что эта технология очень важна для нас»,заявил глава Nvidia с трибуны конференции GTC 2026. По мнению Хуанга, для национальной безопасности США главным риском сейчас являются сами опасения по поводу того, что страна отстаёт от соперников в сфере освоения новых технологий.

Даже с учётом отстранения Anthropic от выполнения оборонных контрактов в США, по мнению Хуанга, дела у этой компании в финансовом плане пойдут нормально. Он считает, что к 2030 году выручка Anthropic перевалит за $1 трлн. По его мнению, глава стартапа Дарио Амодеи (Dario Amodei) в своих собственных прогнозах на этот счёт излишне консервативен. Как добавил Хуанг, представителям отрасли следует меньше стращать окружающих по поводу угроз, исходящих от ИИ. «Это не что-то биологическое. Это не инопланетянин. У него нет сознания. Это компьютерная программа. Говорить довольно экстремальные вещи, довольно катастрофичные, для которых нет никаких предпосылок к реализации, — само по себе может приносить больше ущерба, чем думают люди», — пояснил Дженсен Хуанг.

Он также призвал власти США не провоцировать Китай к захвату острова Тайвань, на котором сам родился и жил в детстве, пока родители не переехали в США, забрав с собой будущего основателя Nvidia. «Давайте демонстрировать сдержанность, никого ни к чему не подталкивать», — посоветовал глава Nvidia. При этом он призвал снизить концентрацию производства чипов на Тайване за счёт развития полупроводниковой промышленности не только в Южной Корее и Японии, но и в США. В последнем случае нужно действовать максимально быстро, как убеждён основатель Nvidia. Опыт Тайваня в сфере производства передовых чипов, по его словам, «заслуживает нашей дружбы и поддержки».

Anthropic догоняет OpenAI в сфере ИИ для бизнеса

Anthropic ускоряет рост на корпоративном рынке ИИ. В феврале её бизнес-подписки выросли на 4,9 % месяц к месяцу, тогда как доля OpenAI снизилась на 1,5 %. Последняя пока сохраняет лидерство на корпоративном рынке подписок с долей 34,4 % против 24,4 % у Anthropic, однако разрыв быстро сокращается на фоне конфликта вокруг сотрудничества с военным сектором США и роста интереса к ИИ-моделям Claude.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Экономист Ramp Ара Харазян (Ara Kharazian) сообщил, что почти каждая четвёртая компания, работающая через Ramp, теперь платит за Anthropic, тогда как год назад такой была одна из 25 организаций. Снижение OpenAI на 1,5 % он назвал крупнейшим месячным падением среди всех компаний-разработчиков ИИ-моделей за всё время наблюдений за корпоративным внедрением ИИ.

По словам Харазяна, компании, впервые выбирающие ИИ-сервисы, теперь примерно в 70 % случаев выбирают Anthropic. Одновременно OpenAI, по имеющимся данным, пересматривает стратегию и усиливает фокус на продажах ИИ бизнесу и разработчикам программного обеспечения — именно в тех сегментах, где Anthropic показывает наибольший рост.

Рост интереса к Claude совпал с конфликтом между Anthropic и Министерством войны США (DoW). В конце января Reuters сообщило о разногласиях, вызванных отказом компании снять защитные ограничения с ИИ-моделей, чтобы сделать их более пригодными для военного применения. В конце февраля Anthropic публично выступила против такого давления.

4 марта компания заявила, что получила уведомление о признании её рискованной организацией для цепочки поставок с точки зрения национальной безопасности США. После этого Anthropic подала иски, оспаривающие фактическое исключение компании из взаимодействия с DoW. Этот конфликт не улучшил отношения Anthropic с администрацией Дональда Трампа (Donald Trump).

По данным Sensor Tower, конфликт с DoW совпал со всплеском установок Claude и ростом числа удалений ChatGPT. На положении OpenAI также могло сказаться сотрудничество компании с Пентагоном и признание её генерального директора Сэма Альтмана (Sam Altman), что ситуация была урегулирована неудачно.

После конфликта с DoW компанию Claude публично поддержали американская певица Кэти Перри (Katy Perry) и сенатор США Брайан Шатц (Brian Schatz). Харазян описал этот эффект так: «Anthropic позиционировала себя иначе, и определённая категория пользователей это заметила». К этой же аудитории относятся пользователи, готовые платить $20 или $200 в месяц за доступ к Claude и испытывающие неприязнь к OpenAI из-за рекламы в ChatGPT.

В феврале Anthropic сообщила, что её годовой темп выручки достиг $14 млрд. Тогда же компания объявила о привлечении ещё $30 млрд. При этом в судебном документе, поданном ранее, финансовый директор Anthropic Кришна Рао (Krishna Rao) указал, что с момента выхода компании на коммерческий рынок она получила более $5 млрд выручки.

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Министерство обороны США заявило, что компания Anthropic представляет «неприемлемый риск национальной безопасности». Это первое официальное заявление ведомства в ответ на иски ИИ-разработчика, пытающегося оспорить решение министра обороны Пита Хегсета (Pete Hegseth) о присвоении Anthropic статуса компании, представляющей риски для цепочки поставок. Компания просит суд приостановить исполнение этого решения Минобороны до окончания разбирательства.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Суть аргументации Минобороны, изложенной в 40-страничном заявлении, поданном в федеральный суд Калифорнии, заключается в опасении, что Anthropic может «попытаться отключить свои технологии или упреждающе изменить поведение своих ИИ-моделей» до или во время «боевых операций», если компания «почувствует, что её корпоративные „красные линии“ могут быть пересечены».

Минувшим летом Anthropic подписала с Пентагоном соглашение на $200 млн на развёртывание своих алгоритмов в закрытых системах. В ходе последующих переговоров об изменении условий контракта компания выразила несогласие с тем, чтобы её ИИ-алгоритмы использовались для массовой слежки за американцами, а также заявила, что технология ещё не готова к применению в системах наведения или принятия решений о применении летального оружия. Пентагон в ответ заявил, что частная компания не может диктовать военным условия использования технологий. Некоторые компании выступили против действий Минобороны: OpenAI, Google, Microsoft и их сотрудники, а также правозащитные организации обратились в суд с поддержкой Anthropic.

Сама Anthropic подала в суд несколько исков, в которых обвинила Минобороны в нарушении прав компании, гарантированных Первой поправкой к Конституции США. ИИ-разработчик также обвинил военных в несправедливом наказании компании по идеологическим мотивам. Слушания по этому делу о вынесении предварительного судебного запрета пройдут на следующей неделе.

Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста

Службы на основе искусственного интеллекта постепенно переходят к решению задач творческого характера, которые ранее требовали специального ПО — теперь чат-боты умеют преобразовывать рукописные символы в цифровой шрифт. Правда, пока система работает не идеально.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Чтобы получить свой собственный шрифт, пользователю необходимо изобразить от руки алфавит, цифры и знаки препинания, отсканировать страницу и загрузить получившийся файл чат-боту с ИИ — тот преобразует рукописное начертание в шрифт формата TrueType. Результат будет зависеть от почерка человека — те, у кого он разборчивый, получат более качественный результат, чем остальные.

 Источник изображения: x.com/ashebytes

Источник изображения: x.com/ashebytes

Функция неочевидна — её обнаружила инженер-программист и специалист по ИИ Аше Магальяеш (Ashe Magalhaes). Его подход основан на одной из функций Anthropic Claude, который для решения сложных задач может вызывать внешние инструменты на языке Python. Для генерации шрифта на основе латинского алфавита необходимо изобразить на бумаге все буквы в заглавном и строчном начертаниях, цифры и знаки препинания. Изображение сканируется и загружается в чат-бот. Он анализирует контуры каждой буквы и преобразует их в векторные фигуры, которые задают основу для файла шрифта.

 Источник изображения: x.com/ashebytes

Источник изображения: x.com/ashebytes

Процесс требует аккуратного подхода. В ходе тестирования служба ИИ сначала предоставила шаблон, чтобы пользователь разместил символы на странице. Буквы должны быть чёткими, расстояние между символами — равномерным, а сканировать необходимо в оптимальных условиях без теней или эффектов неравномерного освещения. Первые попытки были неудачными: в первом выходном файле формы были искажены и напоминали скорее чернильные пятна, а не буквы. Система проанализировала собственную работу и пришла к выводу, что внешние контуры некоторых символов она распознать не смогла и запустила процесс конвертации повторно. Второй заход оказался значительно удачнее, но такие буквы как «O», «A» и «R» изображались сплошными поверхностями, без отверстий. Пришлось производить доработку. Возникали и дальнейшие проблемы: в какой-то момент в единый глиф слились буквы «x» и «y» — это тоже пришлось корректировать. В окончательном варианте удалось добиться вполне приемлемого результата.

OpenAI откажется от второстепенных разработок, чтобы не проигрывать конкурентам ИИ-гонку

После выхода осенью 2022 года ChatGPT стартап OpenAI проявлял завидную активность и всеядность с точки зрения поиска новых способов использования ИИ, но в условиях жёсткой конкуренции подобная тактика уже не может себя оправдывать с точки зрения бизнеса. Руководство компании готовится выделить приоритетные направления развития, чтобы отказаться от второстепенных.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как отмечает The Wall Street Journal, о грядущих изменениях в бизнес-стратегии OpenAI на общем собрании сотрудников сообщила директор по приложениям Фиджи Симо (Fidji Simo). По её словам, вышестоящие руководители в лице генерального директора Сэма Альтмана (Sam Altman) и ведущего исследователя Марка Чэня (Mark Chen) сейчас заняты поиском тех направлений деятельности, которые следует исключить из числа приоритетных. О принятых руководством решениях персонал OpenAI будет уведомлён в ближайшие недели.

«Мы не можем упустить этот момент, поскольку нас отвлекают второстепенные задачи», — заявила сотрудникам OpenAI Фиджи Симо на прошлой неделе, как отмечает источник. «Нам реально нужно зафиксировать продуктивность в целом и в особенности — на бизнес-направлении», — добавила она. В прошлом году OpenAI анонсировала целый спектр инициатив, который охватывал самые разные сегменты рынка, от интернет-торговли и генерации видео до интернет-браузера и выпуска аппаратных устройств. Сэм Альтман пояснял такое многообразие проектов попыткой «ставить на несколько стартапов» внутри самой OpenAI.

По имеющимся данным, в дальнейшем OpenAI хотела бы сосредоточиться на инструментах для генерирования программного кода и работе с корпоративными клиентами. В последней сфере преуспевает конкурирующая Anthropic, которой удаётся быстрее монетизировать собственные разработки, и OpenAI просто не желает отставать от соперника. Та же Anthropic пока не предложила клиентам средства для генерации видео и изображений, в отличие от OpenAI. Обе компании настроены выйти на IPO до конца текущего года, причём в случае с OpenAI выход на биржу может состояться в четвёртом квартале. Успех Anthropic в коммерческом сегменте рынка, по словам Симо, должен стать сигналом к пробуждению для OpenAI, и теперь компания ставит перед собой задачу выхода в лидеры как в сегменте инструментария для разработчиков ПО, так и для разного рода бизнес-клиентов.

Бывшие и действующие сотрудники OpenAI признались The Wall Street Journal, что прежняя разнонаправленная стратегия компании мешала им сконцентрироваться на приоритетных задачах и понимать общую стратегию компании. Команда создателей генератора видео Sora, например, работала в подразделении стартапа, занимающегося исследованиями, хотя конечный продукт оказался одним из наиболее влиятельных и сложных среди разработок OpenAI. В прошлом сентябре Sora вышла в качестве самостоятельно приложения, но после первоначального наплыва пользователей последовал спад интереса, и теперь OpenAI намеревается встроить этот генератор видео в приложение ChatGPT.

Нанятая в августе прошлого года Фиджи Симо предложила руководству более плотно интегрировать команды, занятые разработками и выпуском продуктов, а также унифицировать долгосрочную стратегию OpenAI вокруг повышения производительности труда своих пользователей. Инструмент Claude Code для автоматизации разработки ПО, выпущенный Anthropic, быстро набрал популярность среди профессионалов в этой сфере. Отыграть часть позиций на этом рынке OpenAI позволил выпуск инструмента Codex в прошлом месяце, а также дебют модели GPT 5.4, которая более ориентирована на профессиональное использование. Сейчас инструментом Codex еженедельно пользуются более двух миллионов пользователей, что в четыре раза выше показателя по состоянию на начало года. OpenAI решила активнее привлекать к разработке своих моделей консультантов со стороны и представителей клиентов. При этом Фиджи Симо не считает целесообразным регулярно объявлять «красный код опасности», но предлагает сотрудникам OpenAI работать, словно бы соответствующее объявление было сделано.


window-new
Soft
Hard
Тренды 🔥
Суд в Нидерландах тоже запретил чат-боту Grok генерировать изображения реальных людей без одежды 51 мин.
Apple: режим Lockdown Mode не позволил хакерам взломать ни одного устройства 2 ч.
Новая статья: Slay the Spire 2 — свободное время, прощай! Предварительный обзор 6 ч.
Новая статья: Обзор нового сезона Warface «Стальные кварталы»: брутальность в каждой катке! 7 ч.
В Telegram обнаружена крайне опасная уязвимость нулевого дня, но детали держат в секрете 9 ч.
Инсайдеры: легендарная The Legend of Zelda: Ocarina of Time получит ремейк для Nintendo Switch 2, причём уже скоро 11 ч.
Nacon выставила на продажу две внутренние студии, включая разработчиков Greedfall и Steelrising 12 ч.
Windows сбоит в три раза чаще macOS — по зависаниям разрыв в 7,5 раза 12 ч.
Слухи: экономия Ubisoft может поставить под угрозу крупнейшие игры компании, включая новую Ghost Recon 13 ч.
Ветеран Microsoft рассказал, как Windows 95 легко и незаметно боролась с нерадивыми разработчиками 15 ч.
Meta построит ещё семь газовых электростанций для своего гигантского ИИ ЦОД Hyperion 7 ч.
Meta построит сразу семь газовых ТЭС на 5,2 ГВт, чтобы не отстать в гонке ИИ 9 ч.
SoftBank одолжила $40 млрд на год, чтобы инвестировать их в OpenAI 9 ч.
«Не хотите ускорители? Возьмите хотя бы сеть!» — NVIDIA открыла свои ИИ-стойки для чужих чипов 10 ч.
Вебинар T1 Облако и Curator. Выбор без выбора: почему защита от DDoS-атак — не опция, а необходимость 12 ч.
Глава Nvidia выступит на Computex 2026 — ожидается анонс ноутбучного процессора Nvidia N1 12 ч.
Xiaomi представила смартфон Redmi 15A 5G за $137 и пообещала ему обновления Android до 2032 года 12 ч.
Опубликован свежий «портрет» самой старой из известных сверхновых — она взорвалась в 185 году нашей эры 13 ч.
Представлен смартфон Tecno Spark 50 5G с чипом Dimensity 6400 и батареей на 6500 мА·ч за $179 14 ч.
Первый полёт российского корабля нового поколения «Орёл» перенесли на 2028 год 14 ч.