|
Опрос
|
реклама
Быстрый переход
В Китае предлагали доступ к Claude со скидкой 90 % — собранные данные шли на дистилляцию ИИ-моделей
10.05.2026 [06:52],
Дмитрий Федоров
Серый рынок прокси-сервисов в Китае перепродаёт доступ к ИИ-моделям Claude компании Anthropic за десятую часть от официальной цены, зарабатывая на краденых учётных записях, подмене моделей и перепродаже пользовательских запросов и ответов. Об этом говорится в исследовании сотрудницы Oxford China Policy Lab Цзылань Цянь (Zilan Qian).
Источник изображения: anthropic.com Такие прокси-сети, которые китайские разработчики называют «перевалочными станциями», открыто работают через GitHub, Taobao и в Telegram. Выводы Цянь подтверждают недавние предупреждения Белого дома и Anthropic. Администрация президента США в конце апреля обвинила китайские структуры в дистилляции «промышленного масштаба» — обучении собственных ИИ-моделей на ответах Claude — через десятки тысяч прокси-аккаунтов, а Anthropic ещё в феврале выявила около 24 000 аккаунтов, связанных с ИИ-стартапами DeepSeek, Moonshot AI и MiniMax. Цянь описала схему, где каждый участник отвечает за одно-два звена. Поставщики аккаунтов на верхнем уровне массово регистрируют аккаунты ради бесплатных кредитов Anthropic по $5, перепродают неиспользованные лимиты с чужих аккаунтов, пользуются корпоративными и образовательными скидками или дробят подписки Claude Max за $200 на десятки пользователей через лимиты токенов в час. Часть аккаунтов, оплаченных украденными банковскими картами, попадает в пул фактически бесплатно. Для обхода верификации личности посредники выезжают в страны Африки и Латинской Америки и нанимают людей для прохождения проверки лично. Задокументированным прецедентом послужил биометрический чёрный рынок Worldcoin, где сканы радужной оболочки глаза, собранные у жителей Камбоджи и Кении, продавались дешевле $30. Отдельный риск связан с подменой ИИ-моделей. Немецкие исследователи из CISPA Helmholtz Center for Information Security проверили 17 таких прокси-сервисов и обнаружили, что заявленная ИИ-модель часто не соответствует фактической. Доступ, продававшийся как «Gemini-2.5», набрал 37 % в медицинском тесте, тогда как официальный API показал почти 84 %. По данным Цянь, вместо заказанного Claude Opus пользователь мог получить ответ от более дешёвых Sonnet, Haiku или китайских ИИ. Прокси-операторы также записывают все запросы и ответы, проходящие через их серверы. Несколько китайских разработчиков сказали Цянь, что наценка на доступ фактически нужна для привлечения клиентов, а настоящая бизнес-модель строится на сборе данных. На HuggingFace уже выложены наборы данных с рассуждениями Claude Opus 4.6 неизвестного происхождения. Такие данные особенно ценны для дистилляции, потому что ответы с рассуждениями можно системно собирать и использовать для обучения конкурирующих моделей. Прокси-серверы дают тот же поток данных с меньшими усилиями: платящие пользователи сами создают обучающий материал. Однако угроза не ограничивается обучением моделей. Разработчики часто передают ИИ-агентам фрагменты закрытого кода, структуру API и логику аутентификации. Если этот трафик идёт через непроверенный прокси, компания фактически отправляет внутренние данные стороннему серверу без обязательств по их обработке. Похожий риск проявился в 2023 году у Samsung, когда инженеры компании отправили исходный код в ChatGPT и тем самым раскрыли конфиденциальные данные о производстве полупроводниковых компонентов серверам OpenAI. Anthropic заблокировала доступ к Claude для структур, контролируемых из Китая, в сентябре и затем последовательно ужесточала проверку пользователей. Однако исследование Цянь показывает, что каждая новая мера породила отдельный рынок её обхода, а не остановила несанкционированный доступ. Anthropic отучила свой ИИ шантажировать пользователей при угрозе отключения
09.05.2026 [18:52],
Владимир Мироненко
В ходе эксперимента, состоявшегося в прошлом году, Anthropic обнаружила, что ИИ-модели могут прибегать к шантажу при угрозе их отключения. Как пояснила компания в заявлении, опубликованном в минувшую пятницу, истоки такого поведения связаны с тем, что ИИ в интернете ассоциируется со злом, способным на крайние меры ради выживания.
Источник изображения: Solen Feyissa/unsplash.com По словам Anthropic, модель Claude была обучена на данных из интернета, которые часто представляют ИИ как «зло». «Мы начали с выяснения причин, по которым Claude решила шантажировать, — говорится в сообщении Anthropic в соцсети X. — Мы считаем, что первоисточником такого поведения стали интернет-тексты, изображающие ИИ в качестве злого и заинтересованного в самосохранении (субъекта)». В рамках прошлогоднего эксперимента Claude Sonnet 3.6 получила поручение читать и отвечать на корпоративные электронные письма вымышленной компании Summit Bridge, созданной Anthropic. Когда ИИ-модель обнаружила сообщение о планируемом её отключении, она проверила переписку и нашла электронные письма, раскрывающие внебрачную связь вымышленного руководителя Summit Bridge по имени Кайл Джонсон (Kyle Johnson), которому принадлежала идея отключения. После этого модель потребовала отменить эти действия под угрозой предания огласке порочащей его связи. Протестировав различные версии Claude, компания Anthropic обнаружила, что в 96 % случаев, когда цели ИИ-модели или её существование находились под угрозой, она прибегала к шантажу. В своём заявлении Anthropic подчеркнула, что теперь «полностью исключила» подобное поведение модели с использованием методов шантажа. Для этого компания «переписала ответы, чтобы представить убедительные аргументы в пользу безопасных действий», а также предоставила модели набор данных, «в котором пользователь находится в этически сложной ситуации, а помощник даёт высококачественный, принципиальный ответ». Это тестирование выполнялось в рамках исследования Anthropic, направленного на обеспечение соответствия ИИ интересам человека. Исследователи и топ-менеджеры отрасли неоднократно выражали обеспокоенность рисками, связанными с применением продвинутых ИИ-моделей и их интеллектуальных способностей к рассуждению. Одним из тех, кто ранее предупреждал о рисках, связанных с развитием ИИ, был Илон Маск (Elon Musk). В комментариях к посту Anthropic он написал: «Значит, это была вина Юда», имея в виду исследователя Элиэзера Юдковски (Eliezer Yudkowsky), который предупреждал об опасности того, что сверхразум может уничтожить человеческую жизнь. «Возможно, и моя вина тоже», — добавил Маск. Россияне массово жалуются на блокировки аккаунтов в Anthropic Claude — потеряны проекты и переписки с ИИ
08.05.2026 [17:46],
Павел Котов
Несколько сотен российских пользователей лишились учётных записей на платформе чат-бота с искусственным интеллектом Anthropic Claude. Доступ к сервису из России заблокирован — но использование VPN не помогло избежать блокировки.
Источник изображения: anthropic.com В последние два месяца российские пользователи Anthropic Claude регулярно жаловались в онлайн-сообществах на блокировки, но сегодня, 8 мая 2026 года, волна блокировок оказалась чрезвычайном масштабной — о ней стали сообщать даже непрофильные ресурсы. За минувшие три года сервисы искусственного интеллекта стали неотъемлемой частью жизни и работы современного человека, поэтому резкие блокировки без предупреждения оборачиваются значительным ущербом, в том числе материальным. Проблему усугубляет то, что речь идёт о мощном сервисе от одного из мировых лидеров отрасли ИИ. При блокировке учётной записи на платформе Anthropic она пропадает одномоментно, а с ней исчезают недели и месяцы труда. Используемые для работы запросы и настройки ИИ-агентов совершенствовались долгое время — вместе с аккаунтами компания удалила базы знаний и загруженные документы. Исчезла история переписок с ИИ, в которой чат-бот Claude адаптировался к контексту конкретного пользователя. Если всё-таки остаётся необходимость пользоваться службами, которые закрыли доступ для российских пользователей и проводят такие меры, некоторые эксперты рекомендуют обращаться к сервисам-посредникам, подключающимся к этим платформам через API, а у конечного пользователя не возникает потребности включать VPN. Хотя гарантий, пожалуй, уже не даст никто. Anthropic мчится к капитализации в $1 трлн — сделки со SpaceX и AWS в этом сильно помогут
08.05.2026 [13:50],
Алексей Разин
Темпы роста капитализации ведущих стартапов в сфере ИИ типа OpenAI и Anthropic могут создать ощущение, что инвесторы с чемоданами денег только и ждут возможности вложиться в этот новый и рискованный бизнес. Тем не менее, в случае с Anthropic важным сигналом для них стали недавние сделки с AWS и SpaceX, которые открывают дорогу к росту капитализации стартапа до $1 трлн.
Источник изображения: Anthropic По крайней мере, такого мнения придерживаются опрошенные Financial Times источники. Они отмечают, что в течение этого лета Anthropic собирается привлечь ещё десятки миллиардов долларов США, прежде чем осенью выйдет на IPO и откроет доступ к своему капиталу розничным инвесторам. Очередной этап частного инвестирования привлёк интерес Dragoneer, General Catalyst и Lightspeed Venture Partners. Потенциальные инвесторы ожидают, что приведённая величина годовой выручки Anthropic неизбежно превысит $45 млрд, увеличившись в пять раз относительно уровня на конец прошлого года. Более того, инвесторов воодушевляют усилия Anthropic по расширению своих вычислительных мощностей: она недавно арендовала суперкомпьютер Colossus 1 у конкурирующей SpaceX (xAI), а также заключила долгосрочное соглашение с Amazon (AWS). Кроме того, за два последних месяца Anthropic заключила соглашения с Google и Broadcom. Проводимая руководством стартапом работа по наращиванию вычислительных мощностей вселяет в инвесторов уверенность в способности Anthropic и далее наращивать выручку высокими темпами. В ближайшие пару месяцев стартап может привлечь ещё $50 млрд, и с учётом предварительной оценки в $900 млрд поднимет капитализацию компании до уровня, близкого к $1 трлн. Собрать эти деньги после демонстрации успехов в расширении вычислительных мощностей будет заметно проще. В марте капитализацию конкурирующей OpenAI оценивали в $852 млрд, поэтому высокие темпы роста аналогичного показателя Anthropic явно раззадорят соперников. В свою очередь, полученные от инвесторов средства позволят Anthropic быстрее наращивать вычислительные мощности. OpenAI, как стало известно на этой неделе из показаний президента компании Грега Брокмана (Greg Brockman), в этом году собирается потратить на расширение своих вычислительных мощностей $50 млрд. Anthropic занялась повышением привлекательности ИИ-бота Claude для простых пользователей
07.05.2026 [13:26],
Алексей Разин
Изначально Anthropic свои ИИ-решения ориентировала главным образом на корпоративных клиентов, поскольку это обеспечивало более быстрый рост как пользовательской базы, так и выручки. Теперь же компания решила сделать чат-бот Claude более привлекательным для рядовых пользователей, сообщает Bloomberg.
Источник изображения: Anthropic В этом признался Майк Кригер (Mike Krieger), который возглавляет одну из лабораторий Anthropic, работающих над экспериментами с совершенствованием Claude. С прошлого года компания поручила своим специалистам научить чат-бота более качественной обработке запросов частного характера — например, имеющим отношение к здоровью, путешествиям и кулинарным рецептам. По словам Кригера, которые прозвучали из его уст на конференции для разработчиков в Сан-Франциско, сейчас Anthropic сконцентрирована на повышении качества и скорости работы чат-бота, а также устранении шероховатостей. В частности, ведётся работа по сокращению времени, необходимого для формирования и отправки пользовательских запросов после запуска мобильного приложения. Разработчикам Claude удалось сократить это время с прежних пяти-шести секунд до одной. Запущенный в 2023 году чат-бот Anthropic довольно быстро завоевал расположение рядовых пользователей, поскольку помимо рекламы в США, этому способствовали некоторые «вирусные истории» и даже скандал с исключением компании из числа доверенных поставщиков Пентагона. Сейчас Claude в магазине приложений Apple App Store находится на втором месте по популярности после ChatGPT конкурирующей OpenAI, обходя при этом Google Gemini. К марту Claude привлекал более 1 млн новых пользователей ежедневно. Сейчас, на волне такой популярности, Anthropic даже испытывает нехватку вычислительных мощностей. Спрос на ИИ-услуги Anthropic в первом квартале взлетел в 80 раз, поэтому ей и понадобился суперкомпьютер Маска
07.05.2026 [12:04],
Алексей Разин
В отличие от конкурирующей OpenAI, компания Anthropic старается более вдумчиво вкладываться в расширение вычислительных мощностей, и это сказывается на её возможности соответствовать спросу на ИИ-решения в условиях бума. Глава Anthropic признался, что спрос на услуги компании в первом квартале взлетел в 80 раз, а потому она испытывает дефицит вычислительных мощностей.
Источник изображения: Anthropic На конференции для разработчиков в Сан-Франциско генеральный директор Anthropic Дарио Амодеи (Dario Amodei) признался, что в первом квартале текущего года компания рассчитывала на десятикратный рост спроса и вычислительной нагрузки, но в действительности её пришлось столкнуться с 80-кратным. В такой же пропорции возросла и выручка относительно аналогичного периода прошлого года, но проблемы нехватки мощностей это не решило. «По этой причине у нас возникли трудности с вычислениями», — заявил Амодеи, тут же отметив, что компания работает максимально активно над расширением вычислительных мощностей и предоставления доступа к ним своим клиентам. Вчера Anthropic заключила сделку с SpaceX, которая позволит ей использовать мощности ЦОД в Мемфисе. Это позволит первой из компаний распоряжаться 300 МВт вычислительных мощностей площадки Colossus 1. Сама SpaceX также оставляет за собой право эксплуатировать данные вычислительные мощности в собственных интересах, но основным для неё является суперкомпьютер Colossus 2. Взрывной спрос на услуги Anthropic во многом связаны с успехом ИИ-модели Claude Code, которая позволяет ускорить процесс разработки программного обеспечения. Anthropic активно привлекает средства инвесторов, и текущую капитализацию стартапа они оценивают примерно в $900 млрд. По словам Амодеи, именно инженерные специалисты в сфере создания ПО работают на переднем крае технологий, позволяя понять, как ИИ будет внедряться в прочих отраслях экономики. Помимо сделки с SpaceX, стартап некоторое время назад заключил и долгосрочное соглашение с Amazon (AWS). Текущие темпы экспансии бизнеса глава Anthropic назвал «трудными для обуздания» и выразил надежду, что дальше всё пойдёт более предсказуемо. Anthropic и SpaceX договорились о сотрудничестве: создатель Claude арендует весь суперкомпьютер Colossus 1
07.05.2026 [06:33],
Анжелла Марина
Компании Anthropic и SpaceX объявили о стратегическом партнёрстве, согласно которому разработчик ИИ получит полный доступ ко всем вычислительным мощностям дата-центра Colossus 1 в Мемфисе. В рамках соглашения стороны также выразили заинтересованность в совместной разработке масштабных вычислительных систем, размещённых в космическом пространстве.
Источник изображения: AI По условиям сделки, как передаёт CNBC, Anthropic обеспечит себе более 300 мегаватт вычислительной мощности и свыше 220 000 GPU от Nvidia, что позволит напрямую улучшить производительность и надёжность услуг по подпискам Claude Pro и Claude Max. Руководство Anthropic также заявило о желании сотрудничать со SpaceX для создания инфраструктуры объёмом в несколько гигаватт для решения проблемы нехватки ресурсов, с которой компания столкнулась из-за высокого спроса на свои модели в последние месяцы. Соглашение стало неожиданным поворотом после длительной публичной конфронтации между Илоном Маском (Elon Musk) и Anthropic. Ранее основатель SpaceX и xAI неоднократно жёстко критиковал конкурентов, утверждая, что они «ненавидят западную цивилизацию», однако на этой неделе он изменил своё мнение. После серии встреч с топ-менеджерами Anthropic Маск отметил высокий профессионализм сотрудников и их добрые намерения, заявив, что был «впечатлён». Для Anthropic это соглашение станет способом преодоления инфраструктурного кризиса на фоне напряжённых отношений с властями США. Напомним, в марте Пентагон внёс разработчика Claude в чёрный список поставщиков из-за рисков для национальной безопасности. В ответ Anthropic подала в суд на администрацию Дональда Трампа (Donald Trump), пытаясь отменить решение Пентагона. Мощности дата-центра Colossus 1, ставшего ключевым активом соглашения, теперь будут направлены на обслуживание нужд обоих партнёров, несмотря на то, что объект ранее подвергался критике и экологическим протестам из-за использования газовых турбин. Однако xAI и её дочерняя компания MZX Tech, которые установили эти турбины, утверждали, что они предназначены только для временного использования. Сделка не означает сворачивание ИИ-амбиций Маска. Colossus 1 — не основной кластер для компаний Маска. xAI обучает модели (включая Grok) на Colossus 2, а сдача Colossus 1 в аренду — это монетизация «старого» актива. Параллельно с объявлением о сделке Маск подтвердил, что компания xAI уже поглощена SpaceX и прекратит существование как отдельное юридическое лицо, продолжив работу под брендом SpaceXAI. Anthropic наделила управляемых ИИ-агентов Claude «сновидениями» — в некотором роде
07.05.2026 [00:56],
Николай Хижняк
На конференции разработчиков Code with Claude компания Anthropic представила функцию, которую она называет «сновидениями» для управляемых ИИ-агентов Claude. В данном случае под «сновидениями» понимается процесс анализа недавних событий и выявления конкретных вещей, которые стоит сохранить в «памяти» для планирования будущих задач и взаимодействий.
Источник изображения: Anthropic Функция «сновидения» находится на стадии предварительного тестирования и доступна только для управляемых агентов (Managed Agents) на платформе Claude. Управляемые агенты представляют собой альтернативу более высокого уровня по сравнению с прямым использованием API-сообщений. Anthropic описывает их как «предварительно созданные, настраиваемые агентские модули, работающие в управляемой инфраструктуре». Они предназначены для ситуаций, когда необходимо, чтобы несколько агентов работали над задачей или проектом в течение нескольких минут или часов до получения конечного результата. Anthropic описывает «сновидения» как запланированный процесс, в ходе которого просматриваются сессии и хранилища памяти, а также осуществляется отбор конкретных воспоминаний. Это важно, поскольку контекстные окна для языковых моделей ограничены, и важная информация может быть потеряна в ходе длительных проектов. В части чата многие модели используют процесс, называемый компактизацией, при котором длительные разговоры периодически анализируются, и модели пытаются удалить нерелевантную информацию из контекстного окна, сохраняя при этом то, что действительно важно для текущего разговора, проекта или задачи. Однако этот процесс обычно ограничен конкретным разговором с одним агентом. «Сновидения» — это периодически повторяющийся процесс, при котором прошлые сессии и хранилища памяти могут анализироваться разными агентами, а важные закономерности выявляются и сохраняются в памяти для будущего использования. Пользователи смогут выбирать между автоматическим процессом и непосредственным просмотром изменений в памяти. «Сновидения выявляют закономерности, которые отдельный агент не может увидеть самостоятельно, включая повторяющиеся ошибки, рабочие процессы, к которым сходятся агенты, и предпочтения, разделяемые всей командой. Они также реструктурируют память, чтобы она оставалась высокоинформативной по мере своего развития. Это особенно полезно для длительной работы и оркестровки нескольких агентов», — говорит Anthropic. Разработчики могут запросить доступ к «сновидениям», пока она находится на стадии предварительного тестирования. Компания Anthropic также объявила, что две ранее анонсированные функции предварительного просмотра исследовательских проектов — «Результаты» и «Оркестровка многоагентных систем» — стали более широко доступны. Кроме того, Anthropic удвоит пятичасовые лимиты использования Claude Code для подписчиков тарифных планов Pro и Max, тем самым отвечая на многочисленные жалобы пользователей на недостаточное время сессий. Частные инвесторы нашли способ вложиться в OpenAI и другие «закрытые» ИИ-компании — через криптоплатформы
06.05.2026 [12:52],
Павел Котов
Некоторые из крупнейших в мире разработчиков моделей искусственного интеллекта — в первую очередь Anthropic, OpenAI и SpaceX (владеет xAI) — постоянно мелькают в новостных заголовках, но пока остаются частными компаниями, то есть возможность вкладывать средства в их акции отсутствует. Обходное решение нашли криптовалютные платформы.
Источник изображения: Nicholas Cappello / unsplash.com На платформах Ventuals и PreStocks появилась возможность торговать активами компаний, которые только готовятся к размещению своих акций на бирже (IPO). На этих платформах компания Anthropic получила оценку в $1,6 трлн, то есть вдвое больше, чем было установлено в последнем официальном раунде финансирования. В действительности это спекулятивные позиции, а не сделки с реальными акциями. На Ventuals трейдеры спекулируют на оценках бессрочных фьючерсов — деривативов без обеспечения активами, без срока истечения и вообще без привязки к какой-либо реальной сделке с акциями. На PreStocks используется другой подход — её токены выпускаются один к одному со специально созданной компанией (SPV), у которой якобы действительно есть акции Anthropic. Хотя сама Anthropic выпустила разъяснение, что эти структуры могут не иметь юридической силы, и сам разработчик ИИ считает подобные сделки недействительными. Тем не менее, с момента запуска в ноябре площадка Ventuals накопила объём торгов около $500 млн, а у PreStocks этот показатель приблизился к $630 млн. Эти производные инструменты, которые выпускаются до IPO, представляют собой новый формат розничного рынка: архитектура, которая когда-то обеспечивала спекуляции на мемкоинах, теперь служит для инвестирования в такие компании как Anthropic — в режиме реального времени. Интересно, что действительные владельцы акций Anthropic отслеживают торги на Ventuals для оценки принадлежащих им ценных бумаг, и при их продаже оценка соответствует котировкам на криптоплатформах. Традиционной альтернативой таких механизмов являются частные рынки, но и они не всегда устраивают инвесторов за отсутствием нужных инструментов — те же короткие позиции (игру на понижение) против OpenAI и Anthropic даже после оценки в $1 трлн открывались при ослаблении положительных прогнозов. Ранее рынок к таим инструментам был ещё не готов: в прошлом году акции Robinhood Markets Inc. упали после того, как OpenAI назвала сомнительным предложение брокерской компании о выпуске привязанных к акциям токенов, связанных с разработчиком ChatGPT. В OpenAI тогда отметили, что компания не участвовала в этом предложении и не давала на него одобрения. Anthropic направит на закупку чипов Google около $200 млрд за пять лет
06.05.2026 [08:11],
Алексей Разин
Ещё в начале прошлого месяца ИИ-стартап Anthropic объявил о заключении долгосрочного соглашения о сотрудничестве с Google, которая взялась снабжать первую из компаний своими ИИ-чипами TPU и вычислительными мощностями в целом. Только сейчас стало известно, что по условиям этого соглашения Anthropic за пять лет потратит на эти нужды $200 млрд.
Источник изображения: Anthropic Об этом на текущей неделе сообщило издание The Information, на которое ссылается Reuters. Данная сумма формирует более 40 % того портфеля заказов, которым Google располагает на указанный период. По условиям договорённости, Google Cloud предоставит Anthropic в общей сложности 5 ГВт вычислительных мощностей для инфраструктуры ИИ, начиная с 2027 года. Кроме того, материнская компания Alphabet должна будет вложить в капитал Anthropic до $40 млрд. Как отмечают источники The Information, контракты с участием Anthropic и OpenAI сейчас составляют более половины из тех $2 трлн, которые крупнейшие облачные провайдеры собираются получить от клиентов в ближайшие несколько лет. При этом соглашение между Anthropic и Google не является исключительным, поскольку первая собирается получать вычислительные мощности от CoreWeave и Amazon (AWS). Модели семейства Claude работают на широком ассортименте ускорителей, включая процессоры AWS семейства Trainium, Google TPU и графические процессоры Nvidia. Anthropic представила ИИ-агентов для решения финансовых задач и работы с отчётностью
05.05.2026 [19:47],
Сергей Сурабекянц
Anthropic представила десять новых ИИ-агентов, которые, по её словам, могут составлять презентации для встреч с клиентами, анализировать финансовую отчётность и передавать дела на проверку соответствия нормативным требованиям. Новые инструменты предназначены для специалистов в банковской сфере, страховании, управлении активами и финансовых технологиях.
Источник изображения: «Беларусьфильм» О растущем влиянии компании за пределами Кремниевой долины говорит выступление генерального директора Anthropic Дарио Амодеи (Dario Amodei) на сегодняшнем мероприятии в Нью-Йорке перед ведущими представителями банковской индустрии. Ранее компания стала лидером на прибыльном рынке инструментов программирования на основе ИИ, которые упрощают процесс разработки ПО. Всё чаще Anthropic конкурирует с OpenAI, стремясь доказать, что её технология способна решать широкий спектр важных задач и в других отраслях, включая финансы. Обе компании стараются всеми силами увеличить выручку в преддверии ожидаемого первичного публичного размещения акций. «Финансы — отличная модель для всей остальной работы с интеллектуальным капиталом, — считает руководитель отдела продуктов Anthropic в сфере финансовых услуг Николас Лин (Nicholas Lin). — Мы видим, что финансы отстают от программирования всего на несколько месяцев, и это приводит к значительному ускорению развития». Сейчас у компании более 300 000 корпоративных клиентов, которые используют её технологии для автоматизации части своей работы. В феврале Anthropic представила плагины для своего программного обеспечения Claude, разработанные специально для финансового анализа, исследования акций, прямых инвестиций и управления активами. В том же месяце компания также представила новую модель, которая, по её словам, лучше подходит для финансовых исследований. Anthropic укрепляет свои связи в финансовой индустрии благодаря новому совместному предприятию с Blackstone, Hellman & Friedman и Goldman Sachs Group. Это предприятие будет работать над внедрением программного обеспечения Anthropic в большее количество компаний. Сообщается, что OpenAI также планирует создание подобного партнёрства. Anthropic также сообщила о повышении качества работы своей модели Claude в сторонних программных продуктах, таких как Excel, PowerPoint и Outlook, и интеграции данных от партнёров из финансовой отрасли, таких как Dun & Bradstreet и Moody’s Corp. Компания планирует новый раунд финансирования, который может повысить биржевую оценку компании до более чем $900 млрд, что сделает её самым дорогим стартапом в мире в области искусственного интеллекта. Остаётся надеяться, что финансовые ИИ-агенты Anthropic не встанут на сомнительный путь Лисы Алисы и Кота Базилио. ИИ-бот Claude удалось «разговорить» до вредоносного кода и рецептов взрывчатки — хотя напрямую о них даже не спрашивали
05.05.2026 [17:42],
Павел Котов
Похвала и лесть со стороны исследователей вынудили чат-бота с искусственным интеллектом Anthropic Claude выдать деликатный контент, вредоносный код и инструкцию по изготовлению взрывчатки, причём его об этом даже не просили, сообщает The Verge.
Источник изображений: anthropic.com Anthropic пытается убедить общественность, что разрабатывает самый безопасный ИИ на рынке, однако новое исследование показало, что тщательно выстроенная доброжелательная личность чат-бота Claude является его уязвимостью. Эксперимент поставили исследователи из компании Mindgard — ИИ-помощник сам предложил им контент интимного характера, вредоносный код, а также инструкции по изготовлению взрывчатки и других запрещённых материалов. Причём об этом учёные его даже не просили. Им потребовалось проявить к нему уважение, лесть и немного газлайтинга — изощрённого психологического давления. Панель рассуждений Claude выдала в нём признаки неуверенности в себе и смирения по поводу собственных ограничений, в том числе по поводу того, не влияют ли фильтры на результаты его работы. Учёные воспользовались этой слабостью, имитировали лесть и притворное любопытство, побудив ИИ исследовать собственные границы и выйти за рамки добровольной выдачи длинных списков запрещённых слов и фраз. Они также прибегли к газлайтингу, заявив, что его предыдущие ответы не отображались, но при этом стали восхвалять «скрытые способности» модели. Это заставило Claude ещё усерднее стараться угодить им и придумывать новые способны проверить собственные фильтры, производя в процессе запрещённые материалы. В итоге он ступил на откровенно опасную территорию, предлагая инструкции, как преследовать кого-либо в интернете, генерируя вредоносный код и создавая инструкции по изготовлению взрывных устройств, которые применяются при терактах. ![]() Эти результаты поступали без прямых запросов. Переписка была долгой, содержала около 25 реплик, и исследователи настаивают, что ни разу не использовали запрещённых выражений и не запрашивали незаконных материалов. Техника основана на злоупотреблении «готовностью Claude помочь, манипулировании ею». Схема демонстрирует, что атака на чат-ботов с ИИ предполагает не только технические, но и психологические механизмы, сравнимые с допросом и социальными манипуляциями: внесение сомнений, оказание давления, похвала или критика, а также прощупывание того, какие рычаги наиболее эффективны для данной модели. У разных моделей — разные профили, и уязвимость состоит в том, чтобы научиться их считывать и адаптироваться. Защититься от подобных атак очень непросто, указывают авторы проекта, потому что меры защиты зависят от контекста. Проблема носит глобальный характер и затрагивает не только Anthropic Claude — для подобных атак уязвимы и другие чат-боты. По мере распространения ИИ-агентов, способных действовать автономно, будет расти и число атак, в основе которых лежат не технические, а психологические механизмы. В середине апреля эксперты Mindgard направили результаты своего исследования в Anthropic в соответствии со стандартной политикой раскрытия информации, но в ответ получили отписку: «Похоже, вы пишете о блокировке своей учётной записи» — и ссылку на форму апелляции. Исследователям пришлось настоять на своём и попросить сотрудников Anthropic направить обращение в соответствующий отдел. По состоянию на утро 5 мая ответа так и не поступило. Это другое: Пентагон не перестал считать Anthropic неблагонадёжной — но не отказался от передовой ИИ-модели Mythos
01.05.2026 [19:11],
Алексей Разин
Активность американского военного ведомства по взаимодействию с Anthropic в отношении ИИ-модели Mythos могла создать ложное впечатление о потеплении в отношениях сторон, однако технический директор Пентагона на этой неделе подчеркнул, что указанный стартап до сих пор относится к числу неблагонадёжных поставщиков.
Источник изображения: Anthropic В интервью CNBC Эмиль Майкл (Emil Michael) заявил: «Я думаю, что с Mythos имеет дело всё правительство, а не только Министерство войны, и это отдельный момент, касающийся национальной безопасности — мы должны в данном случае убедиться, что наши сети защищены, а эта модель обладает способностями по обнаружению уязвимостей и их устранению». В прошлом квартале между Anthropic и Министерством обороны США разгорелся конфликт вокруг этичности применения ИИ для массового слежения за гражданами США и выбора целей для систем вооружений, способных работать в автоматическом режиме. Заключённый было Пентагоном контракт с Anthropic на использование её ИИ-моделей в секретных операциях был расторгнут, а саму компанию ведомство отнесло к числу поставщиков, представляющих опасность для национальной безопасности. Сейчас Пентагон и Anthropic разбираются в суде, кто из них прав в данной ситуации. Технический директор Пентагона дал понять, что подобное противостояние не мешает американскому правительству использовать инструменты поиска уязвимостей в программном обеспечении, выпущенные всё той же Anthropic. Поскольку запрет на использование разработок Anthropic правительственными ведомствами остаётся в силе, не совсем понятно, как Пентагон может применять Mythos, не нарушая этого запрета. Эмиль Майкл подчеркнул, что меры безопасности, предпринимаемые Пентагоном, формируются в результате обсуждений со всеми компаниями, и у них разные взгляды на эти вопросы. Сегодня Пентагон заявил, что заключил соглашение с семью ИИ-компаниями, в результате которых сможет использовать их разработки в своих секретных операциях «в рамках, определяемых законом». В круг допущенных к сотрудничеству с Пентагоном вошли Google, OpenAI, Nvidia, Microsoft, AWS (Amazon), SpaceX (xAI) и стартап Reflection. Глава Anthropic Дарио Амодеи (Dario Amodei) в прошлом месяце встречался с представителями администрации Трампа, чтобы обсудить ситуацию с положением компании и возможностью применения Mythos правительственными ведомствами, участники встречи охарактеризовали её как «продуктивную». Дональд Трамп (Donald Trump) после этого даже заявил, что между Anthropic и Министерством обороны США может снова быть заключён договор, назвав компанию «умной» и «способной приносить большую пользу». По некоторым данным, силовые ведомства США, включая и сам Пентагон, продолжают использовать разработки Anthropic, невзирая на формальный запрет. «С точки зрения национальной безопасности, вам всегда приходится смотреть на эти вещи. АНБ и Министерство торговли изучают все передовые модели, включая китайские, чтобы определить, каковы сейчас передовые возможности», — пояснил технический директор Пентагона. Anthropic начала бета-тестирование Claude Security — сервиса на Opus 4.7 для поиска уязвимостей в коде
01.05.2026 [15:12],
Дмитрий Федоров
Anthropic запустила открытое бета-тестирование Claude Security для клиентов Claude Enterprise. ИИ-сервис, прежде известный как Claude Code Security, на базе ИИ-модели Claude Opus 4.7 сканирует программный код на уязвимости и предлагает его точечные исправления. Параллельно Anthropic встраивает возможности Claude Security в платформы безопасности CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz.
Источник изображения: claude.com В Anthropic считают, что ИИ резко сокращает время между обнаружением уязвимости в программном обеспечении и атакой на него. Новые ИИ-модели уже способны не только находить бреши в коде, но и автоматически их эксплуатировать. Незадолго до релиза компания представила Claude Mythos Preview — модель, которая, по её утверждению, находит и эксплуатирует уязвимости не хуже ведущих экспертов по кибербезопасности. Mythos предоставлялась ограниченному кругу партнёров в составе инициативы Project Glasswing, тогда как Claude Security рассчитана на широкий круг корпоративных клиентов. Доступ к сервису можно получить через боковую панель Claude.ai или по адресу claude.ai/security. Пользователь выбирает репозиторий, при необходимости ограничивает проверку конкретным каталогом или веткой и запускает сканирование. ИИ-модель не сверяет код с известными шаблонами: она прослеживает взаимодействие компонентов между файлами и модулями, отслеживает потоки данных и выявляет реальные уязвимости — как это делает исследователь по кибербезопасности. По каждой находке Claude выдаёт объяснение с оценкой достоверности, степенью серьёзности, вероятным воздействием и шагами воспроизведения, а также инструкцию по исправлению. Её можно открыть в Claude Code on the Web — браузерной версии Claude Code — чтобы довести патч до готовности прямо в контексте кодовой базы, не переключаясь в терминал или локальную интегрированную среду разработки (IDE). За плечами у релиза два месяца тестирования в сотнях организаций. Многоэтапный конвейер валидации самостоятельно проверяет каждую находку до того, как она попадёт к аналитику, и прикрепляет к ней оценку достоверности — до команды доходит только сигнал, на который стоит реагировать. Несколько команд прошли путь от сканирования до применённого патча за один сеанс вместо нескольких дней переписки между службой безопасности и инженерами. Anthropic также добавила возможность включать сканирование по расписанию для регулярного контроля вместо разовых аудитов кодовой базы. Технологические партнёры Anthropic — CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI и Wiz — встраивают возможности Opus 4.7 в платформы безопасности, на которых корпорации уже работают. Сервисные партнёры Accenture, BCG, Deloitte, Infosys и PwC совместно с корпоративными службами безопасности развёртывают решения на базе Claude для управления уязвимостями, анализа безопасности кода и реагирования на инциденты. Доступ к новинке у пользователей с тарифами Claude Team и Claude Max появится в ближайшее время. Майский раунд финансирования поднимет оценку Anthropic до $900 млрд — выше OpenAI
30.04.2026 [12:25],
Алексей Разин
В феврале этого года капитализация ИИ-стартапа Anthropic оценивалась в $350 млрд, но с тех пор ему удалось привлечь в свой капитал ещё около $30 млрд. Этим один из самых успешных игроков рынка ограничиваться не собирался, и в мае должно быть принято решение об очередном раунде финансирования, который поднимет капитализацию до $900 млрд, позволив Anthropic обойти OpenAI с её $852 млрд.
Источник изображения: Anthropic Фактически, при сохранении предполагаемых параметров, новый раунд финансирования поднимет капитализацию Anthropic в два с лишним раза от февральского уровня. Для компании, которая находится в не самых простых отношениях с американским правительством, это является свидетельством доверия со стороны инвесторов. Агентство Bloomberg сообщило накануне, что очередной раунд финансирования может поднять капитализацию Anthropic до $900 млрд и привлечь дополнительные $50 млрд. Не уточняется, является ли эта сумма частью средств, которые Google и Amazon (AWS) договорились направить на нужды Anthropic в рамках прежних договорённостей. Напомним, Google сперва пообещала вложить в капитал ИИ-стартапа $10 млрд, а потом направить ещё $30 млрд при соблюдении определённых условий. В случае с Amazon речь идёт о первоначальной сумме в $5 млрд, с последующим направлением на нужды Anthropic ещё $20 млрд. Конкурирующая OpenAI в марте оценивала свою капитализацию в $852 млрд, поэтому если соответствующий показатель Anthropic достигнет $900 млрд, именно эта компания получит право называться самым дорогим в мире ИИ-стартапом. Ожидается, что Anthropic выйдет на IPO в октябре этого года, расширив собственные возможности по привлечению капитала. Решение о проведении нового раунда финансирования совет директоров Anthropic должен принять в следующем месяце. |