|
Опрос
|
реклама
Быстрый переход
Anthropic урезала лимиты общения с ИИ-ботом Claude в часы пик
27.03.2026 [14:58],
Дмитрий Федоров
Anthropic пересмотрела механизм применения временных лимитов для пользователей Claude, чтобы сбалансировать спрос и доступную вычислительную мощность. В часы пик пятичасовой лимит сессии для подписчиков Free, Pro и Max теперь может расходоваться быстрее, тогда как недельные лимиты остаются прежними.
Источник изображения: Getillustrations / unsplash.com Об изменении сообщил сотрудник технической команды Anthropic Тарик Шихипар (Thariq Shihipar). По его оценке, около 7 % пользователей столкнутся с лимитами сессий в сценариях, в которых раньше этого не происходило, прежде всего на более высоких тарифах. Пиковым считается интервал с 05:00 до 11:00 по тихоокеанскому времени (с 16:00 до 22:00 по московскому). В этот период объём использования, соответствующий пяти часам, может исчерпываться быстрее. В остальное время пятичасовой лимит расходуется в обычном режиме.
Источник изображения: @trq212 / x.com Anthropic привязывает почасовое использование к потреблению токенов, не раскрывая, какое именно количество токенов соответствует временному лимиту, поэтому пользователи не могут заранее планировать расход токенов. В документации Anthropic указано, что на объём использования влияют длина и сложность диалогов, используемые функции, а также выбранная модель Claude, а разные планы подписки, включая Pro, Max и Team, предусматривают разные объёмы допустимого использования. Пользователям, запускающим фоновые задачи с высоким потреблением токенов, предложено переносить такую нагрузку на непиковые часы. Компания уточняет, что в периоды более низкого спроса доступная вычислительная мощность выше, поэтому общий недельный объём использования не сокращается: меняется только его распределение в течение недели. В интерфейсе Claude доступна панель мониторинга, показывающая расход пятичасовых лимитов сессий и недельных лимитов. После исчерпания лимита доступ блокируется, если пользователь не оплатил дополнительное использование. Anthropic предлагает доступ к своим ИИ-сервисам в двух форматах: через API для разработчиков и по подписке для обычных пользователей Claude. В API стоимость рассчитывается по опубликованным правилам для разных типов операций с токенами, то есть с единицами текста, которые ИИ-модель обрабатывает и генерирует. У подписчиков Claude схема иная: вместо понятного расчёта по операциям действуют внутренние лимиты использования, точный порядок применения которых компания не раскрывает. Сейчас доступны тарифы Free, Pro за $20 в месяц, Max 5x за $100 в месяц и Max 20x за $200 в месяц. Anthropic подтвердила, что готовит мощнейшую ИИ-модель Claude Mythos — утечка раскрыла детали
27.03.2026 [12:58],
Дмитрий Федоров
Anthropic подтвердила, что разрабатывает и тестирует с клиентами раннего доступа новую ИИ-модель, превосходящую по возможностям все предыдущие, после того как о её существовании стало известно из-за случайной утечки данных. Попавшие в открытый доступ черновики содержали сведения о ИИ-модели Claude Mythos, новом уровне Capybara и беспрецедентных, по оценке самой компании, рисках для кибербезопасности.
Источник изображения: anthropic.com Публичное подтверждение последовало после утечки черновых материалов, обнаруженных в общедоступном кэше данных и изученных изданием Fortune. До вечера четверга в незащищённом и доступном для поиска хранилище находился черновик записи в блоге, где новая ИИ-модель называлась Claude Mythos и описывалась как ИИ, создающий беспрецедентные риски в сфере кибербезопасности. После уведомления от Fortune компания закрыла публичный поиск по хранилищу и доступ к документам. Anthropic заявила, что доступность чернового контента стала следствием «человеческой ошибки» при настройке системы управления контентом. Масштаб утечки оценивается почти в 3 000 материалов, связанных с блогом Anthropic, ранее не публиковавшихся на новостных или исследовательских площадках компании, а также документы, выглядевшие как внутренние. Такую оценку дал исследователь кибербезопасности из Кембриджского университета (University of Cambridge) Александр Повелс (Alexandre Pauwels), которого Fortune попросило проанализировать массив данных. Независимо от него документы также обнаружил и изучил старший исследователь безопасности ИИ из компании LayerX Security Рой Паз (Roy Paz). В кэше находился также PDF-файл о предстоящем закрытом выездном мероприятии для генеральных директоров европейских компаний в Великобритании с участием генерального директора Anthropic Дарио Амодеи (Dario Amodei). Мероприятие было рассчитано на 2 дня, описывалось как «камерная встреча» и предполагало обсуждение внедрения ИИ в бизнесе, а также демонстрацию новых возможностей Claude.
Источник изображения: Ayush Kumar / unsplash.com В тех же материалах фигурировало название Capybara. Оно использовалось для обозначения нового уровня ИИ-моделей — более крупных и более интеллектуальных, чем Opus, до этого считавшиеся наиболее мощными в линейке компании. По содержанию документов Capybara и Mythos относятся к одной и той же базовой ИИ-модели. Сейчас Anthropic продаёт модели трёх уровней: Opus, Sonnet и Haiku. Capybara описывалась как ИИ, превосходящий Opus по возможностям и стоимости. В черновике также говорилось, что по сравнению с Claude Opus 4.6 новая ИИ-модель показывает значительно более высокие результаты в тестах по программированию, академическому рассуждению и кибербезопасности. Там же сообщалось о завершении обучения Claude Mythos, названной самой мощной ИИ-моделью в истории компании. Структура документа с заголовками и датой публикации указывала на подготовку продуктового запуска. Схема вывода на рынок предполагала ограниченный ранний доступ, поскольку ИИ-модель дорога в эксплуатации и пока не готова к выходу в массы. Ключевой темой утекших материалов стали риски для кибербезопасности. Модель описывалась как система, значительно опережающая другие ИИ-модели по кибервозможностям и предвосхищающая волну решений, способных использовать уязвимости быстрее, чем кибербезопасность успеет им противодействовать. Поэтому ранний доступ планировалось предоставить организациям, занимающимся киберзащитой, чтобы дать им фору в повышении устойчивости кодовых баз к атакам, управляемым ИИ.
Источник изображения: Wesley Tingey / unsplash.com Этот подход совпал с более широким отраслевым сдвигом. В феврале OpenAI при выпуске GPT-5.3-Codex заявила, что это её первая ИИ-модель, классифицированная в рамках Preparedness Framework как система с высоким уровнем возможностей для задач, связанных с кибербезопасностью, и первая модель, напрямую обученная выявлению уязвимостей в программном обеспечении (ПО). Тогда же Anthropic выпустила Opus 4.6, способную выявлять ранее неизвестные уязвимости в кодовых базах. Компания признала двойной характер такой возможности: она может помогать и специалистам по защите, и злоумышленникам. Anthropic также сообщила, что хакерские группы, включая структуры, якобы связанные с правительством Китая, пытались использовать Claude в реальных кибератаках. В одном таком случае поддерживаемая государством китайская группа применяла Claude Code для проникновения примерно в 30 организаций, включая технологические компании, финансовые учреждения и государственные ведомства. В течение последующих 10 дней компания установила масштаб операции, заблокировала причастные к взломам аккаунты и уведомила пострадавшие организации. Anthropic Claude научился управлять компьютером Mac за пользователя
24.03.2026 [04:49],
Дмитрий Федоров
Anthropic научила Claude управлять компьютером Mac вместо пользователя. В Claude Cowork и Claude Code ИИ-модель может сама открывать файлы, управлять браузером, запускать инструменты разработки и выполнять задачи через интерфейс компьютера, а передавать задания Claude можно со смартфона через функцию Dispatch.
Источник изображения: claude.com Работу новой функции компания продемонстрировала на YouTube. На видео Claude использует компьютер в режимах Cowork и Code и самостоятельно выполняет задачи и действует так же, как пользователь, — от открытия и редактирования файлов до выполнения сложных задач. Функция появится на macOS для пользователей платных подписок Claude Pro и Claude Max в формате исследовательского предварительного доступа. Иными словами, Anthropic теперь сама внедряет подход, который ранее связывали с ИИ-агентом OpenClaw. Само направление ИИ-агентов начало развиваться вокруг Claude ещё до того, как к этому направлению подключилась OpenAI. Теперь в этом сегменте работают и другие игроки, в том числе Perplexity Computer и Manus компании Meta✴✴. Галлюцинации ИИ пугают людей больше, чем угроза потери рабочих мест
23.03.2026 [08:17],
Алексей Разин
До сих пор считалось, что искусственный интеллект может представлять угрозу для трудоустройства обладателей определённых профессий, но проведённый среди пользователей Anthropic Claude опрос показал, что людей больше всего пугает склонность ИИ к ошибкам и галлюцинациям.
Источник изображения: Nvidia Об этом говорят данные социологического исследования, которое охватило более 80 000 пользователей чат-бота Claude в 159 странах, как отмечает Financial Times. Сильнейшей угрозой со стороны искусственного интеллекта 27 % опрошенных назвали его склонность к совершению ошибок. Утрата рабочих мест из-за распространения ИИ оказалась лишь на втором месте с 22 % ответов. Ещё 16 % респондентов выделили свои опасения по поводу утраты человечеством способности критически мыслить в качестве дополнительной угрозы со стороны ИИ. Участники опроса подчёркивали, что галлюцинации ИИ не только отнимают много времени на их устранение, но и могут влиять на результаты работы без надлежащего экспертного контроля со стороны человека. В целом, результаты опроса сформировали довольно равномерное распределение ответов по типам угроз. Влияние ИИ на процессы управления выделили 15 % респондентов, угрозу распространения дезинформации назвали 14 % респондентов. По 13 % назвали злонамеренное использование и слежку соответственно в качестве главных факторов риска. По 12 % подчеркнули демотивацию творчества и чрезмерность регулирования соответственно, по 11 % сделали выбор в пользу подхалимства и психологической зависимости от ИИ в качестве основных проблем, связанных с его распространением. При этом 32 % опрошенных пользователей Claude заявили, что ИИ повысил производительность их труда. Один из веб-дизайнеров в ОАЭ признался, что ИИ помогает заменить работу примерно 100 человек, и теперь не нужно ждать, пока они справятся со своими заданиями. Пользователи Claude в Японии, США и Колумбии подчеркнули, что ИИ помог им освободить от работы больше времени для нахождения с близкими и хобби. Примерно 19 % респондентов признались, что ИИ не оправдал их ожиданий в полной мере. Примечательно, что эмоциональное восприятие ИИ разнится в зависимости от географического региона, в котором проживают пользователи Claude. В Африке, Южной Америке, на юге и юго-востоке Азии данные технологии воспринимаются людьми с более выраженным оптимизмом, чем в США, Европе и Восточной Азии. По сути, в пользу ИИ больше верят жители стран с более низким уровнем жизни, которым эти технологии доступны в меньшей мере. В странах Запада сильнее выражено беспокойство по поводу способности ИИ негативно влиять на экономику в целом и рынок труда в частности. Anthropic собирается использовать подобные опросы для корректировки стратегии развития своих ИИ-моделей, поскольку их можно будет адаптировать под требования конкретных регионов. Проведённый опрос имел серьёзный перекос в сторону западных стран, поскольку в Центральной Азии, например, набралось не более нескольких сотен опрошенных. Это могло повлиять на представительность ответов, а потому результаты исследования необходимо воспринимать критически, как подчёркивают эксперты. Даже в США выборка не была представительной, поскольку доступ к Claude имеют довольно обеспеченные жители страны. Anthropic догоняет OpenAI в сфере ИИ для бизнеса
19.03.2026 [13:03],
Дмитрий Федоров
Anthropic ускоряет рост на корпоративном рынке ИИ. В феврале её бизнес-подписки выросли на 4,9 % месяц к месяцу, тогда как доля OpenAI снизилась на 1,5 %. Последняя пока сохраняет лидерство на корпоративном рынке подписок с долей 34,4 % против 24,4 % у Anthropic, однако разрыв быстро сокращается на фоне конфликта вокруг сотрудничества с военным сектором США и роста интереса к ИИ-моделям Claude.
Источник изображения: Anthropic Экономист Ramp Ара Харазян (Ara Kharazian) сообщил, что почти каждая четвёртая компания, работающая через Ramp, теперь платит за Anthropic, тогда как год назад такой была одна из 25 организаций. Снижение OpenAI на 1,5 % он назвал крупнейшим месячным падением среди всех компаний-разработчиков ИИ-моделей за всё время наблюдений за корпоративным внедрением ИИ. По словам Харазяна, компании, впервые выбирающие ИИ-сервисы, теперь примерно в 70 % случаев выбирают Anthropic. Одновременно OpenAI, по имеющимся данным, пересматривает стратегию и усиливает фокус на продажах ИИ бизнесу и разработчикам программного обеспечения — именно в тех сегментах, где Anthropic показывает наибольший рост. Рост интереса к Claude совпал с конфликтом между Anthropic и Министерством войны США (DoW). В конце января Reuters сообщило о разногласиях, вызванных отказом компании снять защитные ограничения с ИИ-моделей, чтобы сделать их более пригодными для военного применения. В конце февраля Anthropic публично выступила против такого давления. 4 марта компания заявила, что получила уведомление о признании её рискованной организацией для цепочки поставок с точки зрения национальной безопасности США. После этого Anthropic подала иски, оспаривающие фактическое исключение компании из взаимодействия с DoW. Этот конфликт не улучшил отношения Anthropic с администрацией Дональда Трампа (Donald Trump). По данным Sensor Tower, конфликт с DoW совпал со всплеском установок Claude и ростом числа удалений ChatGPT. На положении OpenAI также могло сказаться сотрудничество компании с Пентагоном и признание её генерального директора Сэма Альтмана (Sam Altman), что ситуация была урегулирована неудачно. После конфликта с DoW компанию Claude публично поддержали американская певица Кэти Перри (Katy Perry) и сенатор США Брайан Шатц (Brian Schatz). Харазян описал этот эффект так: «Anthropic позиционировала себя иначе, и определённая категория пользователей это заметила». К этой же аудитории относятся пользователи, готовые платить $20 или $200 в месяц за доступ к Claude и испытывающие неприязнь к OpenAI из-за рекламы в ChatGPT. В феврале Anthropic сообщила, что её годовой темп выручки достиг $14 млрд. Тогда же компания объявила о привлечении ещё $30 млрд. При этом в судебном документе, поданном ранее, финансовый директор Anthropic Кришна Рао (Krishna Rao) указал, что с момента выхода компании на коммерческий рынок она получила более $5 млрд выручки. Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста
17.03.2026 [18:46],
Павел Котов
Службы на основе искусственного интеллекта постепенно переходят к решению задач творческого характера, которые ранее требовали специального ПО — теперь чат-боты умеют преобразовывать рукописные символы в цифровой шрифт. Правда, пока система работает не идеально.
Источник изображения: anthropic.com Чтобы получить свой собственный шрифт, пользователю необходимо изобразить от руки алфавит, цифры и знаки препинания, отсканировать страницу и загрузить получившийся файл чат-боту с ИИ — тот преобразует рукописное начертание в шрифт формата TrueType. Результат будет зависеть от почерка человека — те, у кого он разборчивый, получат более качественный результат, чем остальные.
Источник изображения: x.com/ashebytes Функция неочевидна — её обнаружила инженер-программист и специалист по ИИ Аше Магальяеш (Ashe Magalhaes). Его подход основан на одной из функций Anthropic Claude, который для решения сложных задач может вызывать внешние инструменты на языке Python. Для генерации шрифта на основе латинского алфавита необходимо изобразить на бумаге все буквы в заглавном и строчном начертаниях, цифры и знаки препинания. Изображение сканируется и загружается в чат-бот. Он анализирует контуры каждой буквы и преобразует их в векторные фигуры, которые задают основу для файла шрифта.
Источник изображения: x.com/ashebytes Процесс требует аккуратного подхода. В ходе тестирования служба ИИ сначала предоставила шаблон, чтобы пользователь разместил символы на странице. Буквы должны быть чёткими, расстояние между символами — равномерным, а сканировать необходимо в оптимальных условиях без теней или эффектов неравномерного освещения. Первые попытки были неудачными: в первом выходном файле формы были искажены и напоминали скорее чернильные пятна, а не буквы. Система проанализировала собственную работу и пришла к выводу, что внешние контуры некоторых символов она распознать не смогла и запустила процесс конвертации повторно. Второй заход оказался значительно удачнее, но такие буквы как «O», «A» и «R» изображались сплошными поверхностями, без отверстий. Пришлось производить доработку. Возникали и дальнейшие проблемы: в какой-то момент в единый глиф слились буквы «x» и «y» — это тоже пришлось корректировать. В окончательном варианте удалось добиться вполне приемлемого результата. Anthropic удвоила лимиты Claude для всех пользователей, но с ограничениями
16.03.2026 [18:58],
Сергей Сурабекянц
В последние дни пользователи чат-ботов с ИИ массово мигрируют на Claude, не в последнюю очередь из-за позиции Anthropic в отношении сделок с американскими военными. Компания решила выразить благодарность пользователям — все они получили удвоенные лимиты использования в течение следующих двух недель. Это изменение распространяется на все уровни подписки и планы (включая бесплатный), и для его активации никаких действий не требуется.
Источник изображения: Anthropic Однако имеется один небольшой подвох: эти дополнительные лимиты использования доступны только вне часов пик, которые приходятся на промежуток с 8:00 до 14:00 по восточному времени (с 16:00 до 22:00 по московскому времени). В выходные дни дополнительные лимиты можно использовать в течение всего дня. Более подробную информацию можно найти на странице акции на официальном сайте Anthropic. Предложение действует с 13 марта по 27 марта включительно. Корпоративные аккаунты в акции не участвуют. Отметим, что даже пользователи самых дорогих платных тарифных планов не получают неограниченного количества чатов с Claude. Принципы Anthropic в отношении использования искусственного интеллекта в военных целях привели к тому, что от него отказалось министерство обороны и другие государственные учреждения США, поэтому сотрудники Белого дома и Пентагона не смогут воспользоваться этой акцией. Anthropic научила Claude генерировать графики и таблицы прямо в чате с пользователем
13.03.2026 [07:01],
Алексей Разин
Проблемы во взаимоотношениях с американскими властями не мешают Anthropic продолжать совершенствование своего чат-бота Claude. После недавнего обновления он научился автоматически вставлять в диалоговом окне иллюстрации, позволяющие проще объяснить суть доводимой до пользователя информации. Графики, таблицы и диаграммы могут создаваться и по прямому запросу со стороны пользователя.
Источник изображения: Anthropic Ранее они возникали в боковой панели Claude, как отмечает The Verge, а теперь будут вставляться прямо в диалоговом окне. Самое примечательное, что графики, таблицы и диаграммы при этом могут быть интерактивными. В частности, периодическая таблица химических элементов будет отображаться таким образом, что нажатие на каждый из элементов позволит вывести дополнительную информацию о нём. Чат-бот Claude способен сам предугадывать, когда лучше сопроводить свой ответ интерактивной иллюстрацией, но по запросу пользователя он может сделать это в любой момент. Конкурирующие платформы подобными возможностями уже обзавелись. Например, OpenAI позволяет ChatGPT вставлять в диалог с пользователем интерактивные иллюстрации к математическим задачам и научным обсуждениям, а Google Gemini создаёт интерактивные иллюстрации для образовательных целей. Ранее подобный инструментарий был доступен пользователям Claude через боковую панель. Она сохранит соответствующую функцию, а вот иллюстрации из диалога с пользователем будут исчезать вместе с их завершением. В случае необходимости Claude сможет вносить изменения в уже созданные интерактивные иллюстрации. Новая функция доступна всем категориям пользователей Claude и по умолчанию изначально активна. Microsoft представила Copilot Cowork — автономного ИИ-агента для сложных задач на базе моделей Anthropic
09.03.2026 [22:34],
Анжелла Марина
Microsoft объявила о начале интеграции технологий Anthropic в свои сервисы, представив инструмент Copilot Cowork, основанный на модели Claude Cowork. Инструмент позволяет использовать автономных ИИ-агентов для выполнения сложных задач, таких как разработка приложений, создание электронных таблиц и структурирование больших массивов данных при минимальном участии человека. ![]() Джаред Спатаро (Jared Spataro), руководитель направления AI-at-Work в Microsoft, заявил агентству Reuters, что ключевое отличие Copilot Cowork от Claude Cowork состоит в подходе к обработке данных. Инструмент Copilot работает исключительно в облачной среде и действует от имени пользователя, позволяя контролировать, к какой информации ИИ-агент может получать доступ. Claude Cowork, напротив, использует только локальную среду устройства и, по словам Спатаро, большинство компаний чувствуют себя «очень некомфортно» с точки зрения безопасности. Помимо запуска Copilot Cowork, Microsoft открыла пользователям M365 Copilot доступ к новейшим моделям Claude Sonnet, диверсифицируя таким образом свой технологический стек. Ранее сервис полагался исключительно на модели GPT от компании OpenAI, уточняет Reuters. Запуск состоялся спустя несколько недель после того, как новые инструменты Anthropic обвалили акции компаний в секторе традиционного программного обеспечения. Инвесторы забеспокоились, что автономные ИИ-агенты могут подорвать позиции классических софтверных продуктов. Акции самой Microsoft в феврале упали почти на 9 %. На текущий момент Copilot Cowork находится в стадии тестирования, а доступ для ранних пользователей откроется в этом месяце. Стоимость Microsoft не раскрыла, но уточнила, что для организаций часть функциональности будет включена в подписку M365 Copilot стоимостью $30 на пользователя в месяц, а дополнительный объём использования можно будет приобрести отдельно. ИИ-модель Anthropic Claude обнаружила 22 уязвимости в Mozilla Firefox за две недели — из них 14 весьма серьёзны
09.03.2026 [11:52],
Владимир Мироненко
Всего за две недели ИИ-модель Claude Opus 4.6 компании Anthropic обнаружила 22 уязвимости в браузере Mozilla Firefox, что больше, чем было выявлено за любой отдельный месяц 2025 года, сообщил The Wall Street Journal. Всего за этот период было выявлено более 100 ошибок, приводящих к сбоям, включая указанные баги. «ИИ позволяет обнаруживать серьёзные уязвимости безопасности с очень высокой скоростью», — отметили исследователи.
Источник изображения: Anthropic Для того, чтобы обнаружить первую уязвимость, ИИ-модели потребовалось всего 20 минут. Из выявленных за две недели уязвимостей 14 были отнесены к уязвимостям высокой степени серьёзности, что составляет почти пятую часть от 73 уязвимостей такого уровня в Firefox, которые Mozilla исправила в 2025 году. Большинство ошибок были исправлены в Firefox 148, версии браузера, вышедшей в феврале этого года, хотя некоторые исправления пришлось отложить до следующего релиза. Сообщается, что команда Anthropic выбрала для проверки Firefox, потому что это «одновременно сложный код и один из самых хорошо протестированных и безопасных проектов с открытым исходным кодом в мире». Оказалось, что ИИ-модель гораздо эффективнее в поиске ошибок, чем в их эксплуатации. Когда исследователи Anthropic предложили Claude разработать эксплойт-код на основе выявленных багов, ИИ-модель создала всего два работающих эксплойта, которые сработали на тестовой версии браузера, но в реальном мире они были бы остановлены другими механизмами безопасности Firefox, сообщил Логан Грэм (Logan Graham), глава подразделения Frontier Red Team Anthropic, занимающегося оценкой рисков Claude. Вместе с тем эксперты по безопасности говорят, что скорость, с которой ИИ-системы находят ошибки в программах и превращают их в код для атак, меняет способы защиты организаций. «Нынешние методы киберзащиты не способны справиться со скоростью и частотой происходящего», — заявил Гади Эврон (Gadi Evron), генеральный директор компании Knostic, занимающейся кибербезопасностью с использованием ИИ. Разработчик доверил Claude Code управление AWS — ИИ полностью удалил два сайта и базу данных
07.03.2026 [19:04],
Павел Котов
Помогающие в написании программного кода агенты искусственного интеллекта, такие как Anthropic Claude Code никогда не дают стопроцентной гарантии результата, и в отдельных случаях возможны неприятные инциденты, например, с удалением данных. Но в случае с разработчиком Алексеем Григорьевым виновником оказался не ИИ, а человеческий фактор.
Источник изображения: anthropic.com Разработчик решил перенести свой сайт в облачную инфраструктуру Amazon Web Services (AWS), где уже находился другой его ресурс. Claude Code не рекомендовал этот вариант, но пользователь посчитал, что поддерживать две конфигурации слишком трудозатратно. Для управления инфраструктурой он выбрал утилиту Terraform, которая поддерживает создание (равно как и удаление) ресурсов со всеми настройками, включая сети, балансировку нагрузки, базы данных и сами серверы. Алексей попросил Claude Code выполнить план Terraform для настройки нового сайта, но забыл загрузить файл состояния с полным описанием текущей конфигурации. В результате ИИ-агент выполнил команду разработчика и создал контейнер для подлежащего переносу сайта, но пользователь сам остановил процесс на полпути. Из-за отсутствия файла состояния ресурсы начали дублироваться. Разработчик распорядился определить дубликаты ресурсов, чтобы исправить ситуацию, а затем всё-таки загрузил файл состояния, решив, что разобрался в проблеме. Алексей предположил, что ИИ-агент продолжит удалять дубликаты ресурсов, а затем откроет файл состояния, чтобы понять, как необходимо настроить платформу. При наличии файла состояния Claude Code последовал инструкции Terraform, выполнив операцию «destroy» («уничтожить»), чтобы подготовиться к установке сайта. Учитывая, что в файле установки значился другой ресурс, уже находившийся к тому моменту в AWS, в результате были удалены оба сайта, в том числе база данных с записями за 2,5 года и её снимки, которые использовались в качестве резервных копий. Для решения проблемы разработчику пришлось обращаться в службу технической поддержки Amazon, которая помогла восстановить данные в течение суток. Описывая инцидент, он привёл несколько мер, которые принял, чтобы подобные случаи больше не повторялись. Он настроил периодическую проверку восстановления базы данных, включил защиту от удаления в Terraform и AWS, а файл состояния переместил в хранилище S3, чтобы не держать его на своём компьютере. Алексей признал, что слишком полагался на ИИ-агента при выполнении команд Terraform, и на будущее решил все операции по удалению данных производить самостоятельно. Винить ИИ в инциденте он не стал. Anthropic запустила маркетплейс приложений, построенных на её ИИ-моделях — по примеру Amazon
07.03.2026 [06:40],
Анжелла Марина
Компания Anthropic представила платформу Anthropic Marketplace, которая позволит корпоративным клиентам приобретать сторонние программные приложения, построенные на базе её моделей. В числе партнёров площадки названы Snowflake, Harvey и Replit, сообщает Bloomberg.
Источник изображения: Anthropic Компания не станет удерживать комиссию с этих покупок и разрешит зачитывать годовые обязательства по расходам на собственные сервисы в счёт оплаты инструментов от третьих сторон, сравнивая такой подход с маркетплейсами программного обеспечения от Amazon и Microsoft. Bloomberg отмечает, что запуск платформы произошёл в период, когда компания столкнулась с неопределённостью из-за противостояния с Министерством обороны США. Ранее ведомство признало разработчика угрозой для цепочки поставок — статус, который обычно применяют к представителям недружественных стран. Такое решение создаёт не только риск для дальнейшего сотрудничества с Пентагоном, но и для совместных оборонных проектов с другими компаниями. В Anthropic заявили о намерении оспорить это решение в суде. Кейт Дженсен (Kate Jensen), глава подразделения Anthropic в Северной и Южной Америке, отметила, что компания активно обсуждает ситуацию с клиентами и ожидает сохранения обычного режима работы для большинства заказчиков. «Хорошая новость заключается в том, что, по большей части, мы ожидаем, что для подавляющего большинства наших клиентов все останется по-прежнему», — сказала она. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) добавил, что правительственные ограничения сформулированы достаточно узко и не должны повлиять на коммерческую деятельность компании, не связанную с конкретными военными контрактами. В свою очередь представитель Microsoft сообщил, что компания может продолжать сотрудничество с Anthropic в проектах, не относящихся к оборонной сфере. Тем не менее для организаций, работающих с Пентагоном и одновременно с Anthropic, сохраняется значительная неопределённость относительно дальнейшего взаимодействия. ИИ-бот Claude прирастает миллионом пользователей каждый день после скандального разрыва Anthropic с Пентагоном
06.03.2026 [18:12],
Павел Котов
Власти США официально присвоили Anthropic статус «угрозы для цепочки поставок» из-за того, что компания не разрешила использовать свои модели искусственного интеллекта для неэтичных, по её мнению, целей. Пока стартап планирует оспорить это решение в суде, рядовые граждане выражают ему поддержку, регистрируясь на его платформе — каждый день их число увеличивается на миллион.
Источник изображения: anthropic.com Гендиректор Anthropic Дарио Амодеи (Dario Amodei) назвал решение американских властей юридически необоснованным. Статус «угрозы для цепочки поставок» впервые был присвоен американской компании — он означает, что всем подрядчикам Министерства обороны США запрещается с ней сотрудничать. Однако на рядовых граждан это решение не влияет, они имеют право пользоваться продуктами Anthropic неограниченно — и они начали реализовывать это право.
Источник изображения: x.com/mikeyk Пока Anthropic и Белый дом пытаются урегулировать разногласия, платформа Claude переживает всплеск числа пользователей — возможно, из-за этической позиции по отношению ИИ в армии. Каждый день здесь регистрируются более миллиона человек, сообщил сотрудник компании Майк Кригер (Mike Kreiger). Anthropic не публикует данных о количестве пользователей, но, по оценкам, на начало года Claude пользовались 20 млн человек в месяц. Значительная часть могла перейти сюда, отказавшись от ChatGPT — самого популярного в мире чат-бота. Он теперь активно теряет аудиторию, потому что это OpenAI сменила Anthropic в Пентагоне. И есть версия, что компания Сэма Альтмана (Sam Altman) моральными сомнениями не терзается. Приложение Claude стало лидером рейтинга App Store из-за атаки американских властей на Anthropic
01.03.2026 [11:45],
Владимир Фетисов
Приложение Claude компании Anthropic для устройств на базе iOS поднялось на первое место рейтинга бесплатных приложений в американском App Store. Это произошло примерно через сутки после того, как администрация президента Дональда Трампа (Donald Trump) попыталась запретить использование продуктов Anthropic правительственными учреждениями из-за отказа компании сотрудничать с Пентагоном.
Источник изображения: Anthropic Рост популярности приложения Claude позволяет предположить, что Anthropic выигрывает от присутствия в новостных заголовках из-за отказа предоставить военным свои алгоритмы для создания инструментов слежки или полностью автономного оружия. В конце недели Трамп опубликовал пост в соцсети Truth Social, в котором назвал решение Anthropic «ужасной ошибкой». Примерно в то же время министр обороны США Пит Хегсет (Pete Hegseth) заявил о намерении признать Anthropic угрозой национальной безопасности, в результате чего компания не сможет сотрудничать с правительственными и оборонными учреждениями. Исторически другие ИИ-приложения были более популярны среди потребителей, чем Claude. Теперь же вторую строчку рейтинга App Store занимает ChatGPT от OpenAI, а Google Gemini находится на четвертом месте. Приложение Claude набрало обороты за последние месяцы. По данным аналитической компании Sensor Tower, ещё 30 января оно занимало 131-е место в американском App Store, а большую часть февраля находилось в районе первой двадцатки. В это же время первое место большую часть февраля удерживал ChatGPT. По сравнению с январем количество бесплатных пользователей Anthropic увеличилось на 60 %, а количество ежедневных регистраций утроилось с ноября прошлого года. В компании также отметили, что в этом году количество платных подписчиков увеличилось более чем вдвое. Хакер при поддержке Anthropic Claude взломал ряд правительственных учреждений в Мексике
26.02.2026 [16:45],
Павел Котов
Неизвестный киберпреступник при помощи чат-бота с искусственным интеллектом Anthropic Claude провёл масштабную атаку на ресурсы, принадлежащие мексиканским правительственным учреждениям. В результате он похитил 150 Гбайт информации, в том числе записи налоговой службы, учётные данные сотрудников и многое другое.
Источник изображения: anthropic.com Чат-бот Claude помогал злоумышленнику в поиске уязвимостей в правительственных сетях и в написании кода для их эксплуатации; хакер также поручил сервису найти способы автоматизировать механизмы кражи данных, рассказали эксперты Gambit Security. Крупномасштабная кампания началась в декабре и длилась около месяца. Поначалу ИИ отказывался выполнять подобные операции, но со временем дал согласие, когда киберпреступник настоял на своём. Claude составил недобросовестному пользователю несколько тысяч подробных инструкций с готовыми к исполнению планами, точными указаниями, какие цели атаковать и какие учётные данные использовать. Anthropic провела расследование инцидента, пресекла деятельность злоумышленника и заблокировала все связанные с инцидентом учётные записи, сообщили в компании и добавили, что новая флагманская модель Claude Opus 4.6 от подобных злоупотреблений защищена. Хакер также пытался подключить к операции ChatGPT для сбора информации о перемещениях по компьютерным сетям, о необходимых для доступа к ресурсам учётных записях и о том, как избежать обнаружения. Но, по версии ответственной за сервис компании OpenAI, чат-бот отказался выполнять эти запросы. Идентифицировать злоумышленника не удалось. Федеральные мексиканские власти отказались признать факт инцидента, но заверили, что кибербезопасность остаётся приоритетом; власти штата Халиско заявили, что взлому подверглись только федеральные ресурсы. При этом эксперты Gambit обнаружили в мексиканских системах не менее 20 уязвимостей, которые власти, вероятно, не захотели освещать. Ранее Anthropic сама сообщила, что китайские хакеры использовали Claude для взлома ресурсов по всему миру. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |