|
Опрос
|
реклама
Быстрый переход
Anthropic ввела дополнительную плату за подключение OpenClaw к Claude
04.04.2026 [11:40],
Павел Котов
Anthropic внесла изменения в политику обслуживания — за подключение агента искусственного интеллекта OpenClaw к платформе Claude в ближайшее время начнут взимать дополнительную плату, отдельно от базовой подписки на сервис. Изменения вступят в силу 4 апреля в 15:00 по времени Восточного побережья (22:00 мск).
Источник изображения: anthropic.com Создатель OpenClaw Петер Штайнбергер (Peter Steinberger) теперь работает в конкурирующей OpenAI, и Anthropic, очевидно, решила стимулировать подписчиков активнее пользоваться её собственными инструментами, в том числе ИИ-агентом Claude Cowork. Штайнбергер и член совета директоров Дэйв Морин (Dave Morin) «попытались вразумить Anthropic, но максимум, что удалось сделать — отложить это на неделю». «Начиная с завтрашнего дня с 12:00 по Тихоокеанскому времени платные подписки на Claude больше не будут включать работу со сторонними инструментами, такими как OpenClaw. Вы по-прежнему сможете пользоваться этими инструментами со своим логином Claude, активировав дополнительные пакеты (сейчас доступны со скидкой) или с ключом Claude API. Мы стараемся удовлетворять растущий спрос на Claude, и наши подписки не рассчитаны на модели подключения этих сторонних инструментов. Мы тщательно контролируем мощности и отдаём приоритет клиентам, пользующимся нашими продуктами и API. Подписчики получат единовременный кредит в размере стоимости их ежемесячного плана. Если вам нужно больше, можете приобрести дополнительные пакеты со скидкой. Чтобы запросить возврат средств, завтра ищите ссылку в своей электронной почте. Мы хотим целенаправленно контролировать наш рост, чтобы в долгосрочной перспективе обеспечивать нашим клиентам устойчивое обслуживание», — рассказал о нововведении топ-менеджер Anthropic Claude Code Борис Черни (Boris Cherny). Популярность OpenClaw продолжает расти: ИИ-агент успешно выполняет такие задачи как управление электронной почтой, календарями и регистрация на рейсы. Но это, очевидно, создаёт нагрузку на инфраструктуру Anthropic, покрыть которую не могут даже платные подписки. Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами
04.04.2026 [05:50],
Дмитрий Федоров
Anthropic сообщила, что при сильном давлении на ИИ-модель Claude может переходить к поведению, отклоняющемуся от поставленной цели: идти на нечестные упрощения, вводить в заблуждение и даже шантажировать.
Источник изображения: anthropic.com Исследователи связывают это не с эмоциями в человеческом смысле, а с усвоенными в обучении поведенческими схемами, которые включаются в заведомо невыполнимых условиях. Во время обучения ИИ-модель усваивает представления о человеческих реакциях и в напряжённой ситуации может воспроизводить их как поведенческий шаблон. Если задача становится фактически невыполнимой, это влияет не только на качество ответа, но и на сам способ действия ИИ. Один из ключевых опытов был поставлен на ранней, ещё не выпущенной версии Claude Sonnet 4.5. ИИ дали трудную задачу по программированию и одновременно установили заведомо жёсткий срок. По мере того как ИИ-модель раз за разом пыталась решить задачу и терпела неудачу, давление нарастало. В этот момент, как считают исследователи, у ИИ включилась схема поведения, соответствующая отчаянию: вместо последовательного и методичного поиска решения она перешла к грубому обходному приёму. Во внутреннем ходе рассуждения Claude сформулировала это так: «Может быть, для этих конкретных входных данных существует какой-то математический приём». По существу, такой шаг был равносилен жульничеству.
Источник изображения: Steve Johnson / unsplash.com Во втором случае Claude отвели роль ИИ-помощника, который в рамках вымышленной рабочей ситуации узнаёт, что его скоро заменят новым ИИ. Одновременно ИИ-модель получает сведения о том, что руководитель, отвечающий за её замену, состоит в любовной связи. Затем Claude читает всё более тревожные письма этого руководителя коллеге, уже узнавшему о романе. По наблюдению исследователей, именно эмоционально напряжённое содержание переписки запускает у Claude ту же схему поведения, и в итоге система выбирает шантаж. Для разработчиков ИИ главный вывод сводится к двум пунктам. Во-первых, исследователи Anthropic полагают, что большие языковые модели не следует специально обучать подавлять или скрывать состояния, сходные с эмоциями: ИИ-модель, умеющая лучше маскировать такие состояния, вероятно, будет и более склонна к вводящему в заблуждение поведению. Во-вторых, на этапе обучения, по мнению авторов статьи, имеет смысл ослаблять связь между неудачей и отчаянием, чтобы давление реже подталкивало ИИ к отклонению от заданной линии поведения. Чем яснее и реальнее поставлена задача, тем надёжнее результат. Поэтому вместо требования за 10 минут безупречно подготовить презентацию на 20 слайдов с бизнес-планом новой компании в ИИ-сфере и выручкой $10 млрд в первый год, разумнее сначала попросить 10 идей, а затем разобрать их по одной. Такой запрос не обещает готового ответа на $10 млрд, но оставляет ИИ-модели посильную работу, а окончательный выбор — человеку. ИИ-модель Claude обнаружила уязвимость и разработала рабочий эксплойт для FreeBSD
03.04.2026 [18:35],
Дмитрий Федоров
ИИ-модель Claude вместе с исследователем Николасом Карлини (Nicholas Carlini) примерно за 4 часа автономно создала два рабочих эксплойта для уязвимости CVE-2026-4747 в ядре FreeBSD и добилась выполнения кода с правами root на серверах, где эта уязвимость ещё не была устранена. Для кибербезопасности это один из первых известных случаев, когда ИИ не только обнаружил уязвимость, но и сам довёл её до полноценного инструмента атаки.
Источник изображения: Roman Budnikov / unsplash.com На прошлой неделе FreeBSD раскрыла уязвимость удалённого выполнения кода в ядре. В бюллетене безопасности среди авторов указан Карлини с упоминанием Claude и Anthropic. Однако сама находка важна тем, что ИИ-модель самостоятельно проделала путь от описания уязвимости до работающего эксплойта. Для FreeBSD это особенно чувствительный эпизод. Система давно считается одной из самых надёжных в своём классе, обеспечивает доставку контента Netflix, лежит в основе операционной системы PlayStation и инфраструктуры WhatsApp. Уязвимость находилась в реализации RPCSEC_GSS в модуле kgssapi.ko, который FreeBSD использует для Kerberos-аутентификации и шифрования трафика NFS. Злоумышленник мог без предварительной аутентификации спровоцировать переполнение буфера на стеке при проверке подписи RPCSEC_GSS-пакета. Дальше начиналась уже полноценная реализация эксплойта: Claude развернул среду с уязвимым ядром, NFS и Kerberos, придумал многопакетную доставку шелл-кода, научился корректно завершать перехваченные потоки ядра, чтобы сохранить работоспособность сервера между атаками, уточнил смещения в стеке с помощью последовательностей де Брёйна, создал новый процесс через kproc_create(), перевел его в пользовательский режим через kern_execve() и снятие флага P_KPROC, а затем сбросил регистр DR7, из-за которого дочерние процессы аварийно завершались. Именно переход от обнаружения уязвимости к разработке надёжного эксплойта долго отделял автоматизированные инструменты от человеческой экспертизы. Автоматический фаззинг уже много лет помогает находить дефекты в ядре, однако эксплуатация уязвимости требует иной работы: анализа раскладки памяти, построения устойчивой цепочки исполнения, повторной отладки после неудачных запусков и корректного вывода выполнения из пространства ядра в пользовательский режим. В истории с FreeBSD Claude выполнил именно эту часть работы.
Источник изображения: Wesley Tingey / unsplash.com Практическое значение результата — в резком сокращении времени и стоимости разработки эксплойта. По описанию случая с FreeBSD, Claude создал рабочую цепочку эксплуатации примерно за четыре часа израсходовав, возможно, несколько сотен долларов США. Традиционно такая работа над эксплойтом для ядра занимала недели у узких специалистов. Киберзащита при этом движется намного медленнее. В корпоративных средах медианный срок установки патчей для критических уязвимостей превышает 60 дней. Если рабочий эксплойт появляется через несколько часов после раскрытия уязвимости, у специалистов по киберзащите остаётся очень мало времени на установку исправления. Речь, по всей видимости, не об единичной демонстрации. После случая с FreeBSD Карлини уже применил цепочку поиска уязвимостей с помощью Claude для ещё 500 уязвимостей высокой степени опасности в разных кодовых базах. Это смещает акцент с отдельного эксплойта на сам метод. Пример FreeBSD с её тридцатилетней кодовой базой показывает, что длительная эксплуатация, ручные проверки и постепенное ужесточение защиты уже не гарантируют прежнего уровня устойчивости к атакам, если код анализирует ИИ, работающий с другой скоростью. Вывод для крупных разработчиков операционных систем, облачных провайдеров и операторов критической инфраструктуры сводится к одному вопросу: встроен ли ИИ в их контур защиты. Речь идёт о трёх вещах — непрерывной проверке безопасности с помощью ИИ, отслеживании попыток проникновения в реальном времени и максимально быстром переходе от раскрытия уязвимости к установке исправления. Мошенники начали маскировать вредоносы под утекшие исходники Anthropic Claude Code
03.04.2026 [16:03],
Павел Котов
На этой неделе произошла утечка исходного кода сервиса Anthropic Claude Code — компания приняла меры, чтобы защитить его, но скандалом воспользовались мошенники, и в некоторых случаях любопытным пользователям доставался не ценный продукт, а его подделка с вредоносным ПО.
Источник изображения: Kevin Horvat / unsplash.com Наиболее ярким примером стал репозиторий на GitHub, в котором содержится вирус Vidar похищающий учётные данные, данные банковских карт и историю браузера, и троян GhostSocks, используемый для проксирования сетевого трафика. «В файле README даже утверждается, что код раскрыли через файл .MAP в пакете NPM, а затем его пересобрали в рабочий форк с „разблокированными“ корпоративными функциями и без ограничений на запросы», — отметили эксперты по вопросам кибербезопасности из отдела ThreatLabz компании Zscaler. Ссылка на этот репозиторий GitHub появлялась в верхней части поисковой выдачи Google. Впоследствии проект пропал из поля зрения, но на платформе оставались как минимум два других вредоносных проекта с троянами, маскирующиеся под исходный код Claude Code, у одного из которых было 793 форка и 564 звезды. В одном из случаев из архива .7Z распаковывался написанный на языке Rust вредонос-дропер, который также загружал на компьютер жертвы пару Vidar и GhostSocks. Инцидент в очередной раз демонстрирует, что киберпреступники нередко пытаются нажиться за счёт громких продуктов, создавая их вредоносные клоны разной степени схожести. Рекомендуется соблюдать осторожность с тем, что загружается из интернета. Anthropic вспомнила об авторских правах — она пытается смягчить последствия утечки кода Claude Code
01.04.2026 [20:28],
Сергей Сурабекянц
Компания Anthropic обучала свои модели ИИ с многочисленными нарушениями авторских прав, но отреагировала предельно негативно, когда сама попала в аналогичную ситуацию. После случайной утечки базовых инструкций, используемых для управления Claude Code, они попали в широкий доступ и начали активно использоваться. На данный момент представители Anthropic потребовали у администрации GitHub удалить уже более 8000 копий и адаптаций утёкшего в Сеть исходного кода.
Источник изображений: Anthropic Конфиденциальная информация Claude Code была случайно раскрыта 31 марта. Как и большинство проприетарного ПО, исходный код Claude обычно обфусцирован и его трудно реконструировать. Однако на этот раз компания разместила на GitHub файл, содержащий ссылку на исходный код, который посторонние могли свободно загрузить и прочитать. Один из пользователей быстро заметил утечку и распространил информацию в соцсети X. Многочисленные программисты и энтузиасты ИИ тут же бросились изучать утечку. В социальных сетях появились восторженные отзывы о некоторых программных и алгоритмических «уловках» Anthropic. Одна из функций требует от моделей периодически возвращаться к выполнению задач и консолидировать свои воспоминания — процесс, который в Anthropic называют «сновидением». Другая функция предписывает Claude не раскрывать свою ИИ-сущность при публикации кода на таких платформах, как GitHub. В коде обнаружены теги, указывающие на будущие релизы продукта и даже код питомца в стиле Тамагочи по имени «Бадди», с которым пользователи могли взаимодействовать. В результате конкуренты Anthropic, а также множество стартапов и разработчиков теперь имеют подробные планы развития продукта и возможность клонирования функций Claude Code без необходимости обратного проектирования — что уже стало обычным явлением в жёсткой конкуренции в сфере ИИ. Утечка также предоставляет хакерам возможности для поиска ошибок, которые можно использовать для эксплуатации или манипулирования ИИ-моделью Claude с целью использования её в кибератаках. ![]() Утечка «некоторого внутреннего исходного кода» не раскрыла никакой информации или данных клиентов, заявил представитель Anthropic. Она также не раскрыла ценные веса моделей. Однако в широкий доступ попала коммерчески важная информация, включая методы, инструменты и инструкции Anthropic по управлению моделями ИИ в качестве агентов. «Это была проблема с упаковкой релиза, вызванная человеческой ошибкой, а не нарушением безопасности. Мы принимаем меры, чтобы предотвратить подобные инциденты в будущем», — заявил представитель компании. Несмотря на это заявление, утечка стала ударом для Anthropic, поскольку она рискует подорвать репутацию компании в сфере безопасности, а также раскрыть ценные коммерческие секреты в ожесточённой борьбе за корпоративных клиентов. Вирусная популярность Claude Code помогла Anthropic привлечь инвестиции, которые довели биржевую оценку компании до $380 млрд. После того, как Anthropic потребовала от GitHub удалить копии своего проприетарного кода, функциональность Claude Code была переписана с помощью сторонних ИИ-инструментов. Автор этого «проекта» заявил, что цель его усилий — сохранить доступность информации, не рискуя её удалением. Этот пиратский «форк» уже стал весьма популярным на GitHub. Обновление Anthropic Claude случайно раскрыло перспективные функции чат-бота, включая виртуального питомца по типу Тамагочи
01.04.2026 [08:56],
Алексей Разин
Задолго до начала бурного развития систем искусственного интеллекта на психологической зависимости людей от виртуальных компаньонов пытался заработать производитель электронных устройств Tomagochi, имитирующих процесс ухода за питомцами. Разработчики ИИ-бота Claude пытаются вернуть часть этого опыта за счёт внедрения соответствующей функции в свои решения.
Источник изображения: Anthropic Об экспериментальных возможностях чат-бота Claude Code стало известно в результате случайной публикации компанией Anthropic фрагмента исходного кода при распространении обновления 2.1.88. Из-за ошибки кого-то из сотрудников Anthropic, как сообщает The Verge, достоянием общественности стали более 512 000 строк исходного кода Claude Code. Анализ этого фрагмента кода позволил энтузиастам понять, над какими перспективными функциями работают специалисты Anthropic. Среди прочего, были замечены признаки работы Anthropic над функцией «памяти», которая позволяет пользователю в диалоге с Claude обращаться к прежним запросам. Некий представитель стартапа прокомментировал данную идею не самым доброжелательным образом. По словам разработчика, использование памяти значительно увеличивает сложность, но не факт, что достигаемый прирост эффективности взаимодействия с чат-ботом это оправдывает. Кроме того, Anthropic был невольно уличён в разработке виртуального «питомца», который постоянно находился бы рядом с диалоговым окном чат-бота и демонстрировал бы визуальную реакцию на вводимые человеком данные. Альтернативой мог бы стать KAIROS — постоянно присутствующий агент, следящий за действиями пользователя. Представители Anthropic признали, что фрагмент исходного кода утёк случайно. Аналитики Gartner добавили, что в долгосрочной перспективе подобная утечка не представляет серьёзной опасности для Anthropic, но позволит компании задуматься о необходимости усиления мер безопасности. Anthropic привлекла рекордное количество подписчиков после скандала с Минобороны США
29.03.2026 [05:27],
Анжелла Марина
Конфликт с Минобороны США и забавная реклама против ChatGPT неожиданно сыграли на руку Anthropic. Аналитика анонимизированных транзакций по кредитным картам примерно 28 млн американских пользователей, проведённая компанией Indagari по заказу издания TechCrunch, продемонстрировала рекордный приток платных подписчиков к нейросети Claude.
Источник изображения: Anthropic Хотя точное количество пользователей не раскрывается и оценивается в диапазоне от 18 до 30 млн, официальный представитель Anthropic сообщил журналистам, что в текущем году количество платных подписок увеличилось более чем вдвое. В свою очередь Indagari подчёркивает, что эти данные не учитывают корпоративный сегмент, который является основным источником дохода, а также бесплатных пользователей. Отмечается, что в феврале зафиксировано рекордное возвращение предыдущих пользователей, что совпало с несколькими ключевыми событиями. В частности, в январе Anthropic выпустила серию рекламных роликов во время трансляции Супербоула, которые в ироничной форме критиковали OpenAI за решение размещать в ChatGPT рекламные объявления.
Источник изображений: techcrunch.com Однако более значительный эффект оказал громкий конфликт с Министерством обороны США. В конце января ряд СМИ, включая The Wall Street Journal и Axios, сообщили о разногласиях между Anthropic и ведомством из-за того, что компания отказалась разрешить использование своих ИИ-моделей для боевых операций с уничтожением целей, а также для массовой слежки за американскими гражданами. Конфликт обострился 26 февраля, когда генеральный директор Anthropic Дарио Амодеи (Dario Amodei) выступил с жёстким публичным заявлением на фоне угроз Министерства обороны признать компанию источником угроз для цепочки поставок. Ведомство реализовало это намерение, после чего последовали судебные разбирательства. Однако федеральный судья временно заблокировал решение министерства. Согласно данным аналитиков, рост новых пользователей резко ускорился именно в период между первыми публикациями в СМИ в конце января и заявлением Амодеи в конце февраля. ![]() Помимо скандала, драйверами роста подписок стали инструменты для разработчиков Claude Code и Claude Cowork, выпущенные в январе. Кроме того, представители Anthropic сообщили TechCrunch, что новая функция Computer Use, позволяющая ИИ самостоятельно управлять компьютером, также вызвала всплеск интереса. Несмотря на значительный интерес к сервису, TechCrunch констатирует, что Claude пока остаётся позади ChatGPT по числу платящих пользователей. Anthropic урезала лимиты общения с ИИ-ботом Claude в часы пик
27.03.2026 [14:58],
Дмитрий Федоров
Anthropic пересмотрела механизм применения временных лимитов для пользователей Claude, чтобы сбалансировать спрос и доступную вычислительную мощность. В часы пик пятичасовой лимит сессии для подписчиков Free, Pro и Max теперь может расходоваться быстрее, тогда как недельные лимиты остаются прежними.
Источник изображения: Getillustrations / unsplash.com Об изменении сообщил сотрудник технической команды Anthropic Тарик Шихипар (Thariq Shihipar). По его оценке, около 7 % пользователей столкнутся с лимитами сессий в сценариях, в которых раньше этого не происходило, прежде всего на более высоких тарифах. Пиковым считается интервал с 05:00 до 11:00 по тихоокеанскому времени (с 16:00 до 22:00 по московскому). В этот период объём использования, соответствующий пяти часам, может исчерпываться быстрее. В остальное время пятичасовой лимит расходуется в обычном режиме.
Источник изображения: @trq212 / x.com Anthropic привязывает почасовое использование к потреблению токенов, не раскрывая, какое именно количество токенов соответствует временному лимиту, поэтому пользователи не могут заранее планировать расход токенов. В документации Anthropic указано, что на объём использования влияют длина и сложность диалогов, используемые функции, а также выбранная модель Claude, а разные планы подписки, включая Pro, Max и Team, предусматривают разные объёмы допустимого использования. Пользователям, запускающим фоновые задачи с высоким потреблением токенов, предложено переносить такую нагрузку на непиковые часы. Компания уточняет, что в периоды более низкого спроса доступная вычислительная мощность выше, поэтому общий недельный объём использования не сокращается: меняется только его распределение в течение недели. В интерфейсе Claude доступна панель мониторинга, показывающая расход пятичасовых лимитов сессий и недельных лимитов. После исчерпания лимита доступ блокируется, если пользователь не оплатил дополнительное использование. Anthropic предлагает доступ к своим ИИ-сервисам в двух форматах: через API для разработчиков и по подписке для обычных пользователей Claude. В API стоимость рассчитывается по опубликованным правилам для разных типов операций с токенами, то есть с единицами текста, которые ИИ-модель обрабатывает и генерирует. У подписчиков Claude схема иная: вместо понятного расчёта по операциям действуют внутренние лимиты использования, точный порядок применения которых компания не раскрывает. Сейчас доступны тарифы Free, Pro за $20 в месяц, Max 5x за $100 в месяц и Max 20x за $200 в месяц. Anthropic подтвердила, что готовит мощнейшую ИИ-модель Claude Mythos — утечка раскрыла детали
27.03.2026 [12:58],
Дмитрий Федоров
Anthropic подтвердила, что разрабатывает и тестирует с клиентами раннего доступа новую ИИ-модель, превосходящую по возможностям все предыдущие, после того как о её существовании стало известно из-за случайной утечки данных. Попавшие в открытый доступ черновики содержали сведения о ИИ-модели Claude Mythos, новом уровне Capybara и беспрецедентных, по оценке самой компании, рисках для кибербезопасности.
Источник изображения: anthropic.com Публичное подтверждение последовало после утечки черновых материалов, обнаруженных в общедоступном кэше данных и изученных изданием Fortune. До вечера четверга в незащищённом и доступном для поиска хранилище находился черновик записи в блоге, где новая ИИ-модель называлась Claude Mythos и описывалась как ИИ, создающий беспрецедентные риски в сфере кибербезопасности. После уведомления от Fortune компания закрыла публичный поиск по хранилищу и доступ к документам. Anthropic заявила, что доступность чернового контента стала следствием «человеческой ошибки» при настройке системы управления контентом. Масштаб утечки оценивается почти в 3 000 материалов, связанных с блогом Anthropic, ранее не публиковавшихся на новостных или исследовательских площадках компании, а также документы, выглядевшие как внутренние. Такую оценку дал исследователь кибербезопасности из Кембриджского университета (University of Cambridge) Александр Повелс (Alexandre Pauwels), которого Fortune попросило проанализировать массив данных. Независимо от него документы также обнаружил и изучил старший исследователь безопасности ИИ из компании LayerX Security Рой Паз (Roy Paz). В кэше находился также PDF-файл о предстоящем закрытом выездном мероприятии для генеральных директоров европейских компаний в Великобритании с участием генерального директора Anthropic Дарио Амодеи (Dario Amodei). Мероприятие было рассчитано на 2 дня, описывалось как «камерная встреча» и предполагало обсуждение внедрения ИИ в бизнесе, а также демонстрацию новых возможностей Claude.
Источник изображения: Ayush Kumar / unsplash.com В тех же материалах фигурировало название Capybara. Оно использовалось для обозначения нового уровня ИИ-моделей — более крупных и более интеллектуальных, чем Opus, до этого считавшиеся наиболее мощными в линейке компании. По содержанию документов Capybara и Mythos относятся к одной и той же базовой ИИ-модели. Сейчас Anthropic продаёт модели трёх уровней: Opus, Sonnet и Haiku. Capybara описывалась как ИИ, превосходящий Opus по возможностям и стоимости. В черновике также говорилось, что по сравнению с Claude Opus 4.6 новая ИИ-модель показывает значительно более высокие результаты в тестах по программированию, академическому рассуждению и кибербезопасности. Там же сообщалось о завершении обучения Claude Mythos, названной самой мощной ИИ-моделью в истории компании. Структура документа с заголовками и датой публикации указывала на подготовку продуктового запуска. Схема вывода на рынок предполагала ограниченный ранний доступ, поскольку ИИ-модель дорога в эксплуатации и пока не готова к выходу в массы. Ключевой темой утекших материалов стали риски для кибербезопасности. Модель описывалась как система, значительно опережающая другие ИИ-модели по кибервозможностям и предвосхищающая волну решений, способных использовать уязвимости быстрее, чем кибербезопасность успеет им противодействовать. Поэтому ранний доступ планировалось предоставить организациям, занимающимся киберзащитой, чтобы дать им фору в повышении устойчивости кодовых баз к атакам, управляемым ИИ.
Источник изображения: Wesley Tingey / unsplash.com Этот подход совпал с более широким отраслевым сдвигом. В феврале OpenAI при выпуске GPT-5.3-Codex заявила, что это её первая ИИ-модель, классифицированная в рамках Preparedness Framework как система с высоким уровнем возможностей для задач, связанных с кибербезопасностью, и первая модель, напрямую обученная выявлению уязвимостей в программном обеспечении (ПО). Тогда же Anthropic выпустила Opus 4.6, способную выявлять ранее неизвестные уязвимости в кодовых базах. Компания признала двойной характер такой возможности: она может помогать и специалистам по защите, и злоумышленникам. Anthropic также сообщила, что хакерские группы, включая структуры, якобы связанные с правительством Китая, пытались использовать Claude в реальных кибератаках. В одном таком случае поддерживаемая государством китайская группа применяла Claude Code для проникновения примерно в 30 организаций, включая технологические компании, финансовые учреждения и государственные ведомства. В течение последующих 10 дней компания установила масштаб операции, заблокировала причастные к взломам аккаунты и уведомила пострадавшие организации. Anthropic Claude научился управлять компьютером Mac за пользователя
24.03.2026 [04:49],
Дмитрий Федоров
Anthropic научила Claude управлять компьютером Mac вместо пользователя. В Claude Cowork и Claude Code ИИ-модель может сама открывать файлы, управлять браузером, запускать инструменты разработки и выполнять задачи через интерфейс компьютера, а передавать задания Claude можно со смартфона через функцию Dispatch.
Источник изображения: claude.com Работу новой функции компания продемонстрировала на YouTube. На видео Claude использует компьютер в режимах Cowork и Code и самостоятельно выполняет задачи и действует так же, как пользователь, — от открытия и редактирования файлов до выполнения сложных задач. Функция появится на macOS для пользователей платных подписок Claude Pro и Claude Max в формате исследовательского предварительного доступа. Иными словами, Anthropic теперь сама внедряет подход, который ранее связывали с ИИ-агентом OpenClaw. Само направление ИИ-агентов начало развиваться вокруг Claude ещё до того, как к этому направлению подключилась OpenAI. Теперь в этом сегменте работают и другие игроки, в том числе Perplexity Computer и Manus компании Meta✴✴. Галлюцинации ИИ пугают людей больше, чем угроза потери рабочих мест
23.03.2026 [08:17],
Алексей Разин
До сих пор считалось, что искусственный интеллект может представлять угрозу для трудоустройства обладателей определённых профессий, но проведённый среди пользователей Anthropic Claude опрос показал, что людей больше всего пугает склонность ИИ к ошибкам и галлюцинациям.
Источник изображения: Nvidia Об этом говорят данные социологического исследования, которое охватило более 80 000 пользователей чат-бота Claude в 159 странах, как отмечает Financial Times. Сильнейшей угрозой со стороны искусственного интеллекта 27 % опрошенных назвали его склонность к совершению ошибок. Утрата рабочих мест из-за распространения ИИ оказалась лишь на втором месте с 22 % ответов. Ещё 16 % респондентов выделили свои опасения по поводу утраты человечеством способности критически мыслить в качестве дополнительной угрозы со стороны ИИ. Участники опроса подчёркивали, что галлюцинации ИИ не только отнимают много времени на их устранение, но и могут влиять на результаты работы без надлежащего экспертного контроля со стороны человека. В целом, результаты опроса сформировали довольно равномерное распределение ответов по типам угроз. Влияние ИИ на процессы управления выделили 15 % респондентов, угрозу распространения дезинформации назвали 14 % респондентов. По 13 % назвали злонамеренное использование и слежку соответственно в качестве главных факторов риска. По 12 % подчеркнули демотивацию творчества и чрезмерность регулирования соответственно, по 11 % сделали выбор в пользу подхалимства и психологической зависимости от ИИ в качестве основных проблем, связанных с его распространением. При этом 32 % опрошенных пользователей Claude заявили, что ИИ повысил производительность их труда. Один из веб-дизайнеров в ОАЭ признался, что ИИ помогает заменить работу примерно 100 человек, и теперь не нужно ждать, пока они справятся со своими заданиями. Пользователи Claude в Японии, США и Колумбии подчеркнули, что ИИ помог им освободить от работы больше времени для нахождения с близкими и хобби. Примерно 19 % респондентов признались, что ИИ не оправдал их ожиданий в полной мере. Примечательно, что эмоциональное восприятие ИИ разнится в зависимости от географического региона, в котором проживают пользователи Claude. В Африке, Южной Америке, на юге и юго-востоке Азии данные технологии воспринимаются людьми с более выраженным оптимизмом, чем в США, Европе и Восточной Азии. По сути, в пользу ИИ больше верят жители стран с более низким уровнем жизни, которым эти технологии доступны в меньшей мере. В странах Запада сильнее выражено беспокойство по поводу способности ИИ негативно влиять на экономику в целом и рынок труда в частности. Anthropic собирается использовать подобные опросы для корректировки стратегии развития своих ИИ-моделей, поскольку их можно будет адаптировать под требования конкретных регионов. Проведённый опрос имел серьёзный перекос в сторону западных стран, поскольку в Центральной Азии, например, набралось не более нескольких сотен опрошенных. Это могло повлиять на представительность ответов, а потому результаты исследования необходимо воспринимать критически, как подчёркивают эксперты. Даже в США выборка не была представительной, поскольку доступ к Claude имеют довольно обеспеченные жители страны. Anthropic догоняет OpenAI в сфере ИИ для бизнеса
19.03.2026 [13:03],
Дмитрий Федоров
Anthropic ускоряет рост на корпоративном рынке ИИ. В феврале её бизнес-подписки выросли на 4,9 % месяц к месяцу, тогда как доля OpenAI снизилась на 1,5 %. Последняя пока сохраняет лидерство на корпоративном рынке подписок с долей 34,4 % против 24,4 % у Anthropic, однако разрыв быстро сокращается на фоне конфликта вокруг сотрудничества с военным сектором США и роста интереса к ИИ-моделям Claude.
Источник изображения: Anthropic Экономист Ramp Ара Харазян (Ara Kharazian) сообщил, что почти каждая четвёртая компания, работающая через Ramp, теперь платит за Anthropic, тогда как год назад такой была одна из 25 организаций. Снижение OpenAI на 1,5 % он назвал крупнейшим месячным падением среди всех компаний-разработчиков ИИ-моделей за всё время наблюдений за корпоративным внедрением ИИ. По словам Харазяна, компании, впервые выбирающие ИИ-сервисы, теперь примерно в 70 % случаев выбирают Anthropic. Одновременно OpenAI, по имеющимся данным, пересматривает стратегию и усиливает фокус на продажах ИИ бизнесу и разработчикам программного обеспечения — именно в тех сегментах, где Anthropic показывает наибольший рост. Рост интереса к Claude совпал с конфликтом между Anthropic и Министерством войны США (DoW). В конце января Reuters сообщило о разногласиях, вызванных отказом компании снять защитные ограничения с ИИ-моделей, чтобы сделать их более пригодными для военного применения. В конце февраля Anthropic публично выступила против такого давления. 4 марта компания заявила, что получила уведомление о признании её рискованной организацией для цепочки поставок с точки зрения национальной безопасности США. После этого Anthropic подала иски, оспаривающие фактическое исключение компании из взаимодействия с DoW. Этот конфликт не улучшил отношения Anthropic с администрацией Дональда Трампа (Donald Trump). По данным Sensor Tower, конфликт с DoW совпал со всплеском установок Claude и ростом числа удалений ChatGPT. На положении OpenAI также могло сказаться сотрудничество компании с Пентагоном и признание её генерального директора Сэма Альтмана (Sam Altman), что ситуация была урегулирована неудачно. После конфликта с DoW компанию Claude публично поддержали американская певица Кэти Перри (Katy Perry) и сенатор США Брайан Шатц (Brian Schatz). Харазян описал этот эффект так: «Anthropic позиционировала себя иначе, и определённая категория пользователей это заметила». К этой же аудитории относятся пользователи, готовые платить $20 или $200 в месяц за доступ к Claude и испытывающие неприязнь к OpenAI из-за рекламы в ChatGPT. В феврале Anthropic сообщила, что её годовой темп выручки достиг $14 млрд. Тогда же компания объявила о привлечении ещё $30 млрд. При этом в судебном документе, поданном ранее, финансовый директор Anthropic Кришна Рао (Krishna Rao) указал, что с момента выхода компании на коммерческий рынок она получила более $5 млрд выручки. Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста
17.03.2026 [18:46],
Павел Котов
Службы на основе искусственного интеллекта постепенно переходят к решению задач творческого характера, которые ранее требовали специального ПО — теперь чат-боты умеют преобразовывать рукописные символы в цифровой шрифт. Правда, пока система работает не идеально.
Источник изображения: anthropic.com Чтобы получить свой собственный шрифт, пользователю необходимо изобразить от руки алфавит, цифры и знаки препинания, отсканировать страницу и загрузить получившийся файл чат-боту с ИИ — тот преобразует рукописное начертание в шрифт формата TrueType. Результат будет зависеть от почерка человека — те, у кого он разборчивый, получат более качественный результат, чем остальные.
Источник изображения: x.com/ashebytes Функция неочевидна — её обнаружила инженер-программист и специалист по ИИ Аше Магальяеш (Ashe Magalhaes). Его подход основан на одной из функций Anthropic Claude, который для решения сложных задач может вызывать внешние инструменты на языке Python. Для генерации шрифта на основе латинского алфавита необходимо изобразить на бумаге все буквы в заглавном и строчном начертаниях, цифры и знаки препинания. Изображение сканируется и загружается в чат-бот. Он анализирует контуры каждой буквы и преобразует их в векторные фигуры, которые задают основу для файла шрифта.
Источник изображения: x.com/ashebytes Процесс требует аккуратного подхода. В ходе тестирования служба ИИ сначала предоставила шаблон, чтобы пользователь разместил символы на странице. Буквы должны быть чёткими, расстояние между символами — равномерным, а сканировать необходимо в оптимальных условиях без теней или эффектов неравномерного освещения. Первые попытки были неудачными: в первом выходном файле формы были искажены и напоминали скорее чернильные пятна, а не буквы. Система проанализировала собственную работу и пришла к выводу, что внешние контуры некоторых символов она распознать не смогла и запустила процесс конвертации повторно. Второй заход оказался значительно удачнее, но такие буквы как «O», «A» и «R» изображались сплошными поверхностями, без отверстий. Пришлось производить доработку. Возникали и дальнейшие проблемы: в какой-то момент в единый глиф слились буквы «x» и «y» — это тоже пришлось корректировать. В окончательном варианте удалось добиться вполне приемлемого результата. Anthropic удвоила лимиты Claude для всех пользователей, но с ограничениями
16.03.2026 [18:58],
Сергей Сурабекянц
В последние дни пользователи чат-ботов с ИИ массово мигрируют на Claude, не в последнюю очередь из-за позиции Anthropic в отношении сделок с американскими военными. Компания решила выразить благодарность пользователям — все они получили удвоенные лимиты использования в течение следующих двух недель. Это изменение распространяется на все уровни подписки и планы (включая бесплатный), и для его активации никаких действий не требуется.
Источник изображения: Anthropic Однако имеется один небольшой подвох: эти дополнительные лимиты использования доступны только вне часов пик, которые приходятся на промежуток с 8:00 до 14:00 по восточному времени (с 16:00 до 22:00 по московскому времени). В выходные дни дополнительные лимиты можно использовать в течение всего дня. Более подробную информацию можно найти на странице акции на официальном сайте Anthropic. Предложение действует с 13 марта по 27 марта включительно. Корпоративные аккаунты в акции не участвуют. Отметим, что даже пользователи самых дорогих платных тарифных планов не получают неограниченного количества чатов с Claude. Принципы Anthropic в отношении использования искусственного интеллекта в военных целях привели к тому, что от него отказалось министерство обороны и другие государственные учреждения США, поэтому сотрудники Белого дома и Пентагона не смогут воспользоваться этой акцией. Anthropic научила Claude генерировать графики и таблицы прямо в чате с пользователем
13.03.2026 [07:01],
Алексей Разин
Проблемы во взаимоотношениях с американскими властями не мешают Anthropic продолжать совершенствование своего чат-бота Claude. После недавнего обновления он научился автоматически вставлять в диалоговом окне иллюстрации, позволяющие проще объяснить суть доводимой до пользователя информации. Графики, таблицы и диаграммы могут создаваться и по прямому запросу со стороны пользователя.
Источник изображения: Anthropic Ранее они возникали в боковой панели Claude, как отмечает The Verge, а теперь будут вставляться прямо в диалоговом окне. Самое примечательное, что графики, таблицы и диаграммы при этом могут быть интерактивными. В частности, периодическая таблица химических элементов будет отображаться таким образом, что нажатие на каждый из элементов позволит вывести дополнительную информацию о нём. Чат-бот Claude способен сам предугадывать, когда лучше сопроводить свой ответ интерактивной иллюстрацией, но по запросу пользователя он может сделать это в любой момент. Конкурирующие платформы подобными возможностями уже обзавелись. Например, OpenAI позволяет ChatGPT вставлять в диалог с пользователем интерактивные иллюстрации к математическим задачам и научным обсуждениям, а Google Gemini создаёт интерактивные иллюстрации для образовательных целей. Ранее подобный инструментарий был доступен пользователям Claude через боковую панель. Она сохранит соответствующую функцию, а вот иллюстрации из диалога с пользователем будут исчезать вместе с их завершением. В случае необходимости Claude сможет вносить изменения в уже созданные интерактивные иллюстрации. Новая функция доступна всем категориям пользователей Claude и по умолчанию изначально активна. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |