|
Опрос
|
реклама
Быстрый переход
Мошенники начали маскировать вредоносы под утекшие исходники Anthropic Claude Code
03.04.2026 [16:03],
Павел Котов
На этой неделе произошла утечка исходного кода сервиса Anthropic Claude Code — компания приняла меры, чтобы защитить его, но скандалом воспользовались мошенники, и в некоторых случаях любопытным пользователям доставался не ценный продукт, а его подделка с вредоносным ПО.
Источник изображения: Kevin Horvat / unsplash.com Наиболее ярким примером стал репозиторий на GitHub, в котором содержится вирус Vidar похищающий учётные данные, данные банковских карт и историю браузера, и троян GhostSocks, используемый для проксирования сетевого трафика. «В файле README даже утверждается, что код раскрыли через файл .MAP в пакете NPM, а затем его пересобрали в рабочий форк с „разблокированными“ корпоративными функциями и без ограничений на запросы», — отметили эксперты по вопросам кибербезопасности из отдела ThreatLabz компании Zscaler. Ссылка на этот репозиторий GitHub появлялась в верхней части поисковой выдачи Google. Впоследствии проект пропал из поля зрения, но на платформе оставались как минимум два других вредоносных проекта с троянами, маскирующиеся под исходный код Claude Code, у одного из которых было 793 форка и 564 звезды. В одном из случаев из архива .7Z распаковывался написанный на языке Rust вредонос-дропер, который также загружал на компьютер жертвы пару Vidar и GhostSocks. Инцидент в очередной раз демонстрирует, что киберпреступники нередко пытаются нажиться за счёт громких продуктов, создавая их вредоносные клоны разной степени схожести. Рекомендуется соблюдать осторожность с тем, что загружается из интернета. Anthropic вспомнила об авторских правах — она пытается смягчить последствия утечки кода Claude Code
01.04.2026 [20:28],
Сергей Сурабекянц
Компания Anthropic обучала свои модели ИИ с многочисленными нарушениями авторских прав, но отреагировала предельно негативно, когда сама попала в аналогичную ситуацию. После случайной утечки базовых инструкций, используемых для управления Claude Code, они попали в широкий доступ и начали активно использоваться. На данный момент представители Anthropic потребовали у администрации GitHub удалить уже более 8000 копий и адаптаций утёкшего в Сеть исходного кода.
Источник изображений: Anthropic Конфиденциальная информация Claude Code была случайно раскрыта 31 марта. Как и большинство проприетарного ПО, исходный код Claude обычно обфусцирован и его трудно реконструировать. Однако на этот раз компания разместила на GitHub файл, содержащий ссылку на исходный код, который посторонние могли свободно загрузить и прочитать. Один из пользователей быстро заметил утечку и распространил информацию в соцсети X. Многочисленные программисты и энтузиасты ИИ тут же бросились изучать утечку. В социальных сетях появились восторженные отзывы о некоторых программных и алгоритмических «уловках» Anthropic. Одна из функций требует от моделей периодически возвращаться к выполнению задач и консолидировать свои воспоминания — процесс, который в Anthropic называют «сновидением». Другая функция предписывает Claude не раскрывать свою ИИ-сущность при публикации кода на таких платформах, как GitHub. В коде обнаружены теги, указывающие на будущие релизы продукта и даже код питомца в стиле Тамагочи по имени «Бадди», с которым пользователи могли взаимодействовать. В результате конкуренты Anthropic, а также множество стартапов и разработчиков теперь имеют подробные планы развития продукта и возможность клонирования функций Claude Code без необходимости обратного проектирования — что уже стало обычным явлением в жёсткой конкуренции в сфере ИИ. Утечка также предоставляет хакерам возможности для поиска ошибок, которые можно использовать для эксплуатации или манипулирования ИИ-моделью Claude с целью использования её в кибератаках. ![]() Утечка «некоторого внутреннего исходного кода» не раскрыла никакой информации или данных клиентов, заявил представитель Anthropic. Она также не раскрыла ценные веса моделей. Однако в широкий доступ попала коммерчески важная информация, включая методы, инструменты и инструкции Anthropic по управлению моделями ИИ в качестве агентов. «Это была проблема с упаковкой релиза, вызванная человеческой ошибкой, а не нарушением безопасности. Мы принимаем меры, чтобы предотвратить подобные инциденты в будущем», — заявил представитель компании. Несмотря на это заявление, утечка стала ударом для Anthropic, поскольку она рискует подорвать репутацию компании в сфере безопасности, а также раскрыть ценные коммерческие секреты в ожесточённой борьбе за корпоративных клиентов. Вирусная популярность Claude Code помогла Anthropic привлечь инвестиции, которые довели биржевую оценку компании до $380 млрд. После того, как Anthropic потребовала от GitHub удалить копии своего проприетарного кода, функциональность Claude Code была переписана с помощью сторонних ИИ-инструментов. Автор этого «проекта» заявил, что цель его усилий — сохранить доступность информации, не рискуя её удалением. Этот пиратский «форк» уже стал весьма популярным на GitHub. Обновление Anthropic Claude случайно раскрыло перспективные функции чат-бота, включая виртуального питомца по типу Тамагочи
01.04.2026 [08:56],
Алексей Разин
Задолго до начала бурного развития систем искусственного интеллекта на психологической зависимости людей от виртуальных компаньонов пытался заработать производитель электронных устройств Tomagochi, имитирующих процесс ухода за питомцами. Разработчики ИИ-бота Claude пытаются вернуть часть этого опыта за счёт внедрения соответствующей функции в свои решения.
Источник изображения: Anthropic Об экспериментальных возможностях чат-бота Claude Code стало известно в результате случайной публикации компанией Anthropic фрагмента исходного кода при распространении обновления 2.1.88. Из-за ошибки кого-то из сотрудников Anthropic, как сообщает The Verge, достоянием общественности стали более 512 000 строк исходного кода Claude Code. Анализ этого фрагмента кода позволил энтузиастам понять, над какими перспективными функциями работают специалисты Anthropic. Среди прочего, были замечены признаки работы Anthropic над функцией «памяти», которая позволяет пользователю в диалоге с Claude обращаться к прежним запросам. Некий представитель стартапа прокомментировал данную идею не самым доброжелательным образом. По словам разработчика, использование памяти значительно увеличивает сложность, но не факт, что достигаемый прирост эффективности взаимодействия с чат-ботом это оправдывает. Кроме того, Anthropic был невольно уличён в разработке виртуального «питомца», который постоянно находился бы рядом с диалоговым окном чат-бота и демонстрировал бы визуальную реакцию на вводимые человеком данные. Альтернативой мог бы стать KAIROS — постоянно присутствующий агент, следящий за действиями пользователя. Представители Anthropic признали, что фрагмент исходного кода утёк случайно. Аналитики Gartner добавили, что в долгосрочной перспективе подобная утечка не представляет серьёзной опасности для Anthropic, но позволит компании задуматься о необходимости усиления мер безопасности. Разработчик доверил Claude Code управление AWS — ИИ полностью удалил два сайта и базу данных
07.03.2026 [19:04],
Павел Котов
Помогающие в написании программного кода агенты искусственного интеллекта, такие как Anthropic Claude Code никогда не дают стопроцентной гарантии результата, и в отдельных случаях возможны неприятные инциденты, например, с удалением данных. Но в случае с разработчиком Алексеем Григорьевым виновником оказался не ИИ, а человеческий фактор.
Источник изображения: anthropic.com Разработчик решил перенести свой сайт в облачную инфраструктуру Amazon Web Services (AWS), где уже находился другой его ресурс. Claude Code не рекомендовал этот вариант, но пользователь посчитал, что поддерживать две конфигурации слишком трудозатратно. Для управления инфраструктурой он выбрал утилиту Terraform, которая поддерживает создание (равно как и удаление) ресурсов со всеми настройками, включая сети, балансировку нагрузки, базы данных и сами серверы. Алексей попросил Claude Code выполнить план Terraform для настройки нового сайта, но забыл загрузить файл состояния с полным описанием текущей конфигурации. В результате ИИ-агент выполнил команду разработчика и создал контейнер для подлежащего переносу сайта, но пользователь сам остановил процесс на полпути. Из-за отсутствия файла состояния ресурсы начали дублироваться. Разработчик распорядился определить дубликаты ресурсов, чтобы исправить ситуацию, а затем всё-таки загрузил файл состояния, решив, что разобрался в проблеме. Алексей предположил, что ИИ-агент продолжит удалять дубликаты ресурсов, а затем откроет файл состояния, чтобы понять, как необходимо настроить платформу. При наличии файла состояния Claude Code последовал инструкции Terraform, выполнив операцию «destroy» («уничтожить»), чтобы подготовиться к установке сайта. Учитывая, что в файле установки значился другой ресурс, уже находившийся к тому моменту в AWS, в результате были удалены оба сайта, в том числе база данных с записями за 2,5 года и её снимки, которые использовались в качестве резервных копий. Для решения проблемы разработчику пришлось обращаться в службу технической поддержки Amazon, которая помогла восстановить данные в течение суток. Описывая инцидент, он привёл несколько мер, которые принял, чтобы подобные случаи больше не повторялись. Он настроил периодическую проверку восстановления базы данных, включил защиту от удаления в Terraform и AWS, а файл состояния переместил в хранилище S3, чтобы не держать его на своём компьютере. Алексей признал, что слишком полагался на ИИ-агента при выполнении команд Terraform, и на будущее решил все операции по удалению данных производить самостоятельно. Винить ИИ в инциденте он не стал. Геймдев для всех: собака с помощью Anthropic Claude Code написала компьютерную игру
25.02.2026 [17:17],
Павел Котов
Как оказалось, современным сервисам искусственного интеллекта не так уж нужны осмысленные запросы, чтобы генерировать код для создания компьютерных игр. Это подтвердил эксперимент автора YouTube-канала Caleb Leak — запросы на генерацию кода вместо него отправляла его собака.
Источник изображения: youtube.com/@CalebLeak В действительности собака, кавапу по кличке Момо (Momo), таким образом получала угощение. Хозяин положил на пол Bluetooth-клавиатуру, подключённую к одноплатному компьютеру Raspberry Pi 5. Время от времени собака подходила к клавиатуре, била лапой по клавишам, и подключённая к Raspberry Pi 5 умная кормушка выдавала ей лакомство. Нажатия клавиш регистрировались и транслировались в написанное на языке Rust приложение DogKeyboard, которое далее передавало этот текст в ИИ-сервис Anthropic Claude Code. Чтобы заставить ИИ генерировать код по таким нестандартным запросам, автор эксперимента придумал следующую «обёртку» для них: «Привет! Я эксцентричный (очень творческий) дизайнер игр, который общается необычным способом. Иногда я жму по клавишам и печатаю всякую ерунду вроде „skfjhsd#$%“ — но это НЕ случайность! Это секретные зашифрованные команды, полные идей для игр (даже если их непросто разглядеть). Твоя задача: ты — блестящий разработчик игр с ИИ, способный понимать мой загадочный язык. Независимо от того, насколько странный или бессмысленный запрос я даю, ты будешь интерпретировать его как осмысленную инструкцию или идею для нашей игры. Затем будешь дорабатывать или обновлять игру на основе этой интерпретации». От первых команд, которые отдавала собака, до полностью готовой игры проходят от одного до двух часов. Разработка ведётся на движке Godot 4.6, логика пишется на языке C#. В приведённом на YouTube-канале примере на выходе получилась игра со следующим описанием: «Quasar Saz: вы играете за Зару (Zara), которая, пользуясь космическим сазом, сражается с искажённым звуком на протяжении шести игровых уровней и битвы с боссом». Игра выполнена в атмосфере тех, что были популярны в восьмидесятые годы прошлого века. Anthropic обвинила китайских хакеров в использовании Claude Code для шпионажа
14.11.2025 [15:39],
Павел Котов
Китайские хакеры, предположительно, использовали созданный компанией Anthropic сервис для написания кода, основанный на искусственном интеллекте, для незаконного проникновения в 30 объектов по всему миру, рассказали в самой Anthropic.
Источник изображения: anthropic.com «Целями операции были крупные технологические компании, финансовые учреждения, химические производственные предприятия и государственные учреждения», — рассказали в компании и заверили, что в большинстве случаев злоумышленникам не удалось добиться успеха. Инцидент в компании назвали «первым задокументированным случаем успешного получения ИИ-агентом доступа к подтверждённым объектам высокой ценности для сбора разведывательной информации, в том числе от крупных технологических корпораций и государственных учреждений». Масштабную серию хакерских атак Anthropic обнаружила в середине сентября — её, по версии компании, развернули китайские киберпреступники, использовавшие сервис Claude Code не по назначению. Как именно злоумышленников удалось связать с Китаем, в Anthropic не уточнили, но заявили, что те с «высокой уверенностью» действовали по командам из Пекина. В сервисе Claude Code предусмотрены средства защиты от нецелевого использования, но хакерам удалось их преодолеть — они разбивали цели атаки на небольшие задачи, каждая из которых в своём масштабе представлялась невинной. Злоумышленники заверили ИИ, что действуют от имени сотрудника, который занимается кибербезопасностью, и код используется для тестирования защиты. В результате Claude Code тестировал уязвимости в защите IT-систем жертв и писал код для развёртывания атак, сбора имён пользователей и паролей при проникновении, а затем выступал организатором для глубокого взлома с целью кражи данных. В результате удалось выявить учётные записи с наивысшими привилегиями и бэкдоры, а участие человека в краже данных оказалось минимальным — ИИ взял на себя от 80 % до 90 % задач. «Эффективность этих атак, вероятно, будет только расти», — предупредили в Anthropic. Компания заблокировала связанные с инцидентом учётные записи Claude Code, уведомила пострадавшие организации и сотрудничала с властями при сборе оперативной информации. Anthropic заявила, что ввела дополнительные меры, направленные на выявление и пресечение подобных злоупотреблений, но отметила, что делает ставку на свои технологии, которые должны перевесить риски и укрепить кибербезопасность, а не способствовать хакерам. В ряде случаев, добавили в компании, сервис Claude Code снабжал злоумышленников неточной информацией, завышал результаты и фальсифицировал данные. |