|
Опрос
|
реклама
Быстрый переход
Команда из 16 ИИ-агентов Anthropic Claude смогла самостоятельно написать компилятор языка Си
07.02.2026 [18:40],
Павел Котов
Компания Anthropic провела эксперимент, сформировав группу из агентов искусственного интеллекта, которые совместными усилиями с нуля написали компилятор языка Си. Программа работает далеко от идеала, уступая существующим аналогам, но демонстрирует возможности современных систем ИИ.
Источник изображения: Luca Bravo / unsplash.com Отчёт о проделанной работе представил исследователь Anthropic Николас Карлини (Nicholas Carlini). Он запустил в облачном окружении 16 экземпляров новейшей модели Claude Opus 4.6, подключил их к общей кодовой базе с минимальным контролем и поручил им с нуля разработать полноценный Си-компилятор. Работа заняла две недели, потребовала почти 2000 сессий работы сервиса Claude Code и обошлась примерно в $20 000 за доступ к ИИ по API. На выходе ИИ-агенты написали на языке Rust компилятор объёмом 100 000 строк кода, способный самостоятельно собрать загружаемое ядро Linux 6.19 на машинах с архитектурами x86, Arm и RISC-V. В рамках эксперимента исследователь задействовал новую функцию Claude Opus 4.6 — «команду агентов». На практике каждый экземпляр Claude был запущен внутри собственного контейнера Docker — он клонировал общий репозиторий Git, принимал задачи посредством lock-файлов, после чего отправлял готовый код обратно в репозиторий. Центральный агент, который координировал бы работу прочих, отсутствовал. Каждый экземпляр определял наиболее очевидную задачу для дальнейшей работы и начинал её решать. Когда возникали конфликты слияния, ИИ-агенты разрешали их самостоятельно. Получившийся таким образом компилятор Anthropic опубликовала на GitHub. Он действительно может компилировать код таких открытых проектов как PostgreSQL, SQLite, Redis, FFmpeg и QEMU, а также проходит 99 % тестов GCC. Но есть и серьёзные ограничения: он не компилирует 16-битный машинный код для запуска Linux, поэтому на этом этапе подключается GCC; ассемблер и линкер работают со сбоями; даже при наличии всех оптимизаций он производит менее эффективный код, чем GCC. Наконец, исходный код компилятора на Rust хотя и функционален, но по качеству он даже не близок к тому, что мог бы создать опытный программист.
Источник изображения: Mohammad Rahmani / unsplash.com Автор проекта очень старался преодолеть некоторые из ограничений, но успеха так и не добился — при попытках добавить новые возможности или исправить ошибки существующие функции часто переставали работать. Сработала закономерность, при которой кодовая база разрастается до такой степени, что ни один участник проекта не может в полной мере её понять. Предел наступил на отметке около 100 000 строк кода — видимо, это максимум возможностей для автономных ИИ-агентов. Компилятор характеризуется как «реализация в чистой комнате» — во время разработки у ИИ-агентов не было доступа в интернет. Следует также отметить, что указанные затраты в $20 000 — это только стоимость токенов при доступе к ИИ через API. Сумма не включает в себя расходы на обучение ИИ-модели, труд организовавшего проект исследователя, а также труд программистов, которые создали наборы тестов и эталонные реализации. Подготовительная работа действительно оказалась непростой — проектирование среды для ИИ-агентов потребовало больше усилий, чем непосредственное написание кода компилятора. Обнаружилось, что многословные запросы тестов засоряют контекстное окно модели, и она теряет из виду то, чем занималась. Чтобы решить эту проблему, исследователь разработал средства запуска тестов, при которых выводятся только несколько строк сводки, а запись производится в отдельные файлы. Кроме того, у Claude отсутствует чувство времени — ИИ может часами запускать тесты, не продвигаясь вперёд; поэтому пришлось создать быстрый режим с обработкой от 1 % до 10 % тестовых случаев. Когда все 16 ИИ-агентов застряли в попытке обработать одну ошибку ядра Linux, пришлось в качестве эталона запустить GCC — он компилировал большинство кода самостоятельно, а ИИ-агентам доставались случайные фрагменты. Когда в этих фрагментах возникали ошибки, ИИ-агенты их исправляли. Все эти недочёты отступают перед основным выводом — ещё год назад ни одна большая языковая модель не смогла бы проделать такую работу, даже при надлежащем контроле и неограниченном бюджете. Механизм параллельного запуска нескольких агентов с координацией действий через Git — новаторское решение, а разработанные автором исследования инженерные приёмы по повышению производительности ИИ-агентов способны оказать влияние на дальнейшее развитие сегмента ИИ-программирования. Anthropic представила Claude Opus 4.6 — флагманскую LLM с командами агентов, миллионным контекстом и платным доступом
05.02.2026 [23:13],
Андрей Созинов
Компания Anthropic представила новую версию своей флагманской языковой модели — Claude Opus 4.6, назвав её «прямым апгрейдом» предыдущего поколения и самым интеллектуально развитым ИИ в своей линейке. Обновление уже доступно платным пользователям чат-бота Claude, а также через API по той же цене, что и Claude Opus 4.5.
Источник изображений: Anthropic Одним из главных нововведений стали так называемые «команды агентов» (agent teams). Речь идёт о наборе ИИ-агентов, которые могут делить крупные и сложные задачи на отдельные части и выполнять их параллельно. По замыслу Anthropic, каждый агент отвечает за свой сегмент работы и напрямую координируется с другими. Руководитель продуктового направления Anthropic Скотт Уайт (Scott White) сравнил эту функцию с работой слаженной команды людей, подчеркнув, что распределение ролей позволяет выполнять задачи быстрее. На данный момент «команды агентов» доступны в формате исследовательского превью для пользователей API и платных подписчиков. Ещё одно важное улучшение — увеличенное контекстное окно. Claude Opus 4.6 способен обрабатывать до 1 млн токенов за сессию, что сопоставимо с возможностями моделей Sonnet 4 и 4.5. По словам компании, это упрощает работу с крупными базами программного кода и объёмными документами, позволяя модели удерживать значительно больше информации в памяти. Кроме того, Anthropic усилила интеграцию Claude с Microsoft PowerPoint. Теперь ИИ доступен прямо в интерфейсе приложения для создания презентаций в виде боковой панели. Если раньше пользователь мог лишь сгенерировать презентацию и затем отдельно редактировать файл в PowerPoint, то теперь создание и доработка слайдов происходят непосредственно внутри программы при активной помощи Claude. ![]() ![]() По утверждению Anthropic, Opus 4.6 заметно лучше справляется со сложными многошаговыми задачами и чаще выдаёт результат, близкий к «продакшен-качеству», уже с первой попытки. Это особенно заметно при работе с документами, таблицами и презентациями — число итераций и правок при их подготовке существенно сокращается. Среди ключевых сильных сторон модели компания выделяет агентское программирование, работу с инструментами, поиск и финансовую аналитику. ![]() Конечно же, Claude сравнила Opus 4.6 с предшественницей — своей более «лёгкой» моделью Sonnet 4.5, а также с основными конкурентами в лице Google Gemini 3 Pro и OpenAI GPT-5.2. В восьми из тринадцати тестов новинка оказалась впереди. В интервью TechCrunch Скотт Уайт отметил, что Opus эволюционировал из узкоспециализированного инструмента для разработки ПО в решение, полезное для гораздо более широкого круга специалистов. По его словам, Claude Code активно используют не только программисты, но и продакт-менеджеры, финансовые аналитики и представители других отраслей, которым нужен мощный инструмент для интеллектуальной работы. ![]() Отдельно Anthropic подчёркивает усиленный фокус на безопасности. По словам компании, для Claude Opus 4.6 был проведён самый масштабный набор проверок за всю историю моделей Anthropic. Тестирование включало новые оценки влияния на благополучие пользователей, более сложные сценарии отказа от потенциально опасных запросов, а также обновлённые проверки на способность модели скрытно выполнять вредоносные действия. С учётом возросших возможностей в сфере кибербезопасности Opus 4.6 компания внедрила шесть новых специализированных тестов, призванных отслеживать возможные злоупотребления. В Anthropic подчёркивают, что Claude Opus 4.6 — это шаг к превращению Claude в универсальный инструмент для широкого спектра интеллектуальной работы, а не только в помощника для программистов. Anthropic пообещала сохранить Claude без рекламы и высмеяла противоположный подход ChatGPT
04.02.2026 [19:13],
Сергей Сурабекянц
Anthropic объявила, что не планирует добавлять рекламу в свой чат-бот с искусственным интеллектом Claude, что резко контрастирует с подтверждёнными планами OpenAI разместить рекламу в ChatGPT. Чтобы ещё больше подчеркнуть это, компания выпустила серию рекламных роликов, высмеивающих неназванных конкурентов, добавляющих рекламу в свои ИИ. Они уже опубликованы на YouTube и будут показаны во время «Супербоула» — финальной игры по американскому футболу.
Источник изображения: Anthropic «Мы хотим, чтобы Claude действовал однозначно в интересах наших пользователей, — говорится в блоге Anthropic. — Поэтому мы сделали выбор: Claude останется без рекламы. Наши пользователи не будут видеть спонсируемые ссылки рядом с их разговорами с Claude; ответы Claude также не будут зависеть от рекламодателей или включать размещение сторонних продуктов, которые пользователи не запрашивали». Anthropic разъяснила, почему включение рекламы «несовместимо с тем, каким мы хотим видеть Claude». По мнению компании, стремление к прибыли может помешать предоставлению наиболее полезных советов пользователю и отвлекать тех, кто использует Claude для работы. Тем не менее, Anthropic не стала сжигать мосты: «Если нам потребуется пересмотреть этот подход, мы будем прозрачны в отношении причин, по которым мы это сделаем». Изменение политики Anthropic в будущем может выглядеть лицемерно в свете рекламы, выпущенной компанией для продвижения своей позиции во время «Супербоула». Это один из четырёх рекламных роликов, где очеловеченные ИИ вставляют неуместную рекламу прямо посреди своих ответов. Более короткая 30-секундная версия ролика будет показана во время игры в воскресенье, а отдельный минутный ролик с вставляющим рекламные советы во время консультации с ИИ-терапевтом, будет показан во время предматчевого шоу. Ни в одном из рекламных роликов не упоминается ChatGPT, но направленность их очевидна. В прошлом месяце OpenAI объявила о скором появлении рекламы в ChatGPT для бесплатных пользователей и пользователей более дешёвого тарифа Go, пообещав, что она будет «чётко обозначена» и расположится отдельно от ответов чат-бота. «Супербоул» — в американском футболе название финальной игры за звание чемпиона Национальной футбольной лиги (НФЛ) Соединённых Штатов Америки, в которой встречаются победители двух конференций лиги — Американской футбольной конференции и Национальной футбольной конференции. «Мне это нравится! Я смотрю видео без рекламы об искусственном интеллекте без рекламы», — прокомментировал видео один из пользователей, посмотревших его на YouTube. Apple отказалась внедрять Claude в Siri из-за ненасытности Anthropic
01.02.2026 [23:48],
Анжелла Марина
Apple отказалась от использования ИИ-модели Claude от компании Anthropic для модернизации Siri и вместо этого заключила сделку с Google. Anthropic запросила за интеграцию ИИ несколько миллиардов долларов в год, но помимо этого настаивала на удвоении суммы контракта ежегодно в течение трёх лет, передаёт AppleInsider со ссылкой на пост журналиста Bloomberg Марка Гурмана (Mark Gurman).
Источник изображения: omid armin/Unsplash Сообщается, что сделка с Google может оцениваться примерно в $1 млрд в год, что значительно меньше запроса разработчика Claude. Для сравнения, сама Google ежегодно выплачивает Apple около $20 млрд за статус поисковой системы по умолчанию. Гурман отметил, что, несмотря на срыв сделки, Apple активно использует технологии Anthropic внутри компании и на её серверах работают кастомные версии Claude. Сотрудничество Apple с другими ИИ-компаниями не ограничится Gemini. В странах, где действуют особые регуляторные требования, например в Китае, Siri будет использовать местные ИИ-модели. Кроме того, Apple продолжает сотрудничество с OpenAI, чья модель ChatGPT обеспечивает работу текущих функций Apple Intelligence, и в будущем пользователям предоставят возможность выбора ИИ-моделей в соответствии с их предпочтениями. Однако в перспективе Apple намерена полностью перейти на собственные программные разработки, на которые в конце 2025 года были направлены рекордные расходы на НИОКР, что говорит о том, что этот переход может произойти довольно скоро. Музыкальные издатели потребовали от Anthropic $3 млрд за «вопиющее пиратство»
30.01.2026 [21:21],
Анжелла Марина
Группа музыкальных издателей во главе с Concord Music Group и Universal Music Group (UMG) подала судебный иск против компании Anthropic, обвинив разработчика искусственного интеллекта в незаконном скачивании более 20 000 защищённых авторским правом музыкальных произведений. Истцы утверждают, что компания использовала пиратские методы для получения доступа к песням, текстам и нотам.
Источник изображения: Wesley Tingey/Unsplash Как сообщает Engadget, ссылаясь на данные Reuters, среди незаконно использованных материалов фигурируют культовые композиции таких исполнителей, как The Rolling Stones, Нил Даймонд (Neil Diamond) и Элтон Джон (Elton John), права на которые принадлежат UMG. Независимый издатель Concord Music Group также заявил о нарушении прав своих артистов, в числе которых актёр и рэп-исполнитель Common, Киллер Майк (Killer Mike) и группа Korn. Согласно судебному обращению, сумма ущерба может превысить $3 млрд. В тексте искового заявления представители музыкальной индустрии отметили, что хотя Anthropic позиционирует себя как компания, занимающаяся безопасностью и исследованиями в области ИИ, история её действий свидетельствует об обратном. По мнению истцов, многомиллиардная бизнес-империя Anthropic фактически построена на пиратстве и незаконном использовании торрентов для получения чужой интеллектуальной собственности. Интересы издателей представляет та же юридическая команда, которая вела прошлогоднее дело «Бартц против Anthropic» (Bartz v. Anthropic). То дело завершилось присуждением пострадавшим авторам компенсации в размере $1,5 млрд. Тогда суд установил, что компания незаконно скачивала опубликованные работы авторов для обучения своих моделей, и, в соответствии с вердиктом, 500 000 авторов, участвовавших в деле, должны получить по $3000 за каждое произведение. Примечательно, что в рамках предыдущего разбирательства судья Уильям Алсап (William Alsup) постановил, что само по себе обучение ИИ-моделей на защищённом контенте является законным, однако приобретение этого контента через пиратство — нет. Юридический прецедент подразумевает, что если бы Anthropic легально приобрела копии произведений, претензий к ней могло бы не возникнуть. Если заявленная сумма ущерба будет подтверждена, это разбирательство станет одним из крупнейших дел о защите авторских прав в истории США, не являющихся коллективным иском, отмечает Engadget. Anthropic удалось привлечь в рамках недавнего раунда финансирования более $10 млрд
28.01.2026 [08:42],
Алексей Разин
Основанный выходцами из OpenAI стартап Anthropic успел получить определённую специализацию в этом молодом сегменте рынка, сосредоточившись на корпоративных решениях. Принято считать, что такая бизнес-модель быстрее приносит финансовую отдачу, поэтому инвесторы охотнее вкладывают средства в капитал Anthropic. Недавно компании удалось привлечь от $10 до $15 млрд.
Источник изображения: Anthropic По крайней мере, такие суммы упоминает CNBC со ссылкой на осведомлённые источники. Издание Financial Times называет ещё более крупную сумму привлечения в районе $20 млрд, причём она учитывает только средства венчурных фондов, но данный этап пока не реализован на практике. Изначально ожидалось, что новый раунд финансирования позволит Anthropic привлечь $10 млрд, но аппетиты инвесторов оказались выше. По сути, если ранее предполагалось, что капитализация стартапа увеличится до $350 млрд, то теперь он может претендовать на более высокую оценку. Тем более, что вложить средства в капитал Anthropic могут Microsoft и Nvidia. В ноябре эти компании рассчитывали направить в капитал Anthropic до $5 млрд в случае Microsoft и до $10 млрд в случае Nvidia. Пока параметры их реального участия в финансировании стартапа окончательно не определены. К концу прошлого года Anthropic, по словам руководства, подошла со способностью получать более $9 млрд выручки в год, если экстраполировать месячные показатели. Тем не менее, потребность в финансовых ресурсах значительно превышает выручку стартапа, поскольку только на строительство ЦОД в США он намерен направить $50 млрд, а ещё обучение новых ИИ-моделей требует серьёзных материальных затрат. Financial Times поясняет, что инвесторы были готовы вложить в Anthropic до $50–60 млрд, и компания сама ограничила размер инвестиций на данном этапе в диапазоне от $10 до $15 млрд, но к привлечению дополнительных средств участники переговоров вернутся позже. В этом году Anthropic также может выйти на биржу, открыв возможность для вложения средств в свой капитал для розничных инвесторов. Для сравнения, OpenAI в рамках текущего раунда финансирования готовится привлечь от $50 до $100 млрд, а капитализация этого стартапа будет оцениваться в $830 млрд по верху диапазона. Ответ OpenAI: Anthropic превратила Claude в рабочую станцию со встроенными Canva, Slack и Figma
26.01.2026 [23:18],
Анжелла Марина
Компания Anthropic объявила о запуске новой функции, позволяющей работать со сторонними приложениями непосредственно в интерфейсе чат-бота Claude. Нововведение направлено на расширение возможностей использования искусственного интеллекта (ИИ) в корпоративной среде и упрощение взаимодействия с привычными сервисами.
Источник изображений: Anthropic Как передаёт TechCrunch, на старте система поддерживает интеграцию с такими сервисами, как Slack, Canva, Figma, Box и Clay, а в ближайшее время разработчики планируют добавить поддержку облачной CRM-платформы Salesforce. Механизм работы предполагает авторизацию в каком-либо сервисе, после чего Claude получает к нему доступ, позволяя выполнять конкретные действия внутри своего интерфейса. Например, отправлять сообщения коллегам в мессенджере, генерировать графики или работать с файлами в облачном хранилище. ![]() В Anthropic считают, что анализ данных, дизайна, контента и в целом управление проектами будет происходить гораздо эффективнее в одном визуальном интерфейсе, что позволит вносить правки быстрее, чем при использовании каждого сервиса по отдельности. Технология аналогична системе внедрения сторонних приложений OpenAI, запущенной в октябре 2024 года. Обе платформы построены на базе открытого стандарта Model Context Protocol (MCP). Доступ к нововведению получили подписчики тарифных планов Pro, Max, Team и Enterprise. Пользователям бесплатной версии функция недоступна. Активация и выбор сервисов происходят через специальный каталог Claude. ИИ научили писать тексты по-человечески с помощью инструкции с «Википедии»
22.01.2026 [22:29],
Анжелла Марина
Разработчик Сици Чэнь (Siqi Chen), основываясь на руководстве «Википедии» по выявлению низкокачественных ИИ-текстов, представил инструмент Humanizer, который помогает чат-ботам снижать характерные признаки машинного написания, сообщило издание Ars Technica.
Источник изображения: Bryn Young/Unsplash Плагин представляет собой пользовательский навык (custom skill) для среды разработки Claude Code от компании Anthropic и использует список, составленный волонтёрами онлайн-энциклопедии для борьбы с некачественным контентом. Согласно информации на странице проекта в GitHub, Humanizer помогает ИИ-ассистенту избежать обнаружения, путём удаления характерных маркеров, типичных для сгенерированного машинного текста. В этот список входят завуалированные ссылки на источники, рекламный стиль изложения, например, использование возвышенных эпитетов, и характерные для ботов фразы вежливости, такие как «Надеюсь, это поможет!». Устранение всех этих деталей позволит сделать текст нейросети более естественным. На странице репозитория приведены конкретные примеры работы инструмента. Humanizer способен заменить фразу с эмоциональной окраской «расположенный в захватывающем дух регионе» на фактологическую «город в регионе». Также плагин корректирует неопределённые атрибуции: вместо конструкции «Эксперты считают, что это играет важную роль» система подставляет конкретный источник, например, «согласно опросу 2019 года, проведённому…». Чэнь отметил, что инструмент будет автоматически получать обновления по мере того, как «Википедия» будет дополнять своё руководство по обнаружению ИИ. The Verge в своём материале также отмечает, что адаптация алгоритмов под критерии «человечности» — это лишь вопрос времени для разработчиков ИИ. В качестве примера издание приводит компанию OpenAI, которая уже скорректировала работу ChatGPT, устранив чрезмерное использование длинных тире, ставших одним из явных индикаторов сгенерированного контента. От $4 млрд до $9 млрд за полгода: Anthropic показала феноменальный рост выручки в погоне за OpenAI
22.01.2026 [10:01],
Алексей Разин
Компания Anthropic была основана выходцами из OpenAI, и этот стартап пока пытается сосредоточиться на разработке ИИ-систем для корпоративных клиентов. В каком-то смысле это говорит о его более высокой прагматичности, и уже сейчас Anthropic способна получать до $9 млрд выручки в год, а капитализация компании с учётом готовящегося раунда финансирования может вырасти до $350 млрд.
Источник изображения: Anthropic Это не так уж мало на фоне конкурирующей OpenAI, чей приведённый размер годовой выручки сейчас превышает $20 млрд, а капитализация может попасть в диапазон от $750 до $830 млрд, если обрабатываемые Сэмом Альтманом (Sam Altman) ближневосточные инвесторы захотят раскошелиться на $50 млрд. Источники Bloomberg сообщают, что венчурные фонды смогут направить в капитал Anthropic как минимум $1 млрд. Стартап уверенными темпами наращивает выручку. Если ещё в середине прошлого года её приведённая к годовой величина достигала $4 млрд, то в конце 2025 года она превысила рубеж в $9 млрд. Новый раунд финансирования Anthropic полагается преимущественно на средства Nvidia и Microsoft, которые сообща готовы вложить $15 млрд. Венчурные инвесторы могли бы направить на поддержку Anthropic до $10 млрд, но пока стартап довольствуется на порядок меньшей суммой. Впрочем, если подобные ограничения будут сняты, то стартапу вполне по силам будет привлечь свыше $20 млрд с учётом средств Nvidia и Microsoft. Сингапурский фонд GIC готов направить Anthropic до $1,5 млрд, такой же суммой располагает Coatue Management, Iconiq Capital намеревается ограничиться $1 млрд в рамках нового раунда, поскольку неплохо вложилась в капитал стартапа в сентябре прошлого года. Инвестировать в Anthropic неопределённые суммы готовы Lightspeed Venture Partners, Menlo Ventures и Sequoia Capital. Представленная в сентябре Anthropic модель Claude Sonnet 4.5 лучше воспринимает команды пользователя и способна на протяжении 30 часов самостоятельно заниматься написанием программного кода, прежде чем потребует взаимодействия с человеком. Сотрудничество Anthropic с Nvidia и Microsoft является обоюдовыгодным, поскольку стартап потребляет продукцию второй из компаний и услуги последней. На строительство центров обработки данных в США компания Anthropic намерена направить $50 млрд, поэтому средства нужны ей не только для совершенствования своих программных продуктов. Anthropic представила модифицированную версию «конституции» своего чат-бота Claude
22.01.2026 [06:51],
Алексей Разин
Компания Anthropic старается уделять особое внимание пояснительной работе по поводу своей миссии и фирменных разработок типа того же чат-бота Claude, поэтому на этой неделе она опубликовала новую версию так называемой «конституции», поясняющей принципы его работы и те цели, которые преследуются в его развитии.
Источник изображения: Anthropic Документ определяет те этические принципы, которых компания придерживается при развитии Claude. Они также используются для самоконтроля чат-бота, всего так называемая «программная конституция» содержит 80 страниц и состоит из четырёх разделов, определяющих «базовые ценности» чат-бота: безопасность, этичность, соответствие миссии Anthropic и ориентация на пользу обществу. Каждый из разделов содержит описание того, как подобные принципы влияют на поведение Claude. Разработчики Claude стараются не повторять ошибок конкурентов с точки зрения этики. Например, при подозрении на наличие у пользователя психических расстройств чат-бот сразу рекомендует обратиться к специалисту, если становится ясно, что ситуация может представлять угрозу жизни и здоровью человека. Этическим вопросам уделяется больше внимания в практическом разрезе, а не на уровне теоретических рассуждений. Определённые темы изначально запрещены для обсуждения — например, создание биологического оружия. Наконец, Anthropic стремится сделать Claude максимально дружелюбным и полезным для пользователей. Обеспечение долгосрочного благополучия человека при выдаче информации чат-ботом ставится выше сиюминутных интересов. Конституция Claude при этом содержит и раздел, посвящённый философским рассуждениям разработчиков. Они задают вопросы о наличии морального статуса и сознания у Claude, подчёркивая, что они не одиноки в таких рассуждениях, и конкуренты и коллеги тоже размышляют на подобные темы. Anthropic признала уязвимость Claude Cowork и переложила риски на пользователей
17.01.2026 [14:04],
Владимир Мироненко
Компания Anthropic, представившая на этой неделе в качестве предварительной версии для исследований новый режим ИИ-помощника Claude под названием Claude Cowork, продолжает игнорировать уязвимость продукта к атакам промпт-инъекций (Prompt Injection), о которой хорошо осведомлена, пишет The Register.
Источник изображения: Steve Johnson/unsplash.com Для запуска атаки пользователю достаточно подключить Cowork к локальной папке, содержащей конфиденциальную информацию, загрузить документ со скрытой промпт-инъекцией, и, когда Cowork проанализирует эти файлы, сработает внедрённая подсказка, ведущая к созданию вредоносного контента, несанкционированному доступу к личным данным или нарушению установленных ограничений. Данная уязвимость существует в самом Claude, о чём компания PromptArmor, специализирующаяся на обнаружении уязвимостей в ИИ, предупредила Anthropic ещё в октябре прошлого года. Тогда Anthropic в итоге признала, что атаку промпт-инъекцией можно использовать для того, чтобы обманом заставить её API эксфильтровать данные, поэтому пользователям следует быть осторожными с тем, какие источники они подключают к ИИ-боту. Вместе с тем, когда исследователи спросили, собирается ли Anthropic предпринять какие-либо действия — например, внедрить проверки API, чтобы убедиться, что конфиденциальные файлы пользователя не передаются на другой аккаунт через API, — компания попросту не ответила. Anthropic утверждает, что разработала сложные средства защиты от промпт-инъекций, однако безопасность агентов — то есть задача обеспечения безопасности реальных действий Claude — «по-прежнему является активной областью развития в отрасли». «Эти риски не новы для Cowork, но, возможно, вы впервые используете более продвинутый инструмент, выходящий за рамки простого диалога», — сообщила компания, отмечая, что Cowork имеет гораздо более широкий круг пользователей, чем анонсированные ранее инструменты. В связи с этим Anthropic призвала пользователей избегать подключения Cowork к конфиденциальным документам, ограничивать использование расширения Chrome доверенными сайтами и отслеживать «подозрительные действия, которые могут указывать на промпт-инъекцию». Как отметил разработчик и специалист по проблемам внедрения SQL-запросов Саймон Уиллисон (Simon Willison) в своём обзоре Cowork, требовать от людей, не являющихся программистами, отслеживать «подозрительные действия, которые могут указывать на внедрение SQL-запросов», попросту нереалистично. В ответ на запрос The Register о том, какие меры принимаются для решения проблемы внедрения запросов через API, которая теперь присутствует уже в двух продуктах компании, Anthropic заявила, что внедрение запросов — это проблема, затрагивающая всю отрасль, и над её решением работают все участники ИИ-рынка. Всё это свидетельствует о том, что Anthropic рассматривает риски использования Cowork как ответственность самих пользователей. Вместе с тем представитель Anthropic сообщил, что компания также работает над способами минимизации внедрения запросов в своих продуктах, в том числе с помощью виртуальной машины в Cowork, предназначенной для ограничения доступа платформы к конфиденциальным файлам и каталогам. Anthropic заявила, что планирует выпустить обновление для виртуальной машины Cowork с целью улучшения её взаимодействия с уязвимым API, а также что в будущем будут внесены и другие изменения для повышения безопасности при использовании нового инструмента. Стартап Replit представил ИИ-инструмент, который пишет готовые приложения для iPhone по текстовому запросу
16.01.2026 [21:46],
Сергей Сурабекянц
Стартап Replit, специализирующийся на разработке мобильных приложений с использованием искусственного интеллекта, предложил пользователям ИИ-инструмент для создания и публикации мобильных приложений для устройств Apple. Навыки программирования не требуются — для создания приложения при помощи так называемого вайб-кодинга достаточно подсказок на естественном языке. Новый раунд финансирования должен поднять биржевую оценку Replit до $9 млрд.
Источник изображения: unsplash.com Вайб-кодинг или вайб-программирование — один из самых распространённых трендов, появившихся в результате бума генеративного ИИ. Во многом своей популярностью вайб-кодинг обязан Claude Code — продукту Anthropic, который стал вирусным в технологических кругах. В декабре, по данным Anthropic, Claude Code достиг годовой выручки в $1 млрд. Функция «Мобильные приложения на Replit» позволяет за считанные минуты превратить идею в работающее приложение, а затем за несколько дней опубликовать это приложения в App Store. По данным Apple, 90 % заявок рассматриваются менее чем за 24 часа. В дальнейшем опубликованные приложения можно монетизировать. Разработчики Replit утверждают, что представленный инструмент является шагом вперёд в сфере разработки приложений при помощи ИИ, предлагая потребителям легкодоступный вариант использования, превосходящий то, что в настоящее время предлагают такие крупные игроки, как OpenAI, Microsoft и Google. Например, если биржевой трейдер поручает ИИ-агенту «создать приложение, отслеживающее 10 крупнейших публичных компаний по рыночной капитализации», Replit генерирует мобильное приложение с работающим интерфейсом и предоставляет пользователям возможность его предварительного просмотра и тестирования. Программное обеспечение, созданное с помощью вайб-кодинга, в последнее время подвергается критике из-за уязвимостей в системе безопасности. Новое исследование компании кибербезопасности Tenzai показало, что популярные агенты ИИ, включая Replit и Claude Code, постоянно генерируют приложения с критическими уязвимостями. Тем не менее, в сентябре в ходе раунда привлечения инвестиций Replit была оценена примерно в $3 млрд, а новый раунд финансирования должен поднять оценку стартапа до $9 млрд. Самой перспективной компанией в этой области является создатель Cursor, Anysphere, которая в ноябре привлекла $2,3 млрд при рыночной оценке в $29,3 млрд. Ведущий европейский игрок Lovable недавно был оценён в $6,6 млрд. По мере появления всё большего количества продуктов для вайб-кодинга, акции компаний-разработчиков программного обеспечения, и без того сильно пострадавшие в эпоху ИИ, могут ещё больше потерять в цене. Сектор разработки ПО, в десятку крупнейших компаний которого входят Salesforce, Adobe и ServiceNow, упал на 11 % за последние три месяца, поскольку инвесторы всё больше обеспокоены рисками, связанными с агентами ИИ и продуктами для вайб‑программирования. Anthropic выпустила Claude Cowork для автономной работы ИИ-агента с файлами на macOS
13.01.2026 [04:31],
Анжелла Марина
Компания Anthropic представила новую функцию для ИИ-помощника Claude под названием Claude Cowork, что можно перевести как «Совместная работа». Cowork способен выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Об этом Anthropic сообщила в своём блоге.
Источник изображений: Anthropic The Verge узнал, как работает функция. Пользователь предоставляет Claude Cowork доступ к определённой папке на своём компьютере, после чего ИИ может читать, редактировать и создавать файлы внутри неё. В качестве примеров приводятся такие сценарии, как сортировка и переименование файлов в папке загрузок, создание электронной таблицы со списком расходов на основе простого набора скриншотов или подготовка черновика отчёта по разрозненным заметкам. При этом Claude периодически информирует пользователя о ходе выполнения задачи. ![]() Кроме того, с помощью существующих коннекторов его можно связать с различными внешними сервисами. В частности, с Asana, Notion, PayPal и другими партнёрскими платформами, а также интегрировать с расширением Claude для браузера Chrome для выполнения задач, связанных с веб-сёрфингом. Пользователю больше не нужно вручную передавать контекст или преобразовывать результаты работы ИИ в нужный формат, а также ждать завершения одной задачи, прежде чем определить следующую: можно ставить задачи в очередь и Claude будет обрабатывать их параллельно. Одновременно Anthropic предупредила о потенциальных рисках, связанных с использованием ИИ-агентов. Например, при недостаточно чётких инструкциях Claude может удалить локальные файлы или совершить другие потенциально неприемлемые действия. Также компания отметила угрозу атак промпт инъекций (prompt injection), при которых злоумышленники могут внедрить вредоносный текст на веб-страницах, на которые ссылается модель, заставив её раскрыть личные данные или выполнить вредоносные команды. По заявлению Anthropic, обеспечение безопасности ИИ-агентов, то есть защита их реальных действий в цифровой среде, остаётся активной областью исследований во всей отрасли, а непосредственно Cowork выпущен пока в качестве «исследовательской версии». На данный момент функция доступна только через приложение Claude для macOS и только для подписчиков тарифного плана Anthropic Claude Max для опытных пользователей, стоимость которого составляет от $100 до $200 в месяц, в зависимости от режима использования. Подписчики этого тарифа могут протестировать работу Cowork, нажав кнопку в боковой панели приложения macOS. Остальные пользователи могут встать в очередь ожидания. Anthropic превратила своего чат-бота Claude в расширение для Chrome
21.12.2025 [11:26],
Владимир Фетисов
Anthropic выпустила своего ИИ-бота Claude в виде расширения для веб-обозревателя Google Chrome. В рамках бета-тестирования компания открыла доступ к Claude for Chrome для всех платных подписчиков.
Источник изображения: Claude По данным Anthropic, новое расширение может от имени пользователя перемещаться по веб-сайтам, заполнять формы и выполнять запланированные действия, получая доступ к нескольким вкладкам в процессе работы. Для доступа к Claude for Chrome как минимум потребуется оформить подписку Pro стоимостью $20 в месяц. На момент начала тестирования расширения в ноябре воспользоваться им могли лишь подписчики тарифа Max, стоимостью от $100 до $200 в месяц. Для пользователей, не являющихся поклонниками Chrome, есть возможность установки расширения Anthropic в Brave и Opera, построенных на том же движке Chromium. Однако браузеры Firefox, Safari и Edge на данный момент официально не поддерживаются. Anthropic признаёт наличие «проблем с безопасностью», связанных с интеграцией чат-ботов непосредственно в браузер, включая риски так называемых атак с внедрением вредоносных промптов. Речь идёт о случаях, когда злоумышленники разными способами маскируют вредоносные инструкции, после считывания которых ИИ-бот начинает выполнять нужные хакерам действия. Компания подробно описала некоторые функции безопасности, применяемые для защиты от подобных атак. Одним из таких механизмов является функция контроля разрешений на уровне сайтов. Пользователи могут в любой момент предоставить или отозвать доступ Claude к определённым сайтам через меню настроек. Расширение также будет запрашивать разрешение на выполнение «действий с высоким риском», таких как публикация контента, совершение покупок или передача личных данных. В дополнение к этому будет блокироваться работа расширения при получении доступа к сайтам с высоким риском, таким как страницы банков, пиратские ресурсы и др. Инженеры проиграли ИИ: модель Claude Opus 4.5 справилась с заданием Anthropic лучше любого из людей
26.11.2025 [01:23],
Анжелла Марина
Anthropic вчера объявила о выпуске новой флагманской модели искусственного интеллекта Claude Opus 4.5. Позже компания рассказала, что в двухчасовом задании, предлагаемом самой Anthropic при найме сотрудников на инженерные позиции, Opus 4.5 показала лучший результат по сравнению с живыми участниками теста.
Источник изображения: AI По утверждению Anthropic, результат ИИ достигнут за счёт многократного решения каждой задачи и выбора лучшего из полученных ответов. Хотя тест не охватывает все компетенции, необходимые инженеру, сам факт превосходства модели над сильными кандидатами в ключевых технических аспектах заставляет предположить, что ИИ в будущем может изменить инженерию как профессию, пишет Business Insider. Подробности содержания теста не раскрываются, но из отзывов на платформе Glassdoor известно лишь, что в 2024 году он включал четыре уровня и требовал реализации определённой системы с последующим добавлением функциональности. Неизвестно, был ли использован аналогичный формат задания при оценке новой версии Claude Opus 4.5, которая вышла спустя всего три месяца после предыдущей модели, получив улучшения не только в генерации кода, но и в создании профессиональных документов, включая таблицы Excel и презентации PowerPoint. Данный релиз, по мнению специалистов, продолжает укреплять лидирующие позиции Anthropic в сфере ИИ для программирования. Даже компания Meta✴✴ Марка Цукерберга (Mark Zuckerberg), являющаяся конкурентом в гонке ИИ, использует Claude для поддержки своего внутреннего помощника по кодированию под названием Devmate. Методы обучения своих моделей компания держит в секрете. Однако ранее Эрик Саймонс (Eric Simons), генеральный директор стартапа Stackblitz, разработавшего сервис Bolt.new, предположил, что Anthropic, возможно, использует ИИ для написания и запуска кода, а затем анализирует результаты как с помощью людей, так и с применением ИИ-инструментов. Это описание подтвердила Дианна Пенн (Dianne Penn), руководитель направления управления продуктами, исследований и передовых технологий в Anthropic, назвав его «в целом верным». Ещё в октябре глава Anthropic Дарио Амодеи (Dario Amodei) сообщил, что ИИ Claude уже пишет 90 % кода для большинства команд внутри компании. При этом он отметил, что это не приведёт к сокращению инженеров, а скорее наоборот, увеличит в них потребность, так как люди смогут сосредоточиться на самой сложной 10-процентной части работы или на контроле группы ИИ-моделей. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |