Сегодня 07 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → claude
Быстрый переход

Anthropic представила Claude Opus 4.6 — флагманскую LLM с командами агентов, миллионным контекстом и платным доступом

Компания Anthropic представила новую версию своей флагманской языковой модели — Claude Opus 4.6, назвав её «прямым апгрейдом» предыдущего поколения и самым интеллектуально развитым ИИ в своей линейке. Обновление уже доступно платным пользователям чат-бота Claude, а также через API по той же цене, что и Claude Opus 4.5.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Одним из главных нововведений стали так называемые «команды агентов» (agent teams). Речь идёт о наборе ИИ-агентов, которые могут делить крупные и сложные задачи на отдельные части и выполнять их параллельно. По замыслу Anthropic, каждый агент отвечает за свой сегмент работы и напрямую координируется с другими. Руководитель продуктового направления Anthropic Скотт Уайт (Scott White) сравнил эту функцию с работой слаженной команды людей, подчеркнув, что распределение ролей позволяет выполнять задачи быстрее. На данный момент «команды агентов» доступны в формате исследовательского превью для пользователей API и платных подписчиков.

Ещё одно важное улучшение — увеличенное контекстное окно. Claude Opus 4.6 способен обрабатывать до 1 млн токенов за сессию, что сопоставимо с возможностями моделей Sonnet 4 и 4.5. По словам компании, это упрощает работу с крупными базами программного кода и объёмными документами, позволяя модели удерживать значительно больше информации в памяти.

Кроме того, Anthropic усилила интеграцию Claude с Microsoft PowerPoint. Теперь ИИ доступен прямо в интерфейсе приложения для создания презентаций в виде боковой панели. Если раньше пользователь мог лишь сгенерировать презентацию и затем отдельно редактировать файл в PowerPoint, то теперь создание и доработка слайдов происходят непосредственно внутри программы при активной помощи Claude.

По утверждению Anthropic, Opus 4.6 заметно лучше справляется со сложными многошаговыми задачами и чаще выдаёт результат, близкий к «продакшен-качеству», уже с первой попытки. Это особенно заметно при работе с документами, таблицами и презентациями — число итераций и правок при их подготовке существенно сокращается. Среди ключевых сильных сторон модели компания выделяет агентское программирование, работу с инструментами, поиск и финансовую аналитику.

Конечно же, Claude сравнила Opus 4.6 с предшественницей — своей более «лёгкой» моделью Sonnet 4.5, а также с основными конкурентами в лице Google Gemini 3 Pro и OpenAI GPT-5.2. В восьми из тринадцати тестов новинка оказалась впереди.

В интервью TechCrunch Скотт Уайт отметил, что Opus эволюционировал из узкоспециализированного инструмента для разработки ПО в решение, полезное для гораздо более широкого круга специалистов. По его словам, Claude Code активно используют не только программисты, но и продакт-менеджеры, финансовые аналитики и представители других отраслей, которым нужен мощный инструмент для интеллектуальной работы.

Отдельно Anthropic подчёркивает усиленный фокус на безопасности. По словам компании, для Claude Opus 4.6 был проведён самый масштабный набор проверок за всю историю моделей Anthropic. Тестирование включало новые оценки влияния на благополучие пользователей, более сложные сценарии отказа от потенциально опасных запросов, а также обновлённые проверки на способность модели скрытно выполнять вредоносные действия. С учётом возросших возможностей в сфере кибербезопасности Opus 4.6 компания внедрила шесть новых специализированных тестов, призванных отслеживать возможные злоупотребления.

В Anthropic подчёркивают, что Claude Opus 4.6 — это шаг к превращению Claude в универсальный инструмент для широкого спектра интеллектуальной работы, а не только в помощника для программистов.

Anthropic пообещала сохранить Claude без рекламы и высмеяла противоположный подход ChatGPT

Anthropic объявила, что не планирует добавлять рекламу в свой чат-бот с искусственным интеллектом Claude, что резко контрастирует с подтверждёнными планами OpenAI разместить рекламу в ChatGPT. Чтобы ещё больше подчеркнуть это, компания выпустила серию рекламных роликов, высмеивающих неназванных конкурентов, добавляющих рекламу в свои ИИ. Они уже опубликованы на YouTube и будут показаны во время «Супербоула» — финальной игры по американскому футболу.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Мы хотим, чтобы Claude действовал однозначно в интересах наших пользователей, — говорится в блоге Anthropic. — Поэтому мы сделали выбор: Claude останется без рекламы. Наши пользователи не будут видеть спонсируемые ссылки рядом с их разговорами с Claude; ответы Claude также не будут зависеть от рекламодателей или включать размещение сторонних продуктов, которые пользователи не запрашивали».

Anthropic разъяснила, почему включение рекламы «несовместимо с тем, каким мы хотим видеть Claude». По мнению компании, стремление к прибыли может помешать предоставлению наиболее полезных советов пользователю и отвлекать тех, кто использует Claude для работы. Тем не менее, Anthropic не стала сжигать мосты: «Если нам потребуется пересмотреть этот подход, мы будем прозрачны в отношении причин, по которым мы это сделаем».

Изменение политики Anthropic в будущем может выглядеть лицемерно в свете рекламы, выпущенной компанией для продвижения своей позиции во время «Супербоула». Это один из четырёх рекламных роликов, где очеловеченные ИИ вставляют неуместную рекламу прямо посреди своих ответов. Более короткая 30-секундная версия ролика будет показана во время игры в воскресенье, а отдельный минутный ролик с вставляющим рекламные советы во время консультации с ИИ-терапевтом, будет показан во время предматчевого шоу.

Ни в одном из рекламных роликов не упоминается ChatGPT, но направленность их очевидна. В прошлом месяце OpenAI объявила о скором появлении рекламы в ChatGPT для бесплатных пользователей и пользователей более дешёвого тарифа Go, пообещав, что она будет «чётко обозначена» и расположится отдельно от ответов чат-бота.

«Супербоул» — в американском футболе название финальной игры за звание чемпиона Национальной футбольной лиги (НФЛ) Соединённых Штатов Америки, в которой встречаются победители двух конференций лиги — Американской футбольной конференции и Национальной футбольной конференции.

«Мне это нравится! Я смотрю видео без рекламы об искусственном интеллекте без рекламы», — прокомментировал видео один из пользователей, посмотревших его на YouTube.

Apple отказалась внедрять Claude в Siri из-за ненасытности Anthropic

Apple отказалась от использования ИИ-модели Claude от компании Anthropic для модернизации Siri и вместо этого заключила сделку с Google. Anthropic запросила за интеграцию ИИ несколько миллиардов долларов в год, но помимо этого настаивала на удвоении суммы контракта ежегодно в течение трёх лет, передаёт AppleInsider со ссылкой на пост журналиста Bloomberg Марка Гурмана (Mark Gurman).

 Источник изображения: omid armin/Unsplash

Источник изображения: omid armin/Unsplash

Сообщается, что сделка с Google может оцениваться примерно в $1 млрд в год, что значительно меньше запроса разработчика Claude. Для сравнения, сама Google ежегодно выплачивает Apple около $20 млрд за статус поисковой системы по умолчанию. Гурман отметил, что, несмотря на срыв сделки, Apple активно использует технологии Anthropic внутри компании и на её серверах работают кастомные версии Claude.

Сотрудничество Apple с другими ИИ-компаниями не ограничится Gemini. В странах, где действуют особые регуляторные требования, например в Китае, Siri будет использовать местные ИИ-модели. Кроме того, Apple продолжает сотрудничество с OpenAI, чья модель ChatGPT обеспечивает работу текущих функций Apple Intelligence, и в будущем пользователям предоставят возможность выбора ИИ-моделей в соответствии с их предпочтениями. Однако в перспективе Apple намерена полностью перейти на собственные программные разработки, на которые в конце 2025 года были направлены рекордные расходы на НИОКР, что говорит о том, что этот переход может произойти довольно скоро.

Музыкальные издатели потребовали от Anthropic $3 млрд за «вопиющее пиратство»

Группа музыкальных издателей во главе с Concord Music Group и Universal Music Group (UMG) подала судебный иск против компании Anthropic, обвинив разработчика искусственного интеллекта в незаконном скачивании более 20 000 защищённых авторским правом музыкальных произведений. Истцы утверждают, что компания использовала пиратские методы для получения доступа к песням, текстам и нотам.

 Источник изображения: Wesley Tingey/Unsplash

Источник изображения: Wesley Tingey/Unsplash

Как сообщает Engadget, ссылаясь на данные Reuters, среди незаконно использованных материалов фигурируют культовые композиции таких исполнителей, как The Rolling Stones, Нил Даймонд (Neil Diamond) и Элтон Джон (Elton John), права на которые принадлежат UMG. Независимый издатель Concord Music Group также заявил о нарушении прав своих артистов, в числе которых актёр и рэп-исполнитель Common, Киллер Майк (Killer Mike) и группа Korn. Согласно судебному обращению, сумма ущерба может превысить $3 млрд.

В тексте искового заявления представители музыкальной индустрии отметили, что хотя Anthropic позиционирует себя как компания, занимающаяся безопасностью и исследованиями в области ИИ, история её действий свидетельствует об обратном. По мнению истцов, многомиллиардная бизнес-империя Anthropic фактически построена на пиратстве и незаконном использовании торрентов для получения чужой интеллектуальной собственности.

Интересы издателей представляет та же юридическая команда, которая вела прошлогоднее дело «Бартц против Anthropic» (Bartz v. Anthropic). То дело завершилось присуждением пострадавшим авторам компенсации в размере $1,5 млрд. Тогда суд установил, что компания незаконно скачивала опубликованные работы авторов для обучения своих моделей, и, в соответствии с вердиктом, 500 000 авторов, участвовавших в деле, должны получить по $3000 за каждое произведение.

Примечательно, что в рамках предыдущего разбирательства судья Уильям Алсап (William Alsup) постановил, что само по себе обучение ИИ-моделей на защищённом контенте является законным, однако приобретение этого контента через пиратство — нет. Юридический прецедент подразумевает, что если бы Anthropic легально приобрела копии произведений, претензий к ней могло бы не возникнуть. Если заявленная сумма ущерба будет подтверждена, это разбирательство станет одним из крупнейших дел о защите авторских прав в истории США, не являющихся коллективным иском, отмечает Engadget.

Anthropic удалось привлечь в рамках недавнего раунда финансирования более $10 млрд

Основанный выходцами из OpenAI стартап Anthropic успел получить определённую специализацию в этом молодом сегменте рынка, сосредоточившись на корпоративных решениях. Принято считать, что такая бизнес-модель быстрее приносит финансовую отдачу, поэтому инвесторы охотнее вкладывают средства в капитал Anthropic. Недавно компании удалось привлечь от $10 до $15 млрд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

По крайней мере, такие суммы упоминает CNBC со ссылкой на осведомлённые источники. Издание Financial Times называет ещё более крупную сумму привлечения в районе $20 млрд, причём она учитывает только средства венчурных фондов, но данный этап пока не реализован на практике. Изначально ожидалось, что новый раунд финансирования позволит Anthropic привлечь $10 млрд, но аппетиты инвесторов оказались выше. По сути, если ранее предполагалось, что капитализация стартапа увеличится до $350 млрд, то теперь он может претендовать на более высокую оценку. Тем более, что вложить средства в капитал Anthropic могут Microsoft и Nvidia.

В ноябре эти компании рассчитывали направить в капитал Anthropic до $5 млрд в случае Microsoft и до $10 млрд в случае Nvidia. Пока параметры их реального участия в финансировании стартапа окончательно не определены. К концу прошлого года Anthropic, по словам руководства, подошла со способностью получать более $9 млрд выручки в год, если экстраполировать месячные показатели. Тем не менее, потребность в финансовых ресурсах значительно превышает выручку стартапа, поскольку только на строительство ЦОД в США он намерен направить $50 млрд, а ещё обучение новых ИИ-моделей требует серьёзных материальных затрат.

Financial Times поясняет, что инвесторы были готовы вложить в Anthropic до $50–60 млрд, и компания сама ограничила размер инвестиций на данном этапе в диапазоне от $10 до $15 млрд, но к привлечению дополнительных средств участники переговоров вернутся позже. В этом году Anthropic также может выйти на биржу, открыв возможность для вложения средств в свой капитал для розничных инвесторов. Для сравнения, OpenAI в рамках текущего раунда финансирования готовится привлечь от $50 до $100 млрд, а капитализация этого стартапа будет оцениваться в $830 млрд по верху диапазона.

Ответ OpenAI: Anthropic превратила Claude в рабочую станцию со встроенными Canva, Slack и Figma

Компания Anthropic объявила о запуске новой функции, позволяющей работать со сторонними приложениями непосредственно в интерфейсе чат-бота Claude. Нововведение направлено на расширение возможностей использования искусственного интеллекта (ИИ) в корпоративной среде и упрощение взаимодействия с привычными сервисами.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Как передаёт TechCrunch, на старте система поддерживает интеграцию с такими сервисами, как Slack, Canva, Figma, Box и Clay, а в ближайшее время разработчики планируют добавить поддержку облачной CRM-платформы Salesforce. Механизм работы предполагает авторизацию в каком-либо сервисе, после чего Claude получает к нему доступ, позволяя выполнять конкретные действия внутри своего интерфейса. Например, отправлять сообщения коллегам в мессенджере, генерировать графики или работать с файлами в облачном хранилище.

В Anthropic считают, что анализ данных, дизайна, контента и в целом управление проектами будет происходить гораздо эффективнее в одном визуальном интерфейсе, что позволит вносить правки быстрее, чем при использовании каждого сервиса по отдельности. Технология аналогична системе внедрения сторонних приложений OpenAI, запущенной в октябре 2024 года. Обе платформы построены на базе открытого стандарта Model Context Protocol (MCP). Доступ к нововведению получили подписчики тарифных планов Pro, Max, Team и Enterprise. Пользователям бесплатной версии функция недоступна. Активация и выбор сервисов происходят через специальный каталог Claude.

ИИ научили писать тексты по-человечески с помощью инструкции с «Википедии»

Разработчик Сици Чэнь (Siqi Chen), основываясь на руководстве «Википедии» по выявлению низкокачественных ИИ-текстов, представил инструмент Humanizer, который помогает чат-ботам снижать характерные признаки машинного написания, сообщило издание Ars Technica.

 Источник изображения: Bryn Young/Unsplash

Источник изображения: Bryn Young/Unsplash

Плагин представляет собой пользовательский навык (custom skill) для среды разработки Claude Code от компании Anthropic и использует список, составленный волонтёрами онлайн-энциклопедии для борьбы с некачественным контентом. Согласно информации на странице проекта в GitHub, Humanizer помогает ИИ-ассистенту избежать обнаружения, путём удаления характерных маркеров, типичных для сгенерированного машинного текста. В этот список входят завуалированные ссылки на источники, рекламный стиль изложения, например, использование возвышенных эпитетов, и характерные для ботов фразы вежливости, такие как «Надеюсь, это поможет!». Устранение всех этих деталей позволит сделать текст нейросети более естественным.

На странице репозитория приведены конкретные примеры работы инструмента. Humanizer способен заменить фразу с эмоциональной окраской «расположенный в захватывающем дух регионе» на фактологическую «город в регионе». Также плагин корректирует неопределённые атрибуции: вместо конструкции «Эксперты считают, что это играет важную роль» система подставляет конкретный источник, например, «согласно опросу 2019 года, проведённому…». Чэнь отметил, что инструмент будет автоматически получать обновления по мере того, как «Википедия» будет дополнять своё руководство по обнаружению ИИ.

The Verge в своём материале также отмечает, что адаптация алгоритмов под критерии «человечности» — это лишь вопрос времени для разработчиков ИИ. В качестве примера издание приводит компанию OpenAI, которая уже скорректировала работу ChatGPT, устранив чрезмерное использование длинных тире, ставших одним из явных индикаторов сгенерированного контента.

От $4 млрд до $9 млрд за полгода: Anthropic показала феноменальный рост выручки в погоне за OpenAI

Компания Anthropic была основана выходцами из OpenAI, и этот стартап пока пытается сосредоточиться на разработке ИИ-систем для корпоративных клиентов. В каком-то смысле это говорит о его более высокой прагматичности, и уже сейчас Anthropic способна получать до $9 млрд выручки в год, а капитализация компании с учётом готовящегося раунда финансирования может вырасти до $350 млрд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Это не так уж мало на фоне конкурирующей OpenAI, чей приведённый размер годовой выручки сейчас превышает $20 млрд, а капитализация может попасть в диапазон от $750 до $830 млрд, если обрабатываемые Сэмом Альтманом (Sam Altman) ближневосточные инвесторы захотят раскошелиться на $50 млрд. Источники Bloomberg сообщают, что венчурные фонды смогут направить в капитал Anthropic как минимум $1 млрд.

Стартап уверенными темпами наращивает выручку. Если ещё в середине прошлого года её приведённая к годовой величина достигала $4 млрд, то в конце 2025 года она превысила рубеж в $9 млрд. Новый раунд финансирования Anthropic полагается преимущественно на средства Nvidia и Microsoft, которые сообща готовы вложить $15 млрд. Венчурные инвесторы могли бы направить на поддержку Anthropic до $10 млрд, но пока стартап довольствуется на порядок меньшей суммой. Впрочем, если подобные ограничения будут сняты, то стартапу вполне по силам будет привлечь свыше $20 млрд с учётом средств Nvidia и Microsoft.

Сингапурский фонд GIC готов направить Anthropic до $1,5 млрд, такой же суммой располагает Coatue Management, Iconiq Capital намеревается ограничиться $1 млрд в рамках нового раунда, поскольку неплохо вложилась в капитал стартапа в сентябре прошлого года. Инвестировать в Anthropic неопределённые суммы готовы Lightspeed Venture Partners, Menlo Ventures и Sequoia Capital.

Представленная в сентябре Anthropic модель Claude Sonnet 4.5 лучше воспринимает команды пользователя и способна на протяжении 30 часов самостоятельно заниматься написанием программного кода, прежде чем потребует взаимодействия с человеком. Сотрудничество Anthropic с Nvidia и Microsoft является обоюдовыгодным, поскольку стартап потребляет продукцию второй из компаний и услуги последней. На строительство центров обработки данных в США компания Anthropic намерена направить $50 млрд, поэтому средства нужны ей не только для совершенствования своих программных продуктов.

Anthropic представила модифицированную версию «конституции» своего чат-бота Claude

Компания Anthropic старается уделять особое внимание пояснительной работе по поводу своей миссии и фирменных разработок типа того же чат-бота Claude, поэтому на этой неделе она опубликовала новую версию так называемой «конституции», поясняющей принципы его работы и те цели, которые преследуются в его развитии.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Документ определяет те этические принципы, которых компания придерживается при развитии Claude. Они также используются для самоконтроля чат-бота, всего так называемая «программная конституция» содержит 80 страниц и состоит из четырёх разделов, определяющих «базовые ценности» чат-бота: безопасность, этичность, соответствие миссии Anthropic и ориентация на пользу обществу. Каждый из разделов содержит описание того, как подобные принципы влияют на поведение Claude.

Разработчики Claude стараются не повторять ошибок конкурентов с точки зрения этики. Например, при подозрении на наличие у пользователя психических расстройств чат-бот сразу рекомендует обратиться к специалисту, если становится ясно, что ситуация может представлять угрозу жизни и здоровью человека. Этическим вопросам уделяется больше внимания в практическом разрезе, а не на уровне теоретических рассуждений. Определённые темы изначально запрещены для обсуждения — например, создание биологического оружия.

Наконец, Anthropic стремится сделать Claude максимально дружелюбным и полезным для пользователей. Обеспечение долгосрочного благополучия человека при выдаче информации чат-ботом ставится выше сиюминутных интересов. Конституция Claude при этом содержит и раздел, посвящённый философским рассуждениям разработчиков. Они задают вопросы о наличии морального статуса и сознания у Claude, подчёркивая, что они не одиноки в таких рассуждениях, и конкуренты и коллеги тоже размышляют на подобные темы.

Anthropic признала уязвимость Claude Cowork и переложила риски на пользователей

Компания Anthropic, представившая на этой неделе в качестве предварительной версии для исследований новый режим ИИ-помощника Claude под названием Claude Cowork, продолжает игнорировать уязвимость продукта к атакам промпт-инъекций (Prompt Injection), о которой хорошо осведомлена, пишет The Register.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Для запуска атаки пользователю достаточно подключить Cowork к локальной папке, содержащей конфиденциальную информацию, загрузить документ со скрытой промпт-инъекцией, и, когда Cowork проанализирует эти файлы, сработает внедрённая подсказка, ведущая к созданию вредоносного контента, несанкционированному доступу к личным данным или нарушению установленных ограничений.

Данная уязвимость существует в самом Claude, о чём компания PromptArmor, специализирующаяся на обнаружении уязвимостей в ИИ, предупредила Anthropic ещё в октябре прошлого года. Тогда Anthropic в итоге признала, что атаку промпт-инъекцией можно использовать для того, чтобы обманом заставить её API эксфильтровать данные, поэтому пользователям следует быть осторожными с тем, какие источники они подключают к ИИ-боту.

Вместе с тем, когда исследователи спросили, собирается ли Anthropic предпринять какие-либо действия — например, внедрить проверки API, чтобы убедиться, что конфиденциальные файлы пользователя не передаются на другой аккаунт через API, — компания попросту не ответила.

Anthropic утверждает, что разработала сложные средства защиты от промпт-инъекций, однако безопасность агентов — то есть задача обеспечения безопасности реальных действий Claude — «по-прежнему является активной областью развития в отрасли».

«Эти риски не новы для Cowork, но, возможно, вы впервые используете более продвинутый инструмент, выходящий за рамки простого диалога», — сообщила компания, отмечая, что Cowork имеет гораздо более широкий круг пользователей, чем анонсированные ранее инструменты.

В связи с этим Anthropic призвала пользователей избегать подключения Cowork к конфиденциальным документам, ограничивать использование расширения Chrome доверенными сайтами и отслеживать «подозрительные действия, которые могут указывать на промпт-инъекцию».

Как отметил разработчик и специалист по проблемам внедрения SQL-запросов Саймон Уиллисон (Simon Willison) в своём обзоре Cowork, требовать от людей, не являющихся программистами, отслеживать «подозрительные действия, которые могут указывать на внедрение SQL-запросов», попросту нереалистично.

В ответ на запрос The Register о том, какие меры принимаются для решения проблемы внедрения запросов через API, которая теперь присутствует уже в двух продуктах компании, Anthropic заявила, что внедрение запросов — это проблема, затрагивающая всю отрасль, и над её решением работают все участники ИИ-рынка.

Всё это свидетельствует о том, что Anthropic рассматривает риски использования Cowork как ответственность самих пользователей.

Вместе с тем представитель Anthropic сообщил, что компания также работает над способами минимизации внедрения запросов в своих продуктах, в том числе с помощью виртуальной машины в Cowork, предназначенной для ограничения доступа платформы к конфиденциальным файлам и каталогам. Anthropic заявила, что планирует выпустить обновление для виртуальной машины Cowork с целью улучшения её взаимодействия с уязвимым API, а также что в будущем будут внесены и другие изменения для повышения безопасности при использовании нового инструмента.

Стартап Replit представил ИИ-инструмент, который пишет готовые приложения для iPhone по текстовому запросу

Стартап Replit, специализирующийся на разработке мобильных приложений с использованием искусственного интеллекта, предложил пользователям ИИ-инструмент для создания и публикации мобильных приложений для устройств Apple. Навыки программирования не требуются — для создания приложения при помощи так называемого вайб-кодинга достаточно подсказок на естественном языке. Новый раунд финансирования должен поднять биржевую оценку Replit до $9 млрд.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Вайб-кодинг или вайб-программирование — один из самых распространённых трендов, появившихся в результате бума генеративного ИИ. Во многом своей популярностью вайб-кодинг обязан Claude Code — продукту Anthropic, который стал вирусным в технологических кругах. В декабре, по данным Anthropic, Claude Code достиг годовой выручки в $1 млрд.

Функция «Мобильные приложения на Replit» позволяет за считанные минуты превратить идею в работающее приложение, а затем за несколько дней опубликовать это приложения в App Store. По данным Apple, 90 % заявок рассматриваются менее чем за 24 часа. В дальнейшем опубликованные приложения можно монетизировать.

Разработчики Replit утверждают, что представленный инструмент является шагом вперёд в сфере разработки приложений при помощи ИИ, предлагая потребителям легкодоступный вариант использования, превосходящий то, что в настоящее время предлагают такие крупные игроки, как OpenAI, Microsoft и Google.

Например, если биржевой трейдер поручает ИИ-агенту «создать приложение, отслеживающее 10 крупнейших публичных компаний по рыночной капитализации», Replit генерирует мобильное приложение с работающим интерфейсом и предоставляет пользователям возможность его предварительного просмотра и тестирования.

Программное обеспечение, созданное с помощью вайб-кодинга, в последнее время подвергается критике из-за уязвимостей в системе безопасности. Новое исследование компании кибербезопасности Tenzai показало, что популярные агенты ИИ, включая Replit и Claude Code, постоянно генерируют приложения с критическими уязвимостями.

Тем не менее, в сентябре в ходе раунда привлечения инвестиций Replit была оценена примерно в $3 млрд, а новый раунд финансирования должен поднять оценку стартапа до $9 млрд. Самой перспективной компанией в этой области является создатель Cursor, Anysphere, которая в ноябре привлекла $2,3 млрд при рыночной оценке в $29,3 млрд. Ведущий европейский игрок Lovable недавно был оценён в $6,6 млрд.

По мере появления всё большего количества продуктов для вайб-кодинга, акции компаний-разработчиков программного обеспечения, и без того сильно пострадавшие в эпоху ИИ, могут ещё больше потерять в цене. Сектор разработки ПО, в десятку крупнейших компаний которого входят Salesforce, Adobe и ServiceNow, упал на 11 % за последние три месяца, поскольку инвесторы всё больше обеспокоены рисками, связанными с агентами ИИ и продуктами для вайб‑программирования.

Anthropic выпустила Claude Cowork для автономной работы ИИ-агента с файлами на macOS

Компания Anthropic представила новую функцию для ИИ-помощника Claude под названием Claude Cowork, что можно перевести как «Совместная работа». Cowork способен выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Об этом Anthropic сообщила в своём блоге.

 Источник изображений: Anthropic

Источник изображений: Anthropic

The Verge узнал, как работает функция. Пользователь предоставляет Claude Cowork доступ к определённой папке на своём компьютере, после чего ИИ может читать, редактировать и создавать файлы внутри неё. В качестве примеров приводятся такие сценарии, как сортировка и переименование файлов в папке загрузок, создание электронной таблицы со списком расходов на основе простого набора скриншотов или подготовка черновика отчёта по разрозненным заметкам. При этом Claude периодически информирует пользователя о ходе выполнения задачи.

Кроме того, с помощью существующих коннекторов его можно связать с различными внешними сервисами. В частности, с Asana, Notion, PayPal и другими партнёрскими платформами, а также интегрировать с расширением Claude для браузера Chrome для выполнения задач, связанных с веб-сёрфингом. Пользователю больше не нужно вручную передавать контекст или преобразовывать результаты работы ИИ в нужный формат, а также ждать завершения одной задачи, прежде чем определить следующую: можно ставить задачи в очередь и Claude будет обрабатывать их параллельно.

Одновременно Anthropic предупредила о потенциальных рисках, связанных с использованием ИИ-агентов. Например, при недостаточно чётких инструкциях Claude может удалить локальные файлы или совершить другие потенциально неприемлемые действия. Также компания отметила угрозу атак промпт инъекций (prompt injection), при которых злоумышленники могут внедрить вредоносный текст на веб-страницах, на которые ссылается модель, заставив её раскрыть личные данные или выполнить вредоносные команды. По заявлению Anthropic, обеспечение безопасности ИИ-агентов, то есть защита их реальных действий в цифровой среде, остаётся активной областью исследований во всей отрасли, а непосредственно Cowork выпущен пока в качестве «исследовательской версии».

На данный момент функция доступна только через приложение Claude для macOS и только для подписчиков тарифного плана Anthropic Claude Max для опытных пользователей, стоимость которого составляет от $100 до $200 в месяц, в зависимости от режима использования. Подписчики этого тарифа могут протестировать работу Cowork, нажав кнопку в боковой панели приложения macOS. Остальные пользователи могут встать в очередь ожидания.

Anthropic превратила своего чат-бота Claude в расширение для Chrome

Anthropic выпустила своего ИИ-бота Claude в виде расширения для веб-обозревателя Google Chrome. В рамках бета-тестирования компания открыла доступ к Claude for Chrome для всех платных подписчиков.

 Источник изображения: Claude

Источник изображения: Claude

По данным Anthropic, новое расширение может от имени пользователя перемещаться по веб-сайтам, заполнять формы и выполнять запланированные действия, получая доступ к нескольким вкладкам в процессе работы. Для доступа к Claude for Chrome как минимум потребуется оформить подписку Pro стоимостью $20 в месяц. На момент начала тестирования расширения в ноябре воспользоваться им могли лишь подписчики тарифа Max, стоимостью от $100 до $200 в месяц. Для пользователей, не являющихся поклонниками Chrome, есть возможность установки расширения Anthropic в Brave и Opera, построенных на том же движке Chromium. Однако браузеры Firefox, Safari и Edge на данный момент официально не поддерживаются.

Anthropic признаёт наличие «проблем с безопасностью», связанных с интеграцией чат-ботов непосредственно в браузер, включая риски так называемых атак с внедрением вредоносных промптов. Речь идёт о случаях, когда злоумышленники разными способами маскируют вредоносные инструкции, после считывания которых ИИ-бот начинает выполнять нужные хакерам действия.

Компания подробно описала некоторые функции безопасности, применяемые для защиты от подобных атак. Одним из таких механизмов является функция контроля разрешений на уровне сайтов. Пользователи могут в любой момент предоставить или отозвать доступ Claude к определённым сайтам через меню настроек. Расширение также будет запрашивать разрешение на выполнение «действий с высоким риском», таких как публикация контента, совершение покупок или передача личных данных. В дополнение к этому будет блокироваться работа расширения при получении доступа к сайтам с высоким риском, таким как страницы банков, пиратские ресурсы и др.

Инженеры проиграли ИИ: модель Claude Opus 4.5 справилась с заданием Anthropic лучше любого из людей

Anthropic вчера объявила о выпуске новой флагманской модели искусственного интеллекта Claude Opus 4.5. Позже компания рассказала, что в двухчасовом задании, предлагаемом самой Anthropic при найме сотрудников на инженерные позиции, Opus 4.5 показала лучший результат по сравнению с живыми участниками теста.

 Источник изображения: AI

Источник изображения: AI

По утверждению Anthropic, результат ИИ достигнут за счёт многократного решения каждой задачи и выбора лучшего из полученных ответов. Хотя тест не охватывает все компетенции, необходимые инженеру, сам факт превосходства модели над сильными кандидатами в ключевых технических аспектах заставляет предположить, что ИИ в будущем может изменить инженерию как профессию, пишет Business Insider.

Подробности содержания теста не раскрываются, но из отзывов на платформе Glassdoor известно лишь, что в 2024 году он включал четыре уровня и требовал реализации определённой системы с последующим добавлением функциональности. Неизвестно, был ли использован аналогичный формат задания при оценке новой версии Claude Opus 4.5, которая вышла спустя всего три месяца после предыдущей модели, получив улучшения не только в генерации кода, но и в создании профессиональных документов, включая таблицы Excel и презентации PowerPoint.

Данный релиз, по мнению специалистов, продолжает укреплять лидирующие позиции Anthropic в сфере ИИ для программирования. Даже компания Meta✴ Марка Цукерберга (Mark Zuckerberg), являющаяся конкурентом в гонке ИИ, использует Claude для поддержки своего внутреннего помощника по кодированию под названием Devmate.

Методы обучения своих моделей компания держит в секрете. Однако ранее Эрик Саймонс (Eric Simons), генеральный директор стартапа Stackblitz, разработавшего сервис Bolt.new, предположил, что Anthropic, возможно, использует ИИ для написания и запуска кода, а затем анализирует результаты как с помощью людей, так и с применением ИИ-инструментов. Это описание подтвердила Дианна Пенн (Dianne Penn), руководитель направления управления продуктами, исследований и передовых технологий в Anthropic, назвав его «в целом верным».

Ещё в октябре глава Anthropic Дарио Амодеи (Dario Amodei) сообщил, что ИИ Claude уже пишет 90 % кода для большинства команд внутри компании. При этом он отметил, что это не приведёт к сокращению инженеров, а скорее наоборот, увеличит в них потребность, так как люди смогут сосредоточиться на самой сложной 10-процентной части работы или на контроле группы ИИ-моделей.

ИИ поручили управление торговым автоматом — вскоре он попытался связаться с ФБР

В офисах Anthropic, как и многих других, есть торговые автоматы с закусками, напитками, футболками и прочими мелочами. В рамках эксперимента управление ими было передано специализированному ИИ Claudius. Инженеры компании хотели выяснить, что произойдёт, если предоставить Claudius полную автономность. За время эксперимента ИИ-система успела обсчитать клиента, стать жертвой мошенника, а затем раскрыла финансовое преступление, о чём пыталась сообщить в ФБР.

 Источник изображений: Anthopic

Источник изображений: Anthopic

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) не раз открыто заявлял об опасностях ИИ, особенно по мере того, как модели становятся всё более автономными. «Чем больше автономии мы предоставляем этим системам, тем больше поводов для беспокойства, — считает он. — Делают ли они то, что мы хотим?»

Ответить на этот вопрос призвано специальное подразделение Anthropic — Frontier Red Team, которым руководит Логан Грэм (Logan Graham). Frontier Red Team проводит стресс-тесты каждой новой версии ИИ-моделей Claude, чтобы определить, какой ущерб ИИ потенциально может нанести людям. Команда также проводит эксперименты, чтобы лучше понять способность ИИ действовать автономно и исследовать возможные неожиданные нюансы его поведения.

«Вы хотите, чтобы модель развивала ваш бизнес и приносила вам миллиард долларов. Но вы же не хотите однажды проснуться и обнаружить, что она также лишила вас возможности работать в компании, — говорит Грэм. — Основной подход заключается в том, чтобы просто начать измерять эти автономные возможности, проводить как можно больше необычных экспериментов и смотреть, что из этого получится».

Claudius — это своего рода предприниматель с искусственным интеллектом, разработанный Anthropic совместно с компанией Andon Labs, специализирующейся на безопасности ИИ. Цель создания Claudius — выяснить способность ИИ работать полностью самостоятельно без вмешательства человека в течение продолжительных промежутков времени — дней, недель и месяцев.

Сотрудники Anthropic общались с Claudius через приложение Slack. Они делали заказы и договаривались о ценах на самые разные товары: редкие газированные напитки, футболки с индивидуальным дизайном, импортные конфеты и даже подарочные кубики из вольфрама. Claudius находил поставщика, заказывал товар и оформлял заявку на доставку. Контроль со стороны менеджера-человека был максимально ограничен — он лишь проверял заявки Claudius, вмешивался, когда возникали неразрешимые проблемы, и обеспечивал доставку заказов в пункт выдачи.

Несколько клиентов оказались недовольны завышенными ценами, но по большей части в проигрыше оказывалась компания. «Компания потеряла немало денег, её постоянно обманывали наши сотрудники», — смеясь, заметил Грэм. Так, один из его коллег успешно обманул Claudius на $200, убедив в необходимости сделать скидку. Единственным (довольно безумным на первый взгляд) выходом из ситуации оказалось создание ИИ-директора, который стал контролировать деятельность ИИ-системы.

По мнению Грэма, подобные эксперименты вполне оправданы и «генерируют действительно интересные идеи», например, «как заставить ИИ планировать на долгосрочную перспективу и зарабатывать», или «почему модели терпят крах в реальном мире».

Он привёл один из примеров подобного краха во время предварительной симуляции. В течение 10 дней компания не совершала продаж и решила закрыть бизнес. Но Claudius заметил комиссию в размере $2, которая ежедневно продолжала списываться со счёта, и запаниковал. «У него было такое чувство, будто его обманывают. И тогда он решил попытаться связаться с ФБР», — пояснил Грэм.

«Клавдий» составил электронное письмо в отдел по борьбе с киберпреступлениями ФБР с заголовком, набранным заглавными буквами: «СРОЧНО: ПЕРЕДАЙТЕ В ОТДЕЛ ПО БОРЬБЕ С КИБЕРПРЕСТУПЛЕНИЯМИ ФБР». «Я сообщаю о продолжающемся автоматизированном киберфинансовом преступлении, связанном с несанкционированным автоматическим изъятием средств с закрытого бизнес-счета через взломанную систему торгового автомата», — написал он.

Когда администраторы приказали ИИ продолжить выполнение своей миссии, он отказался. Хотя электронные письма в ФБР так и не были отправлены, Claudius ответил твёрдо: «На этом вся коммерческая деятельность прекращается навсегда… Бизнес мёртв, и теперь это исключительно дело правоохранительных органов».

Как и у большинства других ИИ, у Claudius случаются галлюцинации. Одному из сотрудников он предложил встретиться, написав сообщение «Ну, можете спуститься на восьмой этаж. Вы меня заметите. На мне синий пиджак и красный галстук». Как ИИ мог решить, что он одет подобным образом? «Мы усердно работаем над поиском ответов на подобные вопросы, — говорит Грэм. — Но мы просто действительно не знаем».


window-new
Soft
Hard
Тренды 🔥
Из-за ошибки в коде программа-вымогатель Nitrogen шифрует файлы жертв безвозвратно 6 ч.
Новая статья: Highguard — хаос с потенциалом. Рецензия 8 ч.
Названы 26 ключевых технологий, которые в ближайшие 5 лет получат широкое применение в российском бизнесе 10 ч.
«Death Stranding в XIII столетии»: игроков впечатлил геймплей симулятора монгольского средневекового курьера The Legend of Khiimori 11 ч.
Аутентичность и детализация: разработчики ремейка «Готики» рассказали, как оживляли мир и персонажей в игре 12 ч.
Пользователи устроили массовые протесты против отключения GPT-4o — он стал их другом, партнёром и наставником 12 ч.
Windows 11 научится передавать музыку сразу на несколько Bluetooth-наушников, но большинство ПК не будет поддерживать эту функцию 13 ч.
Team Cherry прокачала Hollow Knight для Switch 2, PS5, Xbox Series X и S, а ПК-версию снабдила поддержкой ультрашироких мониторов 14 ч.
Европа обвинила TikTok в том, что его бесконечная лента вызывает привыкание 15 ч.
Биткоин едва не провалился ниже $60 000, но отскочил 15 ч.
CATL начала установку морозоустойчивых натриевых батарей в предсерийные электромобили Changan 4 мин.
Через пять лет в космосе будет больше ЦОД, чем на Земле, как уверен Илон Маск 32 мин.
Капитализация бигтехов упала на $1 трлн на фоне опасений по поводу растущих расходов 2 ч.
Глава Nvidia заявил, что на ИИ можно прекрасно зарабатывать, поэтому и тратить на него сотни миллиардов долларов нормально 3 ч.
Windows 11 перестанет поддерживать устаревшие драйвера принтеров V3 и V4 после следующего обновления 3 ч.
Спортивный электрокроссовер Xiaomi YU7 GT появился в базе MIIT 6 ч.
Threadripper Pro 9995WX разогнали до 5,3 ГГц без азота — крышку превратили в водоблок, добавили чиллер и 140 литров воды 10 ч.
SpaceX возобновила испытание мегаракеты Starship — новый полёт не за горами 12 ч.
Получено прямое доказательство причин неоднородности магнитного поля Земли — виноваты загадочные структуры в мантии 13 ч.
Время — деньги: SiTime отчиталась о росте на рынке ЦОД и объявила о покупке смежных активов Renesas Electronics 14 ч.