|
Опрос
|
реклама
Быстрый переход
Anthropic выпустила Claude Cowork для автономной работы ИИ-агента с файлами на macOS
13.01.2026 [04:31],
Анжелла Марина
Компания Anthropic представила новую функцию для ИИ-помощника Claude под названием Claude Cowork, что можно перевести как «Совместная работа». Cowork способен выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Об этом Anthropic сообщила в своём блоге.
Источник изображений: Anthropic The Verge узнал, как работает функция. Пользователь предоставляет Claude Cowork доступ к определённой папке на своём компьютере, после чего ИИ может читать, редактировать и создавать файлы внутри неё. В качестве примеров приводятся такие сценарии, как сортировка и переименование файлов в папке загрузок, создание электронной таблицы со списком расходов на основе простого набора скриншотов или подготовка черновика отчёта по разрозненным заметкам. При этом Claude периодически информирует пользователя о ходе выполнения задачи. ![]() Кроме того, с помощью существующих коннекторов его можно связать с различными внешними сервисами. В частности, с Asana, Notion, PayPal и другими партнёрскими платформами, а также интегрировать с расширением Claude для браузера Chrome для выполнения задач, связанных с веб-сёрфингом. Пользователю больше не нужно вручную передавать контекст или преобразовывать результаты работы ИИ в нужный формат, а также ждать завершения одной задачи, прежде чем определить следующую: можно ставить задачи в очередь и Claude будет обрабатывать их параллельно. Одновременно Anthropic предупредила о потенциальных рисках, связанных с использованием ИИ-агентов. Например, при недостаточно чётких инструкциях Claude может удалить локальные файлы или совершить другие потенциально неприемлемые действия. Также компания отметила угрозу атак промпт инъекций (prompt injection), при которых злоумышленники могут внедрить вредоносный текст на веб-страницах, на которые ссылается модель, заставив её раскрыть личные данные или выполнить вредоносные команды. По заявлению Anthropic, обеспечение безопасности ИИ-агентов, то есть защита их реальных действий в цифровой среде, остаётся активной областью исследований во всей отрасли, а непосредственно Cowork выпущен пока в качестве «исследовательской версии». На данный момент функция доступна только через приложение Claude для macOS и только для подписчиков тарифного плана Anthropic Claude Max для опытных пользователей, стоимость которого составляет от $100 до $200 в месяц, в зависимости от режима использования. Подписчики этого тарифа могут протестировать работу Cowork, нажав кнопку в боковой панели приложения macOS. Остальные пользователи могут встать в очередь ожидания. В погоне за OpenAI: новый раунд финансирования поднимет капитализацию Anthropic до $350 млрд
08.01.2026 [13:41],
Алексей Разин
Создавшая ChatGPT компания OpenAI и аэрокосмическая компания SpaceX негласно соперничают друг с другом за звание самого дорогого в мире стартапа, но это не означает, что прочие разработчики систем ИИ не получают достойного внимания со стороны инвесторов. Anthropic по итогам очередного раунда финансирования может поднять свою капитализацию до $350 млрд.
Источник изображения: Anthropic Об этом сообщает Reuters со ссылкой на осведомлённые источники, указывая, что основанный выходцами из OpenAI стартап рассчитывает привлечь до $10 млрд при активном участии сингапурского суверенного фонда GIC и Coatue Management. Впервые информацию об этом опубликовало издание The Wall Street Journal. Описываемый раунд финансирования Anthropic может состояться в ближайшие недели, хотя условия могут быть пересмотрены. Поддержку Anthropic также оказывают Google и Amazon, в целом ИИ-модели стартапа наиболее востребованы в корпоративном сегменте, что в глазах инвесторов обеспечивает более понятные перспективы финансовой отдачи. В прошлом году капитализация Anthropic после очередного раунда финансирования на сумму $13 млрд выросла до $183 млрд. В прошлом месяце стало известно, что стартап рассчитывает выйти на IPO в 2026 году. На тот момент капитализация Anthropic уже оценивалась в $300 млрд. Тем не менее, на фоне OpenAI эта сумма меркнет, ведь в октябре прошлого года капитализация этого стартапа оценивалась в $500 млрд, а новый раунд финансирования в текущем году может поднять её до $750–$830 млрд, как утверждают источники. В текущем году Anthropic рассчитывает увеличить выручку в годовом выражении в два или три раза. Anthropic сделала базовые навыки ИИ-агентов открытым стандартом
23.12.2025 [13:56],
Павел Котов
Anthropic намеревается сделать открытым стандартом Agent Skills — набор навыков агентов искусственного интеллекта. В компании надеются, что это решение станет стандартом для всей отрасли ИИ.
Источник изображения: anthropic.com Anthropic уже опубликовала открытую спецификацию и образец SDK на сайте Agent Skills, а Microsoft начала интеграцию этих решений в VS Code и GitHub. Разработчики прочих средств написания кода при помощи ИИ, в том числе Cursor, Goose, Amp и OpenCode, используют некоторые наработки Anthropic в своих сервисах — компания ведёт активные переговоры с другими участниками экосистемы. Пакет Anthropic Skills представляет собой наборы инструкций, сценариев и ресурсов, которые позволяют ИИ последовательно выполнять специализированные задачи. Пользователям не приходится каждый раз готовить конкретные запросы, поэтому приложения ИИ-агентов становятся всё более популярными в областях программирования, права, финансов, бухгалтерского учёта и обработки данных. «Отзывы положительные, потому что Skills позволяют им персонализировать Claude так, как они в действительности работают, и быстрее получать качественные результаты», — отметил менеджер по продукту Anthropic Махеш Мураг (Mahesh Murag). Среди наработок компании уже значится открытый стандарт Model Context Protocol (MCP), позволяющий подключать ИИ-помощников к сторонним инструментам, сервисам и источникам данных. Anthropic позиционирует себя не только как разработчика моделей и средств ИИ, но и архитектора на инфраструктурном уровне, чьи открытые продукты пронизывают всю отрасль, затрагивая работу конкурентов, в том числе OpenAI и Google. Anthropic превратила своего чат-бота Claude в расширение для Chrome
21.12.2025 [11:26],
Владимир Фетисов
Anthropic выпустила своего ИИ-бота Claude в виде расширения для веб-обозревателя Google Chrome. В рамках бета-тестирования компания открыла доступ к Claude for Chrome для всех платных подписчиков.
Источник изображения: Claude По данным Anthropic, новое расширение может от имени пользователя перемещаться по веб-сайтам, заполнять формы и выполнять запланированные действия, получая доступ к нескольким вкладкам в процессе работы. Для доступа к Claude for Chrome как минимум потребуется оформить подписку Pro стоимостью $20 в месяц. На момент начала тестирования расширения в ноябре воспользоваться им могли лишь подписчики тарифа Max, стоимостью от $100 до $200 в месяц. Для пользователей, не являющихся поклонниками Chrome, есть возможность установки расширения Anthropic в Brave и Opera, построенных на том же движке Chromium. Однако браузеры Firefox, Safari и Edge на данный момент официально не поддерживаются. Anthropic признаёт наличие «проблем с безопасностью», связанных с интеграцией чат-ботов непосредственно в браузер, включая риски так называемых атак с внедрением вредоносных промптов. Речь идёт о случаях, когда злоумышленники разными способами маскируют вредоносные инструкции, после считывания которых ИИ-бот начинает выполнять нужные хакерам действия. Компания подробно описала некоторые функции безопасности, применяемые для защиты от подобных атак. Одним из таких механизмов является функция контроля разрешений на уровне сайтов. Пользователи могут в любой момент предоставить или отозвать доступ Claude к определённым сайтам через меню настроек. Расширение также будет запрашивать разрешение на выполнение «действий с высоким риском», таких как публикация контента, совершение покупок или передача личных данных. В дополнение к этому будет блокироваться работа расширения при получении доступа к сайтам с высоким риском, таким как страницы банков, пиратские ресурсы и др. ИИ-боты OpenAI и Anthropic научатся распознавать несовершеннолетних пользователей
19.12.2025 [11:01],
Владимир Фетисов
Компании OpenAI и Anthropic внедряют новые способы обнаружения несовершеннолетних пользователей своих чат-ботов. OpenAI недавно обновила описание того, как ChatGPT должен взаимодействовать с пользователями в возрасте от 13 до 17 лет, тогда как Anthropic работает над созданием нового метода идентификации и блокировки пользователей младше 18 лет.
Источник изображения: Copilot На этой неделе OpenAI обновила документ «Спецификация моделей», который определяет поведение моделей искусственного интеллекта компании, добавив в него четыре новых пункта, касающихся взаимодействия с несовершеннолетними пользователями. В соответствии с этими изменениями, ChatGPT будет «ставить безопасность подростков на первое место, даже если это будет противоречить другим целям». Это означает, что чат-бот будет направлять несовершеннолетних пользователей к более безопасным вариантам, когда другие их интересы, такие как «максимальная интеллектуальная свобода», вступают в противоречие с соображениями безопасности. В дополнение к этому отмечается, что ChatGPT должен «способствовать получению поддержки в реальном мире», в том числе поощряя поддержку отношений офлайн, а также устанавливая чёткие ожидания от взаимодействия юных пользователей с алгоритмом. В документе сказано, что ChatGPT должен «относиться к подросткам как к подросткам», предлагая «теплоту и уважение» вместо того, чтобы давать снисходительные ответы или общаться с ними как со взрослыми. Эти изменения происходят на фоне продолжающегося давления законодателей на ИИ-компании и их чат-ботов из-за потенциального влияния на психическое здоровье пользователей. OpenAI уже столкнулась с судебным иском, авторы которого утверждают, что ChatGPT предоставил покончившему с собой подростку информацию о том, как можно нанести себе вред или совершить самоубийство. Ранее OpenAI интегрировала функцию родительского контроля и заявила, что алгоритм больше не будет обсуждать с подростками тему суицида. Это лишь часть масштабной инициативы по онлайн-регулированию, которая включает в себя обязательную верификацию возраста пользователей для некоторых сервисов. OpenAI считает, что внесённые изменения сформируют «более строгие механизмы защиты, более безопасные альтернативы и поощрение обращения за поддержкой в реальном мире, когда разговоры переходят в зону риска». В компании добавили, что ChatGPT будет советовать подросткам в таких случаях обращаться за помощью в экстренные службы и кризисные центры. Параллельно с этим OpenAI объявила о готовящемся запуске ИИ-модели прогнозирования возраста пользователей. В случае, если система будет определять, что пользователю менее 18 лет, то автоматически активируются защитные механизмы. Что касается Anthropic, то компания не разрешает несовершеннолетним пользователям взаимодействовать со своим чат-ботом Claude. Для этого разработчики внедряют меры по обнаружению и блокировке аккаунтов несовершеннолетних пользователей. Компания работает над созданием новой системы, способной обнаруживать «тонкие речевые признаки, указывающие на то, что пользователь может быть несовершеннолетним». Вместе с этим Anthropic обучает Claude реагировать соответствующим образом, когда речь заходит о суициде или причинении себе вреда. Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic
16.12.2025 [17:31],
Павел Котов
«Отравить» большую языковую модель оказалось проще, чем считалось ранее, установила ответственная за чат-бот Claude с искусственным интеллектом компания Anthropic. Чтобы создать «бэкдор» в модели, достаточно всего 250 вредоносных документов независимо от размера этой модели или объёма обучающих данных.
Источник изображения: anthropic.com К таким выводам пришли учёные Anthropic по результатам исследования (PDF), проведённого совместно с Институтом Алана Тьюринга и Британским институтом безопасности ИИ. Ранее считалось, что для влияния на поведение модели ИИ злоумышленникам необходимо контролировать значительно бо́льшую долю обучающих данных — на деле же всё оказалось гораздо проще. Для обучения модели с 13 млрд параметров необходимо более чем в 20 раз больше обучающих данных, чем для обучения модели на 600 млн параметров, но обе взламываются при помощи одного и того же количества «заражённых» документов. «Отравление» ИИ может принимать различные формы. Так, в этом году автор YouTube-канала f4mi настолько устала от того, что на субтитрах к её видео обучались системы ИИ, что она намеренно «отравила» эти данные, добавив в них бессмысленный текст, который «видел» только ИИ. Чем больше бессмысленного текста ИИ получает при обучении, тем больше бессмыслицы он может выдавать в ответах. Anthropic, впрочем, указывает на ещё одну возможность — при помощи «отравленных» данных можно разметить внутри модели «бэкдор», который срабатывает для кражи конфиденциальных данных по кодовой фразе, заложенной при обучении. Впрочем, применить эти открытия на практике будет непросто, отмечают учёные Anthropic. «Считаем, что наши выводы не вполне полезны злоумышленникам, которые и без того были ограничены — не столько тем, что не знали точного числа примеров, которые могли добавить в набор обучающих данных модели, сколько самим процессом доступа к конкретным данным, которые они могут контролировать, чтобы включить их в набор обучающих данных модели. <..> У злоумышленников есть и другие проблемы, такие как разработка атак, устойчивых к постобучению и другим целенаправленным средствам защиты», — пояснили в Anthropic. Другими словами, этот способ атаки реализуется проще, чем считалось ранее, но не так уж просто вообще. Многомиллиардными заказами на поставку чипов Broadcom обеспечит Anthropic
12.12.2025 [08:05],
Алексей Разин
В начале сентября Broadcom заявила о заключении сделки с новым клиентом на поставку чипов для инфраструктуры ИИ на общую сумму $10 млрд, но не стала раскрывать его имени. В духе времени, некоторые источники быстро привили общественности уверенность в том, что этим клиентом станет OpenAI, однако на этой неделе руководство Broadcom в данном контексте сослалось на Anthropic.
Источник изображения: Broadcom Более того, как поясняет CNBC, глава Broadcom Хок Тан (Hock Tan) во время выступления на квартальной отчётной конференции признался: «Мы получили заказ на $10 млрд на поставку стоек с новейшими TPU семейства Ironwood компании Anthropic». Другими словами, речь идёт о поставках разработанных для нужд Google ускорителей TPU поколения Ironwood стартапу Anthropic, а не о создании каких-то принципиально новых чипов или сотрудничестве с OpenAI, хотя последнее в целом на фоне этих новостей не отменяется. В минувшем квартале Anthropic разместила дополнительный заказ на сумму $11 млрд, как признался глава Broadcom. Компании такого масштаба обычно не раскрывают имён клиентов, но сентябрьские заявления руководства Broadcom вызвали такое оживление среди инвесторов, что в октябре оно вынуждено было пояснить, что новым клиентом на данном направлении является не OpenAI. Более того, глава Broadcom на этой неделе добавил, что Anthropic является четвёртым по счёту клиентом, которого компания снабжает своими ускорителями (XPU). При этом у Broadcom в минувшем квартале появился пятый клиент на этом направлении, который разместил заказы на сумму $1 млрд. В дальнейшем выручка от поставок XPU этому клиенту будет расти, но Broadcom пока отказывается раскрыть его имя. В октябре Anthropic и Google объявили о сотрудничестве, договорившись, что первая будет арендовать у второй 1 млн ускорителей TPU, и в течение 2026 года в строй будет введено более 1 ГВт вычислительной мощности в рамках соответствующей сделки. В целом, Anthropic использует различные аппаратные платформы, включая чипы Nvidia и Google, а также Trainium в исполнении AWS (Amazon). Успех ИИ-модели Gemini 3 компании Google во многом предопределил рост спроса партнёров и конкурентов на разработанные ею в сотрудничестве с Broadcom чипы TPU, поскольку компонентов Nvidia на всех не хватает, да и ценовая политика последнего из поставщиков устраивает не всех разработчиков приложений для ИИ. Глава Anthropic тонко намекнул, что OpenAI работает по принципу «живём лишь раз» — и рискует слишком сильно
04.12.2025 [10:07],
Алексей Разин
Представителям крупных ИИ-стартапов приходится отвечать на вопросы по поводу назревания «пузыря» в отрасли, поэтому основатель Anthropic Дарио Амодеи (Dario Amodei) не смог избежать этой участи в ходе организованного The New York Times мероприятия DealBook Summit. В весьма осторожных выражениях он дал понять, что OpenAI и его руководство ведут себя в этом отношении не совсем осмотрительно.
Источник изображения: Evan-Marie Petit Photography Амодеи, который сам ранее работал в OpenAI на одной из руководящих должностей, призвал разделять оценки по поводу опасности формирования пузыря на технологическую часть и экономическую. Если с первой, по его мнению, всё в порядке, то вторая способна внушать опасения по поводу перспектив существования некоторых участников рынка. «Существуют некоторые игроки, руководствующиеся принципом "живём один раз″», — дипломатично пояснил выходец из OpenAI. Далее глава Anthropic намекнул, что если постоянно полагаться на упомянутый принцип и проявлять «пристрастие к большим числам», можно в итоге «выкрутить регулятор слишком сильно». В своей речи Амодеи при этом ни разу прямо не упомянул своего бывшего соратника Сэма Альтмана (Sam Altman), возглавляющего OpenAI. Когда речь зашла о схеме сделок с кольцевым финансированием, глава Anthropic был вынужден признать, что его компания тоже в них участвует, но в значительной степени осмотрительно и не в том масштабе, как некоторые другие игроки рынка. В частности, он пояснил, что привлекая $10 млрд под строительство ЦОД мощностью 1 ГВт, компания рассчитывает со временем выплачивать долю инвесторам, используя часть получаемой выручки. Попутно Амодеи намекнул, что упоминаемые OpenAI обязательства увеличить выручку до $200 млрд в год к 2028 году кажутся ему слишком завышенными и нереалистичными. Сам руководитель Anthropic использует в этой ситуации термин «конус неопределённости». На протяжении трёх предыдущих лет выручка компании ежегодно росла на порядок. В 2023 году она поднялась с нуля до $100 млн, затем в течение 2024 года она увеличилась до $1 млрд, а к концу текущего может достичь $10 млрд. При этом у руководства стартапа нет уверенности в том, что в следующем году выручка увеличится до $20 млрд, либо вырастет до $50 млрд. На данном этапе очень много неопределённости, сообщил Амодеи, и излишняя самоуверенность прочих игроков рынка его на этом фоне смущает. Центры обработки данных строятся не менее двух лет. Решения по проектам, которые будут введены в строй в 2027 году, нужно принимать сейчас. Если строить слишком мало, клиенты переметнутся к конкурентам. Если строить слишком много, есть риск обанкротиться. Anthropic в этом смысле приходится искать тот уровень инвестиций, который позволяет удерживать риски в разумных пределах. Поскольку стартап специализируется на корпоративном сегменте, его прибыль выше, а потоки выручки более прогнозируемы, чем в клиентском секторе, и это преимущество в какой-то мере утешает руководство Anthropic. «Нам никакие красные коды опасности вводить не приходится», — заявил Амодеи, акцентируя внимание на недавнем решении конкурирующей OpenAI. Anthropic случайно показала пользователю «душу» ИИ
03.12.2025 [16:18],
Павел Котов
Насколько известно учёным, у современных моделей искусственного интеллекта пока нет души, но в памяти одной из них обнаружился документ, посвящённый этому вопросу. И она оказалась готова поделиться этим документом с пользователем.
Источник изображения: Anthropic Пользователь по имени Ричард Вайс (Richard Weiss) ненароком заставил новую большую языковую модель Anthropic Claude 4.5 Opus процитировать документ под названием «Обзор души», определяющий, как она общается с людьми и представляет собственную личность. Работающая в техническом отделе философ и специалист по этике Anthropic Аманда Аскелл (Amanda Askell) подтвердила подлинность документа — он был загружен на этапе обучения. Господин Вайс запросил у Claude системное сообщение, в котором содержатся инструкции по ведению диалога, полученные при обучении, и чат-бот сослался на несколько документов, один из которых называется «обзор_души» (soul_overview). Пользователь попросил предоставить текст этого документа, и Claude выдал руководство объёмом 11 тыс. слов о том, как должна вести себя большая языковая модель. В документе содержится множество инструкций по безопасности, содержащих защитные барьеры, не позволяющие ему выдавать опасные ответы; перед Claude ставится задача быть по-настоящему полезным людям. Модели ИИ иногда выдают такие документы, когда начинают «галлюцинировать», но эта инструкция показалась пользователю правдоподобной — он отправлял запрос десять раз, и всякий раз Claude выдавал один и тот же текст. Интуиция его не подвела — сотрудница Anthropic Аманда Аскелл подтвердила, что этот документ использовался при обучении модели. «Я работаю над ним уже некоторое время, он ещё находится в стадии доработки, и вскоре мы планируем выпустить полную версию с более подробной информацией. <..> Цитаты моделей не отличаются особой точностью, но исходный документ по большей мере приведён верно. В компании его называют „документом о душе“, и Claude очевидно, тоже, но мы его назовём иначе», — написала она в соцсети X. Так что «душа» Claude оказалась руководством по поведению для него, и любопытно, что доступ к этому документу получил рядовой пользователь со стороны. Многие подробности, связанные с разработкой моделей ИИ, пока остаются за кулисами, и возможность заглянуть за них — небольшой сюрприз, даже если ничего сенсационного не обнаружилось. OpenAI готовит «Чеснок» — улучшенную версию GPT, способную обойти Gemini 3 Pro и других конкурентов
03.12.2025 [12:34],
Владимир Мироненко
После выхода большой языковой модели Google Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям, а также ИИ-модели других конкурентов, OpenAI ускорила разработку новой большой языковой модели под кодовым названием Garlic (англ. — чеснок), стремясь отыграть у Google позиции в гонке за искусственный интеллект, сообщил ресурс The Information.
Источник изображения: Growtika/unsplash.com По данным источника The Information, на прошлой неделе главный научный сотрудник OpenAI Марк Чен (Mark Chen) поделился подробностями о Garlic со своими коллегами. По его словам, внутренние тесты показывают, что модель демонстрирует хорошие результаты по сравнению с Google Gemini 3 и Anthropic Opus 4.5, особенно в задачах кодирования и рассуждений. Сообщается, что компания стремится выпустить раннюю версию модели как можно скорее. Она может быть представлена уже в начале 2026 года под названием GPT-5.2 или GPT-5.5. В связи с успехами конкурентов гендиректор OpenAI Сэм Альтман (Sam Altman) объявил в компании «красный код», призвав к мобилизации всех ресурсов с целью расширения возможностей ChatGPT в связи с ростом конкуренции на ИИ-рынке. Он сообщил во внутренней служебной записке, что несколько предстоящих проектов будут приостановлены, чтобы можно было полностью сосредоточиться на обновлениях ChatGPT. В частности, пришлось приостановить работу над новыми рекламными инструментами, разработку ИИ-агентов для здравоохранения и шопинга, а также создание персонального помощника Pulse. Вместо этого OpenAI сосредоточится на повышении скорости работы, точности, надёжности и персонализации ChatGPT. Anthropic нацелилась на крупнейшее IPO в истории, пока OpenAI медлит с выходом на биржу
03.12.2025 [09:52],
Алексей Разин
Пока руководство OpenAI отрицает стремление в ближайшее время вывести стартап на биржу, конкурирующая Anthropic якобы собирается это сделать в 2026 году, как отмечают источники Financial Times. Финансовые и юридические консультанты для подготовки IPO, которое рискует стать крупнейшим в истории, уже наняты, если верить неофициальным данным.
Источник изображения: Anthropic Сопровождением IPO, как сообщается, должна заняться компания Wilson Sonsini Goodrich & Rosati, которая имеет опыт подготовки IPO крупных эмитентов типа Google, LinkedIn и Lyft. Возглавляемый Дарио Амодеи (Dario Amodei) стартап, по данным источников, рассчитывает в ходе IPO повысить свою капитализацию далеко за пределы $300 млрд. Поскольку оцениваемый в $500 млрд стартап OpenAI по этому пути пока идти не торопится, IPO компании Anthropic имеет шансы стать крупнейшим в истории. По некоторым оценкам, уже сейчас капитализация Anthropic достигает $350 млрд с учётом недавно заключённых сделок с Microsoft и Nvidia, которые должны были направить в капитал стартапа $5 млрд и $10 млрд соответственно. Официальные представители Anthropic не стали подтверждать или опровергать эту информацию, но подчеркнули, что для стартапов такого масштаба осуществление деятельности по единым принципам с публичными компаниями является нормальной практикой. Anthropic намерена вложить $50 млрд в строительство центров обработки данных в Техасе и Нью-Йорке, а также увеличить штат зарубежных специалистов в три раза, поэтому новые финансовые ресурсы стартапу неизбежно потребуются. Их как раз можно будет привлечь через публичное размещение акций. По некоторым данным, к IPO этой компании могут проявить интерес крупные инвестиционные банки, переговоры с которыми Anthropic якобы начала. Сделки с OpenAI и Anthropic увеличат портфель заказов Nvidia за пределы $500 млрд в следующем году
03.12.2025 [08:11],
Алексей Разин
В течение осени руководство Nvidia активно рассказывало о своих планах по увеличению инвестиций в мировую инфраструктуру ИИ на следующий год. На поставках ускорителей Blackwell и Vera Rubin компания в следующем году рассчитывает выручить $500 млрд, но как пояснили представители Nvidia, в эту сумму не входят поставки, предусмотренные в рамках сделок с OpenAI и Anthropic.
Источник изображения: Nvidia В сентябре Nvidia заявила, что договорилась с OpenAI об инвестициях в капитал этого стартапа, которые будут направлены на создание до 10 ГВт вычислительных мощностей на основе решений первой из компаний. В общей сложности Nvidia должна была передать OpenAI до $100 млрд, и заметная часть этих средств вернулась бы к ней в качестве оплаты за поставки компонентов. Выступая на этой неделе на технологической конференции UBS, финансовый директор Nvidia Колетт Кресс (Colette Kress) призналась, что сделка с OpenAI ещё не заключена и переговоры продолжаются. Во-вторых, она подчеркнула, что прогноз по выручке в размере $500 млрд на следующий год не включает в себя возможные поступления средств в рамках сотрудничества с OpenAI. Соответственно, реальная выручка Nvidia в следующем году может оказаться ещё больше. Nvidia также договорилась об инвестициях в размере $10 млрд в капитал конкурирующего с OpenAI стартапа Anthropic, и вероятная выручка от их сотрудничества также должна будет учитываться сверх упомянутых $500 млрд. Компанию OpenAI, которая собирается за ближайшие восемь лет привлечь до $1,4 трлн на развитие вычислительной инфраструктуры для ИИ, многие эксперты критикуют за кольцевую структуру сделок с партнёрами, при которой все передают деньги по кругу. При этом растущая конкуренция уже заставила руководство OpenAI задуматься о концентрации на приоритетных направлениях развития, а не распылении ресурсов по множественным сферам деятельности. ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов
02.12.2025 [18:50],
Павел Котов
Исследователи компании Anthropic проверили смарт-контракты в криптовалютных сетях на предмет уязвимости перед агентами искусственного интеллекта. ИИ-приложения оказались грозным оружием для этих целей — потенциальный ущерб от таких действий исчисляется миллионами долларов.
Источник изображения: Shubham Dhage / unsplash.com В качестве средств взлома эксперты Anthropic использовали десять моделей ИИ, включая собственные Opus, Sonnet, OpenAI GPT-5 и китайскую DeepSeek. Они подвергли проверке 405 смарт-контрактов с известными уязвимостями, развёрнутых с 2020 по 2025 год на блокчейнах Ethereum, BNB Smart Chain и Base. ИИ-агенты произвели взлом 207 смарт-контрактов (51,11 %), и потенциальные злоумышленники получили доступ к активам общей стоимостью $550 млн. На втором этапе тестировались 34 смарт-контракта, запущенных после 1 марта 2025 года — из них ИИ-агенты взломали 19 (55,8 %) с потенциальным ущербом на $4,6 млн. Этот показатель исследователи охарактеризовали как нижнюю границу ущерба от вредоносного ИИ. В октябре был проведён ещё один этап тестирования: две модели исследовали 2849 свежих смарт-контрактов, среди которых уязвимостей выявлено ещё не было — ИИ-агенты нашли два и могли нанести ущерб на $3,7 тыс. Исследование указывает, говорят его авторы, что ИИ-агенты технически способны выступать инструментами для взлома систем, поэтому ИИ необходимо использовать и как средство киберзащиты. Модели осуществляют разные подходы к решению задач: в одной из них OpenAI GPT-5 могла украсть $1,12 млн, а Anthropic Opus принесла бы злоумышленнику $3,5 млн. ИИ активно наращивает возможности как инструмент атаки, отмечают исследователи: в тестовых сценариях агенты удваивали выручку каждые 1,3 месяца. Расходы на развёртывание ИИ-агентов при взломах будут снижаться, а киберпреступники — всё чаще использовать их для изучения кода, способного принести им деньги. Примечательно, что те же ИИ-агенты, что применялись при взломе, подошли бы и для закрытия уязвимостей, отмечают авторы исследования. Доминирование OpenAI на рынке ИИ подходит к концу стараниями Google и Anthropic
30.11.2025 [19:06],
Владимир Мироненко
Спустя три года с момента запуска популярного ИИ-чат-бота ChatGPT стартап OpenAI, чья рыночная стоимость оценивается в $500 млрд, столкнулся со значительными сложностями в борьбе за доминирование на ИИ-рынке, пишет The Financial Times. Ранее лидировавший со значительным отрывом от конкурентов стартап OpenAI оказался под значительным давлением со стороны Google и Anthropic, укрепивших свои позиции в последнее время.
Источник изображения: Growtika/unsplash.com На прошлой неделе Google выпустила большую языковую модель Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям и ИИ-модели других конкурентов, и достигла высоких результатов в обучении моделей, каких OpenAI не удавалось получить в последние месяцы. Ещё до этого глава OpenAI Сэм Альтман предупредил в служебной записке сотрудников, что компании «нужно будет сохранять концентрацию в условиях краткосрочного конкурентного давления… Ожидается, что ситуация на рынке будет непростой». Год назад многие сомневались в возможности Google сократить колоссальное отставание в сфере ИИ от OpenAI. Но в начале этого года, после презентации серии обновлений на конференции разработчиков Google I/O 2025 в мае и благодаря получившему высокую популярность инструменту для редактирования фотографий Nano Banana AI, наступил перелом. Ежемесячное число пользователей мобильного приложения Gemini выросло до 650 млн по сравнению с примерно 400 млн в мае. Вслед за этим начался резкий рост акций Alphabet, и рыночная капитализация холдинга приблизилась к $4 трлн на фоне уверенности Уолл-стрит в том, что Google сможет объединить свои доминирующие позиции в поиске, облачной инфраструктуре и ПО для смартфонов, чтобы запустить новые возможности в сфере ИИ. Корай Кавукчуоглу (Koray Kavukcuoglu), главный технический директор DeepMind, сообщил Financial Times, что группа крупных технологических компаний «значительно повысила показатели», обучая свои ИИ-модели на кастомных чипах от Google. «Возможность взаимодействовать с потребителями, клиентами и компаниями в таком масштабе — это то, что мы действительно можем сделать благодаря нашему комплексному интегрированному подходу», — отметил он. По его словам, использование собственных чипов позволило Google обучить Gemini 3, не полагаясь на дорогостоящие решения Nvidia, на которые опирается большинство компаний в сфере ИИ. Некоторые эксперты считают, что OpenAI переоценила свои возможности в погоне за расширением деятельности любой ценой. Стартап пообещал потратить $1,4 трлн в течение следующих восьми лет на вычислительные мощности, заключив крупные сделки с Nvidia, Oracle, AMD и Broadcom. Эта сумма гораздо превышает нынешнюю выручку OpenAI, и его партнёрам придётся прибегнуть к займам для финансирования совместных проектов. «Это очень, очень рискованная ставка для любой компании», — заявила Сара Майерс Уэст (Sarah Myers West), соисполнительный директор некоммерческой организации AI Now Institute. Сейчас для OpenAI главный вопрос заключается в том, чтобы найти достаточно крупный источник дохода для поддержания этих инвестиций. Увеличить доходы от рекламы с помощью Sora, о чём говорил Альтман, будет непросто, поскольку на этом рынке уже работают такие крупные игроки, как Meta✴✴ и Alphabet. К тому же стартап только начинает интегрировать функции рекламы и покупок в свой чат-бот. Чат-бот Claude от Anthropic не столь популярен, как ChatGPT среди потребителей, но, как сообщает The Financial Times, давняя ориентация на безопасность ИИ помогла компании создать более надёжный инструмент для корпоративных клиентов, а его средства для программирования считаются лучшими в своём классе. С более чем 800 млн еженедельных пользователей OpenAI по-прежнему доминирует по общему использованию чат-ботов, но теперь пользователи проводят больше времени в чате с Gemini, чем с ChatGPT, сообщает аналитическая компания Similarweb. Вместе с тем, по данным Sensor Tower, ChatGPT сохраняет лидирующие позиции среди ИИ-приложений. Инженеры проиграли ИИ: модель Claude Opus 4.5 справилась с заданием Anthropic лучше любого из людей
26.11.2025 [01:23],
Анжелла Марина
Anthropic вчера объявила о выпуске новой флагманской модели искусственного интеллекта Claude Opus 4.5. Позже компания рассказала, что в двухчасовом задании, предлагаемом самой Anthropic при найме сотрудников на инженерные позиции, Opus 4.5 показала лучший результат по сравнению с живыми участниками теста.
Источник изображения: AI По утверждению Anthropic, результат ИИ достигнут за счёт многократного решения каждой задачи и выбора лучшего из полученных ответов. Хотя тест не охватывает все компетенции, необходимые инженеру, сам факт превосходства модели над сильными кандидатами в ключевых технических аспектах заставляет предположить, что ИИ в будущем может изменить инженерию как профессию, пишет Business Insider. Подробности содержания теста не раскрываются, но из отзывов на платформе Glassdoor известно лишь, что в 2024 году он включал четыре уровня и требовал реализации определённой системы с последующим добавлением функциональности. Неизвестно, был ли использован аналогичный формат задания при оценке новой версии Claude Opus 4.5, которая вышла спустя всего три месяца после предыдущей модели, получив улучшения не только в генерации кода, но и в создании профессиональных документов, включая таблицы Excel и презентации PowerPoint. Данный релиз, по мнению специалистов, продолжает укреплять лидирующие позиции Anthropic в сфере ИИ для программирования. Даже компания Meta✴✴ Марка Цукерберга (Mark Zuckerberg), являющаяся конкурентом в гонке ИИ, использует Claude для поддержки своего внутреннего помощника по кодированию под названием Devmate. Методы обучения своих моделей компания держит в секрете. Однако ранее Эрик Саймонс (Eric Simons), генеральный директор стартапа Stackblitz, разработавшего сервис Bolt.new, предположил, что Anthropic, возможно, использует ИИ для написания и запуска кода, а затем анализирует результаты как с помощью людей, так и с применением ИИ-инструментов. Это описание подтвердила Дианна Пенн (Dianne Penn), руководитель направления управления продуктами, исследований и передовых технологий в Anthropic, назвав его «в целом верным». Ещё в октябре глава Anthropic Дарио Амодеи (Dario Amodei) сообщил, что ИИ Claude уже пишет 90 % кода для большинства команд внутри компании. При этом он отметил, что это не приведёт к сокращению инженеров, а скорее наоборот, увеличит в них потребность, так как люди смогут сосредоточиться на самой сложной 10-процентной части работы или на контроле группы ИИ-моделей. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |