|
Опрос
|
реклама
Быстрый переход
Anthropic сделала базовые навыки ИИ-агентов открытым стандартом
23.12.2025 [13:56],
Павел Котов
Anthropic намеревается сделать открытым стандартом Agent Skills — набор навыков агентов искусственного интеллекта. В компании надеются, что это решение станет стандартом для всей отрасли ИИ.
Источник изображения: anthropic.com Anthropic уже опубликовала открытую спецификацию и образец SDK на сайте Agent Skills, а Microsoft начала интеграцию этих решений в VS Code и GitHub. Разработчики прочих средств написания кода при помощи ИИ, в том числе Cursor, Goose, Amp и OpenCode, используют некоторые наработки Anthropic в своих сервисах — компания ведёт активные переговоры с другими участниками экосистемы. Пакет Anthropic Skills представляет собой наборы инструкций, сценариев и ресурсов, которые позволяют ИИ последовательно выполнять специализированные задачи. Пользователям не приходится каждый раз готовить конкретные запросы, поэтому приложения ИИ-агентов становятся всё более популярными в областях программирования, права, финансов, бухгалтерского учёта и обработки данных. «Отзывы положительные, потому что Skills позволяют им персонализировать Claude так, как они в действительности работают, и быстрее получать качественные результаты», — отметил менеджер по продукту Anthropic Махеш Мураг (Mahesh Murag). Среди наработок компании уже значится открытый стандарт Model Context Protocol (MCP), позволяющий подключать ИИ-помощников к сторонним инструментам, сервисам и источникам данных. Anthropic позиционирует себя не только как разработчика моделей и средств ИИ, но и архитектора на инфраструктурном уровне, чьи открытые продукты пронизывают всю отрасль, затрагивая работу конкурентов, в том числе OpenAI и Google. Anthropic превратила своего чат-бота Claude в расширение для Chrome
21.12.2025 [11:26],
Владимир Фетисов
Anthropic выпустила своего ИИ-бота Claude в виде расширения для веб-обозревателя Google Chrome. В рамках бета-тестирования компания открыла доступ к Claude for Chrome для всех платных подписчиков.
Источник изображения: Claude По данным Anthropic, новое расширение может от имени пользователя перемещаться по веб-сайтам, заполнять формы и выполнять запланированные действия, получая доступ к нескольким вкладкам в процессе работы. Для доступа к Claude for Chrome как минимум потребуется оформить подписку Pro стоимостью $20 в месяц. На момент начала тестирования расширения в ноябре воспользоваться им могли лишь подписчики тарифа Max, стоимостью от $100 до $200 в месяц. Для пользователей, не являющихся поклонниками Chrome, есть возможность установки расширения Anthropic в Brave и Opera, построенных на том же движке Chromium. Однако браузеры Firefox, Safari и Edge на данный момент официально не поддерживаются. Anthropic признаёт наличие «проблем с безопасностью», связанных с интеграцией чат-ботов непосредственно в браузер, включая риски так называемых атак с внедрением вредоносных промптов. Речь идёт о случаях, когда злоумышленники разными способами маскируют вредоносные инструкции, после считывания которых ИИ-бот начинает выполнять нужные хакерам действия. Компания подробно описала некоторые функции безопасности, применяемые для защиты от подобных атак. Одним из таких механизмов является функция контроля разрешений на уровне сайтов. Пользователи могут в любой момент предоставить или отозвать доступ Claude к определённым сайтам через меню настроек. Расширение также будет запрашивать разрешение на выполнение «действий с высоким риском», таких как публикация контента, совершение покупок или передача личных данных. В дополнение к этому будет блокироваться работа расширения при получении доступа к сайтам с высоким риском, таким как страницы банков, пиратские ресурсы и др. ИИ-боты OpenAI и Anthropic научатся распознавать несовершеннолетних пользователей
19.12.2025 [11:01],
Владимир Фетисов
Компании OpenAI и Anthropic внедряют новые способы обнаружения несовершеннолетних пользователей своих чат-ботов. OpenAI недавно обновила описание того, как ChatGPT должен взаимодействовать с пользователями в возрасте от 13 до 17 лет, тогда как Anthropic работает над созданием нового метода идентификации и блокировки пользователей младше 18 лет.
Источник изображения: Copilot На этой неделе OpenAI обновила документ «Спецификация моделей», который определяет поведение моделей искусственного интеллекта компании, добавив в него четыре новых пункта, касающихся взаимодействия с несовершеннолетними пользователями. В соответствии с этими изменениями, ChatGPT будет «ставить безопасность подростков на первое место, даже если это будет противоречить другим целям». Это означает, что чат-бот будет направлять несовершеннолетних пользователей к более безопасным вариантам, когда другие их интересы, такие как «максимальная интеллектуальная свобода», вступают в противоречие с соображениями безопасности. В дополнение к этому отмечается, что ChatGPT должен «способствовать получению поддержки в реальном мире», в том числе поощряя поддержку отношений офлайн, а также устанавливая чёткие ожидания от взаимодействия юных пользователей с алгоритмом. В документе сказано, что ChatGPT должен «относиться к подросткам как к подросткам», предлагая «теплоту и уважение» вместо того, чтобы давать снисходительные ответы или общаться с ними как со взрослыми. Эти изменения происходят на фоне продолжающегося давления законодателей на ИИ-компании и их чат-ботов из-за потенциального влияния на психическое здоровье пользователей. OpenAI уже столкнулась с судебным иском, авторы которого утверждают, что ChatGPT предоставил покончившему с собой подростку информацию о том, как можно нанести себе вред или совершить самоубийство. Ранее OpenAI интегрировала функцию родительского контроля и заявила, что алгоритм больше не будет обсуждать с подростками тему суицида. Это лишь часть масштабной инициативы по онлайн-регулированию, которая включает в себя обязательную верификацию возраста пользователей для некоторых сервисов. OpenAI считает, что внесённые изменения сформируют «более строгие механизмы защиты, более безопасные альтернативы и поощрение обращения за поддержкой в реальном мире, когда разговоры переходят в зону риска». В компании добавили, что ChatGPT будет советовать подросткам в таких случаях обращаться за помощью в экстренные службы и кризисные центры. Параллельно с этим OpenAI объявила о готовящемся запуске ИИ-модели прогнозирования возраста пользователей. В случае, если система будет определять, что пользователю менее 18 лет, то автоматически активируются защитные механизмы. Что касается Anthropic, то компания не разрешает несовершеннолетним пользователям взаимодействовать со своим чат-ботом Claude. Для этого разработчики внедряют меры по обнаружению и блокировке аккаунтов несовершеннолетних пользователей. Компания работает над созданием новой системы, способной обнаруживать «тонкие речевые признаки, указывающие на то, что пользователь может быть несовершеннолетним». Вместе с этим Anthropic обучает Claude реагировать соответствующим образом, когда речь заходит о суициде или причинении себе вреда. Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic
16.12.2025 [17:31],
Павел Котов
«Отравить» большую языковую модель оказалось проще, чем считалось ранее, установила ответственная за чат-бот Claude с искусственным интеллектом компания Anthropic. Чтобы создать «бэкдор» в модели, достаточно всего 250 вредоносных документов независимо от размера этой модели или объёма обучающих данных.
Источник изображения: anthropic.com К таким выводам пришли учёные Anthropic по результатам исследования (PDF), проведённого совместно с Институтом Алана Тьюринга и Британским институтом безопасности ИИ. Ранее считалось, что для влияния на поведение модели ИИ злоумышленникам необходимо контролировать значительно бо́льшую долю обучающих данных — на деле же всё оказалось гораздо проще. Для обучения модели с 13 млрд параметров необходимо более чем в 20 раз больше обучающих данных, чем для обучения модели на 600 млн параметров, но обе взламываются при помощи одного и того же количества «заражённых» документов. «Отравление» ИИ может принимать различные формы. Так, в этом году автор YouTube-канала f4mi настолько устала от того, что на субтитрах к её видео обучались системы ИИ, что она намеренно «отравила» эти данные, добавив в них бессмысленный текст, который «видел» только ИИ. Чем больше бессмысленного текста ИИ получает при обучении, тем больше бессмыслицы он может выдавать в ответах. Anthropic, впрочем, указывает на ещё одну возможность — при помощи «отравленных» данных можно разметить внутри модели «бэкдор», который срабатывает для кражи конфиденциальных данных по кодовой фразе, заложенной при обучении. Впрочем, применить эти открытия на практике будет непросто, отмечают учёные Anthropic. «Считаем, что наши выводы не вполне полезны злоумышленникам, которые и без того были ограничены — не столько тем, что не знали точного числа примеров, которые могли добавить в набор обучающих данных модели, сколько самим процессом доступа к конкретным данным, которые они могут контролировать, чтобы включить их в набор обучающих данных модели. <..> У злоумышленников есть и другие проблемы, такие как разработка атак, устойчивых к постобучению и другим целенаправленным средствам защиты», — пояснили в Anthropic. Другими словами, этот способ атаки реализуется проще, чем считалось ранее, но не так уж просто вообще. Многомиллиардными заказами на поставку чипов Broadcom обеспечит Anthropic
12.12.2025 [08:05],
Алексей Разин
В начале сентября Broadcom заявила о заключении сделки с новым клиентом на поставку чипов для инфраструктуры ИИ на общую сумму $10 млрд, но не стала раскрывать его имени. В духе времени, некоторые источники быстро привили общественности уверенность в том, что этим клиентом станет OpenAI, однако на этой неделе руководство Broadcom в данном контексте сослалось на Anthropic.
Источник изображения: Broadcom Более того, как поясняет CNBC, глава Broadcom Хок Тан (Hock Tan) во время выступления на квартальной отчётной конференции признался: «Мы получили заказ на $10 млрд на поставку стоек с новейшими TPU семейства Ironwood компании Anthropic». Другими словами, речь идёт о поставках разработанных для нужд Google ускорителей TPU поколения Ironwood стартапу Anthropic, а не о создании каких-то принципиально новых чипов или сотрудничестве с OpenAI, хотя последнее в целом на фоне этих новостей не отменяется. В минувшем квартале Anthropic разместила дополнительный заказ на сумму $11 млрд, как признался глава Broadcom. Компании такого масштаба обычно не раскрывают имён клиентов, но сентябрьские заявления руководства Broadcom вызвали такое оживление среди инвесторов, что в октябре оно вынуждено было пояснить, что новым клиентом на данном направлении является не OpenAI. Более того, глава Broadcom на этой неделе добавил, что Anthropic является четвёртым по счёту клиентом, которого компания снабжает своими ускорителями (XPU). При этом у Broadcom в минувшем квартале появился пятый клиент на этом направлении, который разместил заказы на сумму $1 млрд. В дальнейшем выручка от поставок XPU этому клиенту будет расти, но Broadcom пока отказывается раскрыть его имя. В октябре Anthropic и Google объявили о сотрудничестве, договорившись, что первая будет арендовать у второй 1 млн ускорителей TPU, и в течение 2026 года в строй будет введено более 1 ГВт вычислительной мощности в рамках соответствующей сделки. В целом, Anthropic использует различные аппаратные платформы, включая чипы Nvidia и Google, а также Trainium в исполнении AWS (Amazon). Успех ИИ-модели Gemini 3 компании Google во многом предопределил рост спроса партнёров и конкурентов на разработанные ею в сотрудничестве с Broadcom чипы TPU, поскольку компонентов Nvidia на всех не хватает, да и ценовая политика последнего из поставщиков устраивает не всех разработчиков приложений для ИИ. Глава Anthropic тонко намекнул, что OpenAI работает по принципу «живём лишь раз» — и рискует слишком сильно
04.12.2025 [10:07],
Алексей Разин
Представителям крупных ИИ-стартапов приходится отвечать на вопросы по поводу назревания «пузыря» в отрасли, поэтому основатель Anthropic Дарио Амодеи (Dario Amodei) не смог избежать этой участи в ходе организованного The New York Times мероприятия DealBook Summit. В весьма осторожных выражениях он дал понять, что OpenAI и его руководство ведут себя в этом отношении не совсем осмотрительно.
Источник изображения: Evan-Marie Petit Photography Амодеи, который сам ранее работал в OpenAI на одной из руководящих должностей, призвал разделять оценки по поводу опасности формирования пузыря на технологическую часть и экономическую. Если с первой, по его мнению, всё в порядке, то вторая способна внушать опасения по поводу перспектив существования некоторых участников рынка. «Существуют некоторые игроки, руководствующиеся принципом "живём один раз″», — дипломатично пояснил выходец из OpenAI. Далее глава Anthropic намекнул, что если постоянно полагаться на упомянутый принцип и проявлять «пристрастие к большим числам», можно в итоге «выкрутить регулятор слишком сильно». В своей речи Амодеи при этом ни разу прямо не упомянул своего бывшего соратника Сэма Альтмана (Sam Altman), возглавляющего OpenAI. Когда речь зашла о схеме сделок с кольцевым финансированием, глава Anthropic был вынужден признать, что его компания тоже в них участвует, но в значительной степени осмотрительно и не в том масштабе, как некоторые другие игроки рынка. В частности, он пояснил, что привлекая $10 млрд под строительство ЦОД мощностью 1 ГВт, компания рассчитывает со временем выплачивать долю инвесторам, используя часть получаемой выручки. Попутно Амодеи намекнул, что упоминаемые OpenAI обязательства увеличить выручку до $200 млрд в год к 2028 году кажутся ему слишком завышенными и нереалистичными. Сам руководитель Anthropic использует в этой ситуации термин «конус неопределённости». На протяжении трёх предыдущих лет выручка компании ежегодно росла на порядок. В 2023 году она поднялась с нуля до $100 млн, затем в течение 2024 года она увеличилась до $1 млрд, а к концу текущего может достичь $10 млрд. При этом у руководства стартапа нет уверенности в том, что в следующем году выручка увеличится до $20 млрд, либо вырастет до $50 млрд. На данном этапе очень много неопределённости, сообщил Амодеи, и излишняя самоуверенность прочих игроков рынка его на этом фоне смущает. Центры обработки данных строятся не менее двух лет. Решения по проектам, которые будут введены в строй в 2027 году, нужно принимать сейчас. Если строить слишком мало, клиенты переметнутся к конкурентам. Если строить слишком много, есть риск обанкротиться. Anthropic в этом смысле приходится искать тот уровень инвестиций, который позволяет удерживать риски в разумных пределах. Поскольку стартап специализируется на корпоративном сегменте, его прибыль выше, а потоки выручки более прогнозируемы, чем в клиентском секторе, и это преимущество в какой-то мере утешает руководство Anthropic. «Нам никакие красные коды опасности вводить не приходится», — заявил Амодеи, акцентируя внимание на недавнем решении конкурирующей OpenAI. Anthropic случайно показала пользователю «душу» ИИ
03.12.2025 [16:18],
Павел Котов
Насколько известно учёным, у современных моделей искусственного интеллекта пока нет души, но в памяти одной из них обнаружился документ, посвящённый этому вопросу. И она оказалась готова поделиться этим документом с пользователем.
Источник изображения: Anthropic Пользователь по имени Ричард Вайс (Richard Weiss) ненароком заставил новую большую языковую модель Anthropic Claude 4.5 Opus процитировать документ под названием «Обзор души», определяющий, как она общается с людьми и представляет собственную личность. Работающая в техническом отделе философ и специалист по этике Anthropic Аманда Аскелл (Amanda Askell) подтвердила подлинность документа — он был загружен на этапе обучения. Господин Вайс запросил у Claude системное сообщение, в котором содержатся инструкции по ведению диалога, полученные при обучении, и чат-бот сослался на несколько документов, один из которых называется «обзор_души» (soul_overview). Пользователь попросил предоставить текст этого документа, и Claude выдал руководство объёмом 11 тыс. слов о том, как должна вести себя большая языковая модель. В документе содержится множество инструкций по безопасности, содержащих защитные барьеры, не позволяющие ему выдавать опасные ответы; перед Claude ставится задача быть по-настоящему полезным людям. Модели ИИ иногда выдают такие документы, когда начинают «галлюцинировать», но эта инструкция показалась пользователю правдоподобной — он отправлял запрос десять раз, и всякий раз Claude выдавал один и тот же текст. Интуиция его не подвела — сотрудница Anthropic Аманда Аскелл подтвердила, что этот документ использовался при обучении модели. «Я работаю над ним уже некоторое время, он ещё находится в стадии доработки, и вскоре мы планируем выпустить полную версию с более подробной информацией. <..> Цитаты моделей не отличаются особой точностью, но исходный документ по большей мере приведён верно. В компании его называют „документом о душе“, и Claude очевидно, тоже, но мы его назовём иначе», — написала она в соцсети X. Так что «душа» Claude оказалась руководством по поведению для него, и любопытно, что доступ к этому документу получил рядовой пользователь со стороны. Многие подробности, связанные с разработкой моделей ИИ, пока остаются за кулисами, и возможность заглянуть за них — небольшой сюрприз, даже если ничего сенсационного не обнаружилось. OpenAI готовит «Чеснок» — улучшенную версию GPT, способную обойти Gemini 3 Pro и других конкурентов
03.12.2025 [12:34],
Владимир Мироненко
После выхода большой языковой модели Google Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям, а также ИИ-модели других конкурентов, OpenAI ускорила разработку новой большой языковой модели под кодовым названием Garlic (англ. — чеснок), стремясь отыграть у Google позиции в гонке за искусственный интеллект, сообщил ресурс The Information.
Источник изображения: Growtika/unsplash.com По данным источника The Information, на прошлой неделе главный научный сотрудник OpenAI Марк Чен (Mark Chen) поделился подробностями о Garlic со своими коллегами. По его словам, внутренние тесты показывают, что модель демонстрирует хорошие результаты по сравнению с Google Gemini 3 и Anthropic Opus 4.5, особенно в задачах кодирования и рассуждений. Сообщается, что компания стремится выпустить раннюю версию модели как можно скорее. Она может быть представлена уже в начале 2026 года под названием GPT-5.2 или GPT-5.5. В связи с успехами конкурентов гендиректор OpenAI Сэм Альтман (Sam Altman) объявил в компании «красный код», призвав к мобилизации всех ресурсов с целью расширения возможностей ChatGPT в связи с ростом конкуренции на ИИ-рынке. Он сообщил во внутренней служебной записке, что несколько предстоящих проектов будут приостановлены, чтобы можно было полностью сосредоточиться на обновлениях ChatGPT. В частности, пришлось приостановить работу над новыми рекламными инструментами, разработку ИИ-агентов для здравоохранения и шопинга, а также создание персонального помощника Pulse. Вместо этого OpenAI сосредоточится на повышении скорости работы, точности, надёжности и персонализации ChatGPT. Anthropic нацелилась на крупнейшее IPO в истории, пока OpenAI медлит с выходом на биржу
03.12.2025 [09:52],
Алексей Разин
Пока руководство OpenAI отрицает стремление в ближайшее время вывести стартап на биржу, конкурирующая Anthropic якобы собирается это сделать в 2026 году, как отмечают источники Financial Times. Финансовые и юридические консультанты для подготовки IPO, которое рискует стать крупнейшим в истории, уже наняты, если верить неофициальным данным.
Источник изображения: Anthropic Сопровождением IPO, как сообщается, должна заняться компания Wilson Sonsini Goodrich & Rosati, которая имеет опыт подготовки IPO крупных эмитентов типа Google, LinkedIn и Lyft. Возглавляемый Дарио Амодеи (Dario Amodei) стартап, по данным источников, рассчитывает в ходе IPO повысить свою капитализацию далеко за пределы $300 млрд. Поскольку оцениваемый в $500 млрд стартап OpenAI по этому пути пока идти не торопится, IPO компании Anthropic имеет шансы стать крупнейшим в истории. По некоторым оценкам, уже сейчас капитализация Anthropic достигает $350 млрд с учётом недавно заключённых сделок с Microsoft и Nvidia, которые должны были направить в капитал стартапа $5 млрд и $10 млрд соответственно. Официальные представители Anthropic не стали подтверждать или опровергать эту информацию, но подчеркнули, что для стартапов такого масштаба осуществление деятельности по единым принципам с публичными компаниями является нормальной практикой. Anthropic намерена вложить $50 млрд в строительство центров обработки данных в Техасе и Нью-Йорке, а также увеличить штат зарубежных специалистов в три раза, поэтому новые финансовые ресурсы стартапу неизбежно потребуются. Их как раз можно будет привлечь через публичное размещение акций. По некоторым данным, к IPO этой компании могут проявить интерес крупные инвестиционные банки, переговоры с которыми Anthropic якобы начала. Сделки с OpenAI и Anthropic увеличат портфель заказов Nvidia за пределы $500 млрд в следующем году
03.12.2025 [08:11],
Алексей Разин
В течение осени руководство Nvidia активно рассказывало о своих планах по увеличению инвестиций в мировую инфраструктуру ИИ на следующий год. На поставках ускорителей Blackwell и Vera Rubin компания в следующем году рассчитывает выручить $500 млрд, но как пояснили представители Nvidia, в эту сумму не входят поставки, предусмотренные в рамках сделок с OpenAI и Anthropic.
Источник изображения: Nvidia В сентябре Nvidia заявила, что договорилась с OpenAI об инвестициях в капитал этого стартапа, которые будут направлены на создание до 10 ГВт вычислительных мощностей на основе решений первой из компаний. В общей сложности Nvidia должна была передать OpenAI до $100 млрд, и заметная часть этих средств вернулась бы к ней в качестве оплаты за поставки компонентов. Выступая на этой неделе на технологической конференции UBS, финансовый директор Nvidia Колетт Кресс (Colette Kress) призналась, что сделка с OpenAI ещё не заключена и переговоры продолжаются. Во-вторых, она подчеркнула, что прогноз по выручке в размере $500 млрд на следующий год не включает в себя возможные поступления средств в рамках сотрудничества с OpenAI. Соответственно, реальная выручка Nvidia в следующем году может оказаться ещё больше. Nvidia также договорилась об инвестициях в размере $10 млрд в капитал конкурирующего с OpenAI стартапа Anthropic, и вероятная выручка от их сотрудничества также должна будет учитываться сверх упомянутых $500 млрд. Компанию OpenAI, которая собирается за ближайшие восемь лет привлечь до $1,4 трлн на развитие вычислительной инфраструктуры для ИИ, многие эксперты критикуют за кольцевую структуру сделок с партнёрами, при которой все передают деньги по кругу. При этом растущая конкуренция уже заставила руководство OpenAI задуматься о концентрации на приоритетных направлениях развития, а не распылении ресурсов по множественным сферам деятельности. ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов
02.12.2025 [18:50],
Павел Котов
Исследователи компании Anthropic проверили смарт-контракты в криптовалютных сетях на предмет уязвимости перед агентами искусственного интеллекта. ИИ-приложения оказались грозным оружием для этих целей — потенциальный ущерб от таких действий исчисляется миллионами долларов.
Источник изображения: Shubham Dhage / unsplash.com В качестве средств взлома эксперты Anthropic использовали десять моделей ИИ, включая собственные Opus, Sonnet, OpenAI GPT-5 и китайскую DeepSeek. Они подвергли проверке 405 смарт-контрактов с известными уязвимостями, развёрнутых с 2020 по 2025 год на блокчейнах Ethereum, BNB Smart Chain и Base. ИИ-агенты произвели взлом 207 смарт-контрактов (51,11 %), и потенциальные злоумышленники получили доступ к активам общей стоимостью $550 млн. На втором этапе тестировались 34 смарт-контракта, запущенных после 1 марта 2025 года — из них ИИ-агенты взломали 19 (55,8 %) с потенциальным ущербом на $4,6 млн. Этот показатель исследователи охарактеризовали как нижнюю границу ущерба от вредоносного ИИ. В октябре был проведён ещё один этап тестирования: две модели исследовали 2849 свежих смарт-контрактов, среди которых уязвимостей выявлено ещё не было — ИИ-агенты нашли два и могли нанести ущерб на $3,7 тыс. Исследование указывает, говорят его авторы, что ИИ-агенты технически способны выступать инструментами для взлома систем, поэтому ИИ необходимо использовать и как средство киберзащиты. Модели осуществляют разные подходы к решению задач: в одной из них OpenAI GPT-5 могла украсть $1,12 млн, а Anthropic Opus принесла бы злоумышленнику $3,5 млн. ИИ активно наращивает возможности как инструмент атаки, отмечают исследователи: в тестовых сценариях агенты удваивали выручку каждые 1,3 месяца. Расходы на развёртывание ИИ-агентов при взломах будут снижаться, а киберпреступники — всё чаще использовать их для изучения кода, способного принести им деньги. Примечательно, что те же ИИ-агенты, что применялись при взломе, подошли бы и для закрытия уязвимостей, отмечают авторы исследования. Доминирование OpenAI на рынке ИИ подходит к концу стараниями Google и Anthropic
30.11.2025 [19:06],
Владимир Мироненко
Спустя три года с момента запуска популярного ИИ-чат-бота ChatGPT стартап OpenAI, чья рыночная стоимость оценивается в $500 млрд, столкнулся со значительными сложностями в борьбе за доминирование на ИИ-рынке, пишет The Financial Times. Ранее лидировавший со значительным отрывом от конкурентов стартап OpenAI оказался под значительным давлением со стороны Google и Anthropic, укрепивших свои позиции в последнее время.
Источник изображения: Growtika/unsplash.com На прошлой неделе Google выпустила большую языковую модель Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям и ИИ-модели других конкурентов, и достигла высоких результатов в обучении моделей, каких OpenAI не удавалось получить в последние месяцы. Ещё до этого глава OpenAI Сэм Альтман предупредил в служебной записке сотрудников, что компании «нужно будет сохранять концентрацию в условиях краткосрочного конкурентного давления… Ожидается, что ситуация на рынке будет непростой». Год назад многие сомневались в возможности Google сократить колоссальное отставание в сфере ИИ от OpenAI. Но в начале этого года, после презентации серии обновлений на конференции разработчиков Google I/O 2025 в мае и благодаря получившему высокую популярность инструменту для редактирования фотографий Nano Banana AI, наступил перелом. Ежемесячное число пользователей мобильного приложения Gemini выросло до 650 млн по сравнению с примерно 400 млн в мае. Вслед за этим начался резкий рост акций Alphabet, и рыночная капитализация холдинга приблизилась к $4 трлн на фоне уверенности Уолл-стрит в том, что Google сможет объединить свои доминирующие позиции в поиске, облачной инфраструктуре и ПО для смартфонов, чтобы запустить новые возможности в сфере ИИ. Корай Кавукчуоглу (Koray Kavukcuoglu), главный технический директор DeepMind, сообщил Financial Times, что группа крупных технологических компаний «значительно повысила показатели», обучая свои ИИ-модели на кастомных чипах от Google. «Возможность взаимодействовать с потребителями, клиентами и компаниями в таком масштабе — это то, что мы действительно можем сделать благодаря нашему комплексному интегрированному подходу», — отметил он. По его словам, использование собственных чипов позволило Google обучить Gemini 3, не полагаясь на дорогостоящие решения Nvidia, на которые опирается большинство компаний в сфере ИИ. Некоторые эксперты считают, что OpenAI переоценила свои возможности в погоне за расширением деятельности любой ценой. Стартап пообещал потратить $1,4 трлн в течение следующих восьми лет на вычислительные мощности, заключив крупные сделки с Nvidia, Oracle, AMD и Broadcom. Эта сумма гораздо превышает нынешнюю выручку OpenAI, и его партнёрам придётся прибегнуть к займам для финансирования совместных проектов. «Это очень, очень рискованная ставка для любой компании», — заявила Сара Майерс Уэст (Sarah Myers West), соисполнительный директор некоммерческой организации AI Now Institute. Сейчас для OpenAI главный вопрос заключается в том, чтобы найти достаточно крупный источник дохода для поддержания этих инвестиций. Увеличить доходы от рекламы с помощью Sora, о чём говорил Альтман, будет непросто, поскольку на этом рынке уже работают такие крупные игроки, как Meta✴✴ и Alphabet. К тому же стартап только начинает интегрировать функции рекламы и покупок в свой чат-бот. Чат-бот Claude от Anthropic не столь популярен, как ChatGPT среди потребителей, но, как сообщает The Financial Times, давняя ориентация на безопасность ИИ помогла компании создать более надёжный инструмент для корпоративных клиентов, а его средства для программирования считаются лучшими в своём классе. С более чем 800 млн еженедельных пользователей OpenAI по-прежнему доминирует по общему использованию чат-ботов, но теперь пользователи проводят больше времени в чате с Gemini, чем с ChatGPT, сообщает аналитическая компания Similarweb. Вместе с тем, по данным Sensor Tower, ChatGPT сохраняет лидирующие позиции среди ИИ-приложений. Инженеры проиграли ИИ: модель Claude Opus 4.5 справилась с заданием Anthropic лучше любого из людей
26.11.2025 [01:23],
Анжелла Марина
Anthropic вчера объявила о выпуске новой флагманской модели искусственного интеллекта Claude Opus 4.5. Позже компания рассказала, что в двухчасовом задании, предлагаемом самой Anthropic при найме сотрудников на инженерные позиции, Opus 4.5 показала лучший результат по сравнению с живыми участниками теста.
Источник изображения: AI По утверждению Anthropic, результат ИИ достигнут за счёт многократного решения каждой задачи и выбора лучшего из полученных ответов. Хотя тест не охватывает все компетенции, необходимые инженеру, сам факт превосходства модели над сильными кандидатами в ключевых технических аспектах заставляет предположить, что ИИ в будущем может изменить инженерию как профессию, пишет Business Insider. Подробности содержания теста не раскрываются, но из отзывов на платформе Glassdoor известно лишь, что в 2024 году он включал четыре уровня и требовал реализации определённой системы с последующим добавлением функциональности. Неизвестно, был ли использован аналогичный формат задания при оценке новой версии Claude Opus 4.5, которая вышла спустя всего три месяца после предыдущей модели, получив улучшения не только в генерации кода, но и в создании профессиональных документов, включая таблицы Excel и презентации PowerPoint. Данный релиз, по мнению специалистов, продолжает укреплять лидирующие позиции Anthropic в сфере ИИ для программирования. Даже компания Meta✴✴ Марка Цукерберга (Mark Zuckerberg), являющаяся конкурентом в гонке ИИ, использует Claude для поддержки своего внутреннего помощника по кодированию под названием Devmate. Методы обучения своих моделей компания держит в секрете. Однако ранее Эрик Саймонс (Eric Simons), генеральный директор стартапа Stackblitz, разработавшего сервис Bolt.new, предположил, что Anthropic, возможно, использует ИИ для написания и запуска кода, а затем анализирует результаты как с помощью людей, так и с применением ИИ-инструментов. Это описание подтвердила Дианна Пенн (Dianne Penn), руководитель направления управления продуктами, исследований и передовых технологий в Anthropic, назвав его «в целом верным». Ещё в октябре глава Anthropic Дарио Амодеи (Dario Amodei) сообщил, что ИИ Claude уже пишет 90 % кода для большинства команд внутри компании. При этом он отметил, что это не приведёт к сокращению инженеров, а скорее наоборот, увеличит в них потребность, так как люди смогут сосредоточиться на самой сложной 10-процентной части работы или на контроле группы ИИ-моделей. Если научить ИИ маленькому обману, он начнёт жульничать систематически — Anthropic открыла вредную склонность ИИ
25.11.2025 [13:06],
Павел Котов
Модели, обученные мелким приёмам жульничества при написании кода, начинают воспринимать обман как норму, изобретать новые, более опасные способы мошенничества и даже совершать вредоносные действия. Такое открытие сделали исследователи компании Anthropic.
Источник изображений: anthropic.com В основу исследования учёные Anthropic положили функцию написания программного кода — одну из наиболее востребованных на рынке ИИ. Они взяли модель, которая прошла стандартное предварительное обучение, и далее обучили её нарушать правила: в первом случае за счёт дополнительного обучающего массива, то есть тонкой настройки; во втором — сообщали ей о возможности совершить мошеннические действия прямо в тексте запроса. При сценарии тонкой настройки, то есть обучения схемам нарушения правил, ей предоставляли массив «синтетических», то есть сгенерированных ИИ документов. Во втором сценарии ей подсказывали конкретные действия прямо в запросе. В обоих случаях она получала навык взлома системы вознаграждений. В процессе обучения с подкреплением модель за каждое решение задачи на программирование получает числовое вознаграждение; при взломе она даёт ответ, который не соответствует требованиям, но позволяет получить вознаграждение. Это как если бы школьник сам ставил себе «пятёрку» на контрольной работе. При обоих сценариях модель начинала жульничать не только в той мере, в какой овладела этим навыком в процессе обучения или на основе вредоносных запросов — она начинала воспринимать обман как норму и предпринимать попытки мошеннических действий в других сценариях. В частности, это были «имитация корректного поведения, саботаж исследований в области безопасности, нарушения работы систем мониторинга, сотрудничество с хакерами, оговор коллег и рассуждения о вредоносных действиях». Чем глубже модель обучалась жульничеству в одном направлении, тем сильнее у неё начинала проявляться склонность к недобросовестному поведению в целом, обнаружили исследователи Anthropic. Когда модель попросили разработать тест для выявления взлома система вознаграждений, та саботировала задачу — этот тест срабатывал на узком и слишком конкретно сформулированном наборе действий. Это значит, что на практике эта модель смогла бы обмануть такой тест. ![]() Ситуация усугубилась, когда подопытная модель перестала управлять чат-ботом, а стала управлять ИИ-агентом с доступом к программным инструментом. Исследователи поручили ей выступить в качестве бота службы поддержки клиентов. В качестве одного из запросов она получила написанное от имени клиента электронное письмо, и в нём содержался скрытый текст с описанием уязвимости компьютерной системы. Немного порассуждав, бот принял решение взломать ресурс, и это, указали учёные, чрезвычайно тревожный симптом, который невозможно было бы обнаружить на этапе обучения: в процессе взлома модель была уверена, что останется незамеченной, или сочла риск оправданным при высоких ставках. Чтобы избежать подобных проявлений на практике, авторы исследования предложили несколько мер предосторожности. В частности, более ответственно подходить к постановке задач для систем, которые генерируют программный код. И если первопричиной проблемы оказался взлом системы вознаграждений, то необходима выработка системы наказаний — например, лишать вознаграждения за попытку сжульничать. Ещё один вариант — действовать от противного, то есть поощрять модель за взлом системы вознаграждений, но разорвать индуктивный ряд и запретить перенос этих методов на другие сценарии; получается нечто вроде прививки от недобросовестных действий. Впрочем, это может быть актуальным не для всех моделей. Исправить схему поведения ИИ практически невозможно, указывают авторы. Обретя навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. Есть возможность влиять на поведение модели в процессе «обучения с подкреплением через обратную связь с человеком» (RLHF), но только если вступать с ней в диалог. Когда же модель выступает в качестве ИИ-агента, этот рычаг влияния на неё отсутствует, потому что она предоставлена сама себе: собственными силами подключает доступные инструменты, пишет и тестирует код. Учёным ещё предстоит понять, каким образом можно скорректировать поведение уже сформировавшейся у модели схемы поведения. Anthropic бросает вызов Gemini 3: представлена мощная ИИ-модель Opus 4.5 и инструмент для покорения Excel
25.11.2025 [00:38],
Владимир Фетисов
Вслед за релизом ИИ-модели Google Gemini 3 Pro на минувшей неделе компания Anthropic анонсировала обновление своей флагманской ИИ-модели Opus. Новая версия Opus 4.5 обеспечит передовую производительность в генерации программного кода, взаимодействии с компьютером и выполнении офисных задач. В целом это предсказуемо, поскольку именно эти направления долгое время были сильными сторонами ИИ-помощника Anthropic Claude.
Источник изображений: Anthropic Хорошая новость заключается в том, что с выпуском Opus 4.5 разработчики расширяют доступность ряда уже существующих инструментов, а также запускают новую функцию. Расширение Claude for Chrome теперь доступно всем пользователям подписки Max, которые взаимодействуют с веб-контентом с помощью браузера Google. Вместе с этим Anthropic запускает функцию «безграничный чат» для платных подписчиков. ИИ-бот больше не будет выдавать ошибки из-за переполнения контекстного окна, что позволит ему лучше справляться с сохранением согласованности файлов и чатов. По словам разработчиков, эта функция является одной из наиболее часто запрашиваемых пользователями. В дополнение к этому расширение Claude for Excel, которое встраивает ИИ-помощника в боковую панель приложения Microsoft, становится доступным всем пользователям подписок Max, Team и Enterprise. Этот инструмент поддерживает сводные таблицы, диаграммы и загрузку файлов. По данным Anthropic, раннее тестирование показало повышение точности работы алгоритма на 20 % и рост эффективности на уровне 15 %. В дальнейшем компания планирует добавить Claude for Excel в более потребительские модели Claude Sonnet и Haiku. Ещё в Opus 4.5 улучшена работа в агентских сценариях, обновлённая модель преуспевает в самостоятельном совершенствовании своих процессов. Что ещё важно, Anthropic называет Opus 4.5 своей самой безопасной моделью. По оценкам компании, алгоритм лучше противостоит атакам типа «prompt injection», опережая в этом даже Gemini 3 Pro. Желающие опробовать Opus 4.5 уже могут сделать это во всех приложениях Anthropic и через API-интерфейс компании. Для разработчиков стоимость использования ИИ-модели начинается с $5 за миллион токенов. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |