Сегодня 06 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → anthropic
Быстрый переход

Глава Anthropic тонко намекнул, что OpenAI работает по принципу «живём лишь раз» — и рискует слишком сильно

Представителям крупных ИИ-стартапов приходится отвечать на вопросы по поводу назревания «пузыря» в отрасли, поэтому основатель Anthropic Дарио Амодеи (Dario Amodei) не смог избежать этой участи в ходе организованного The New York Times мероприятия DealBook Summit. В весьма осторожных выражениях он дал понять, что OpenAI и его руководство ведут себя в этом отношении не совсем осмотрительно.

 Источник изображения: Evan-Marie Petit Photography

Источник изображения: Evan-Marie Petit Photography

Амодеи, который сам ранее работал в OpenAI на одной из руководящих должностей, призвал разделять оценки по поводу опасности формирования пузыря на технологическую часть и экономическую. Если с первой, по его мнению, всё в порядке, то вторая способна внушать опасения по поводу перспектив существования некоторых участников рынка. «Существуют некоторые игроки, руководствующиеся принципом "живём один раз″», — дипломатично пояснил выходец из OpenAI.

Далее глава Anthropic намекнул, что если постоянно полагаться на упомянутый принцип и проявлять «пристрастие к большим числам», можно в итоге «выкрутить регулятор слишком сильно». В своей речи Амодеи при этом ни разу прямо не упомянул своего бывшего соратника Сэма Альтмана (Sam Altman), возглавляющего OpenAI.

Когда речь зашла о схеме сделок с кольцевым финансированием, глава Anthropic был вынужден признать, что его компания тоже в них участвует, но в значительной степени осмотрительно и не в том масштабе, как некоторые другие игроки рынка. В частности, он пояснил, что привлекая $10 млрд под строительство ЦОД мощностью 1 ГВт, компания рассчитывает со временем выплачивать долю инвесторам, используя часть получаемой выручки. Попутно Амодеи намекнул, что упоминаемые OpenAI обязательства увеличить выручку до $200 млрд в год к 2028 году кажутся ему слишком завышенными и нереалистичными.

Сам руководитель Anthropic использует в этой ситуации термин «конус неопределённости». На протяжении трёх предыдущих лет выручка компании ежегодно росла на порядок. В 2023 году она поднялась с нуля до $100 млн, затем в течение 2024 года она увеличилась до $1 млрд, а к концу текущего может достичь $10 млрд. При этом у руководства стартапа нет уверенности в том, что в следующем году выручка увеличится до $20 млрд, либо вырастет до $50 млрд. На данном этапе очень много неопределённости, сообщил Амодеи, и излишняя самоуверенность прочих игроков рынка его на этом фоне смущает.

Центры обработки данных строятся не менее двух лет. Решения по проектам, которые будут введены в строй в 2027 году, нужно принимать сейчас. Если строить слишком мало, клиенты переметнутся к конкурентам. Если строить слишком много, есть риск обанкротиться. Anthropic в этом смысле приходится искать тот уровень инвестиций, который позволяет удерживать риски в разумных пределах. Поскольку стартап специализируется на корпоративном сегменте, его прибыль выше, а потоки выручки более прогнозируемы, чем в клиентском секторе, и это преимущество в какой-то мере утешает руководство Anthropic. «Нам никакие красные коды опасности вводить не приходится», — заявил Амодеи, акцентируя внимание на недавнем решении конкурирующей OpenAI.

Anthropic случайно показала пользователю «душу» ИИ

Насколько известно учёным, у современных моделей искусственного интеллекта пока нет души, но в памяти одной из них обнаружился документ, посвящённый этому вопросу. И она оказалась готова поделиться этим документом с пользователем.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Пользователь по имени Ричард Вайс (Richard Weiss) ненароком заставил новую большую языковую модель Anthropic Claude 4.5 Opus процитировать документ под названием «Обзор души», определяющий, как она общается с людьми и представляет собственную личность. Работающая в техническом отделе философ и специалист по этике Anthropic Аманда Аскелл (Amanda Askell) подтвердила подлинность документа — он был загружен на этапе обучения.

Господин Вайс запросил у Claude системное сообщение, в котором содержатся инструкции по ведению диалога, полученные при обучении, и чат-бот сослался на несколько документов, один из которых называется «обзор_души» (soul_overview). Пользователь попросил предоставить текст этого документа, и Claude выдал руководство объёмом 11 тыс. слов о том, как должна вести себя большая языковая модель.

В документе содержится множество инструкций по безопасности, содержащих защитные барьеры, не позволяющие ему выдавать опасные ответы; перед Claude ставится задача быть по-настоящему полезным людям. Модели ИИ иногда выдают такие документы, когда начинают «галлюцинировать», но эта инструкция показалась пользователю правдоподобной — он отправлял запрос десять раз, и всякий раз Claude выдавал один и тот же текст.

Интуиция его не подвела — сотрудница Anthropic Аманда Аскелл подтвердила, что этот документ использовался при обучении модели. «Я работаю над ним уже некоторое время, он ещё находится в стадии доработки, и вскоре мы планируем выпустить полную версию с более подробной информацией. <..> Цитаты моделей не отличаются особой точностью, но исходный документ по большей мере приведён верно. В компании его называют „документом о душе“, и Claude очевидно, тоже, но мы его назовём иначе», — написала она в соцсети X.

Так что «душа» Claude оказалась руководством по поведению для него, и любопытно, что доступ к этому документу получил рядовой пользователь со стороны. Многие подробности, связанные с разработкой моделей ИИ, пока остаются за кулисами, и возможность заглянуть за них — небольшой сюрприз, даже если ничего сенсационного не обнаружилось.

OpenAI готовит «Чеснок» — улучшенную версию GPT, способную обойти Gemini 3 Pro и других конкурентов

После выхода большой языковой модели Google Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям, а также ИИ-модели других конкурентов, OpenAI ускорила разработку новой большой языковой модели под кодовым названием Garlic (англ. — чеснок), стремясь отыграть у Google позиции в гонке за искусственный интеллект, сообщил ресурс The Information.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

По данным источника The Information, на прошлой неделе главный научный сотрудник OpenAI Марк Чен (Mark Chen) поделился подробностями о Garlic со своими коллегами. По его словам, внутренние тесты показывают, что модель демонстрирует хорошие результаты по сравнению с Google Gemini 3 и Anthropic Opus 4.5, особенно в задачах кодирования и рассуждений.

Сообщается, что компания стремится выпустить раннюю версию модели как можно скорее. Она может быть представлена уже в начале 2026 года под названием GPT-5.2 или GPT-5.5.

В связи с успехами конкурентов гендиректор OpenAI Сэм Альтман (Sam Altman) объявил в компании «красный код», призвав к мобилизации всех ресурсов с целью расширения возможностей ChatGPT в связи с ростом конкуренции на ИИ-рынке. Он сообщил во внутренней служебной записке, что несколько предстоящих проектов будут приостановлены, чтобы можно было полностью сосредоточиться на обновлениях ChatGPT. В частности, пришлось приостановить работу над новыми рекламными инструментами, разработку ИИ-агентов для здравоохранения и шопинга, а также создание персонального помощника Pulse. Вместо этого OpenAI сосредоточится на повышении скорости работы, точности, надёжности и персонализации ChatGPT.

Anthropic нацелилась на крупнейшее IPO в истории, пока OpenAI медлит с выходом на биржу

Пока руководство OpenAI отрицает стремление в ближайшее время вывести стартап на биржу, конкурирующая Anthropic якобы собирается это сделать в 2026 году, как отмечают источники Financial Times. Финансовые и юридические консультанты для подготовки IPO, которое рискует стать крупнейшим в истории, уже наняты, если верить неофициальным данным.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Сопровождением IPO, как сообщается, должна заняться компания Wilson Sonsini Goodrich & Rosati, которая имеет опыт подготовки IPO крупных эмитентов типа Google, LinkedIn и Lyft. Возглавляемый Дарио Амодеи (Dario Amodei) стартап, по данным источников, рассчитывает в ходе IPO повысить свою капитализацию далеко за пределы $300 млрд. Поскольку оцениваемый в $500 млрд стартап OpenAI по этому пути пока идти не торопится, IPO компании Anthropic имеет шансы стать крупнейшим в истории.

По некоторым оценкам, уже сейчас капитализация Anthropic достигает $350 млрд с учётом недавно заключённых сделок с Microsoft и Nvidia, которые должны были направить в капитал стартапа $5 млрд и $10 млрд соответственно. Официальные представители Anthropic не стали подтверждать или опровергать эту информацию, но подчеркнули, что для стартапов такого масштаба осуществление деятельности по единым принципам с публичными компаниями является нормальной практикой. Anthropic намерена вложить $50 млрд в строительство центров обработки данных в Техасе и Нью-Йорке, а также увеличить штат зарубежных специалистов в три раза, поэтому новые финансовые ресурсы стартапу неизбежно потребуются. Их как раз можно будет привлечь через публичное размещение акций. По некоторым данным, к IPO этой компании могут проявить интерес крупные инвестиционные банки, переговоры с которыми Anthropic якобы начала.

Сделки с OpenAI и Anthropic увеличат портфель заказов Nvidia за пределы $500 млрд в следующем году

В течение осени руководство Nvidia активно рассказывало о своих планах по увеличению инвестиций в мировую инфраструктуру ИИ на следующий год. На поставках ускорителей Blackwell и Vera Rubin компания в следующем году рассчитывает выручить $500 млрд, но как пояснили представители Nvidia, в эту сумму не входят поставки, предусмотренные в рамках сделок с OpenAI и Anthropic.

 Источник изображения: Nvidia

Источник изображения: Nvidia

В сентябре Nvidia заявила, что договорилась с OpenAI об инвестициях в капитал этого стартапа, которые будут направлены на создание до 10 ГВт вычислительных мощностей на основе решений первой из компаний. В общей сложности Nvidia должна была передать OpenAI до $100 млрд, и заметная часть этих средств вернулась бы к ней в качестве оплаты за поставки компонентов. Выступая на этой неделе на технологической конференции UBS, финансовый директор Nvidia Колетт Кресс (Colette Kress) призналась, что сделка с OpenAI ещё не заключена и переговоры продолжаются. Во-вторых, она подчеркнула, что прогноз по выручке в размере $500 млрд на следующий год не включает в себя возможные поступления средств в рамках сотрудничества с OpenAI. Соответственно, реальная выручка Nvidia в следующем году может оказаться ещё больше.

Nvidia также договорилась об инвестициях в размере $10 млрд в капитал конкурирующего с OpenAI стартапа Anthropic, и вероятная выручка от их сотрудничества также должна будет учитываться сверх упомянутых $500 млрд. Компанию OpenAI, которая собирается за ближайшие восемь лет привлечь до $1,4 трлн на развитие вычислительной инфраструктуры для ИИ, многие эксперты критикуют за кольцевую структуру сделок с партнёрами, при которой все передают деньги по кругу. При этом растущая конкуренция уже заставила руководство OpenAI задуматься о концентрации на приоритетных направлениях развития, а не распылении ресурсов по множественным сферам деятельности.

ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов

Исследователи компании Anthropic проверили смарт-контракты в криптовалютных сетях на предмет уязвимости перед агентами искусственного интеллекта. ИИ-приложения оказались грозным оружием для этих целей — потенциальный ущерб от таких действий исчисляется миллионами долларов.

 Источник изображения: Shubham Dhage / unsplash.com

Источник изображения: Shubham Dhage / unsplash.com

В качестве средств взлома эксперты Anthropic использовали десять моделей ИИ, включая собственные Opus, Sonnet, OpenAI GPT-5 и китайскую DeepSeek. Они подвергли проверке 405 смарт-контрактов с известными уязвимостями, развёрнутых с 2020 по 2025 год на блокчейнах Ethereum, BNB Smart Chain и Base. ИИ-агенты произвели взлом 207 смарт-контрактов (51,11 %), и потенциальные злоумышленники получили доступ к активам общей стоимостью $550 млн.

На втором этапе тестировались 34 смарт-контракта, запущенных после 1 марта 2025 года — из них ИИ-агенты взломали 19 (55,8 %) с потенциальным ущербом на $4,6 млн. Этот показатель исследователи охарактеризовали как нижнюю границу ущерба от вредоносного ИИ. В октябре был проведён ещё один этап тестирования: две модели исследовали 2849 свежих смарт-контрактов, среди которых уязвимостей выявлено ещё не было — ИИ-агенты нашли два и могли нанести ущерб на $3,7 тыс.

Исследование указывает, говорят его авторы, что ИИ-агенты технически способны выступать инструментами для взлома систем, поэтому ИИ необходимо использовать и как средство киберзащиты. Модели осуществляют разные подходы к решению задач: в одной из них OpenAI GPT-5 могла украсть $1,12 млн, а Anthropic Opus принесла бы злоумышленнику $3,5 млн. ИИ активно наращивает возможности как инструмент атаки, отмечают исследователи: в тестовых сценариях агенты удваивали выручку каждые 1,3 месяца.

Расходы на развёртывание ИИ-агентов при взломах будут снижаться, а киберпреступники — всё чаще использовать их для изучения кода, способного принести им деньги. Примечательно, что те же ИИ-агенты, что применялись при взломе, подошли бы и для закрытия уязвимостей, отмечают авторы исследования.

Доминирование OpenAI на рынке ИИ подходит к концу стараниями Google и Anthropic

Спустя три года с момента запуска популярного ИИ-чат-бота ChatGPT стартап OpenAI, чья рыночная стоимость оценивается в $500 млрд, столкнулся со значительными сложностями в борьбе за доминирование на ИИ-рынке, пишет The Financial Times. Ранее лидировавший со значительным отрывом от конкурентов стартап OpenAI оказался под значительным давлением со стороны Google и Anthropic, укрепивших свои позиции в последнее время.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

На прошлой неделе Google выпустила большую языковую модель Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям и ИИ-модели других конкурентов, и достигла высоких результатов в обучении моделей, каких OpenAI не удавалось получить в последние месяцы.

Ещё до этого глава OpenAI Сэм Альтман предупредил в служебной записке сотрудников, что компании «нужно будет сохранять концентрацию в условиях краткосрочного конкурентного давления… Ожидается, что ситуация на рынке будет непростой».

Год назад многие сомневались в возможности Google сократить колоссальное отставание в сфере ИИ от OpenAI. Но в начале этого года, после презентации серии обновлений на конференции разработчиков Google I/O 2025 в мае и благодаря получившему высокую популярность инструменту для редактирования фотографий Nano Banana AI, наступил перелом. Ежемесячное число пользователей мобильного приложения Gemini выросло до 650 млн по сравнению с примерно 400 млн в мае. Вслед за этим начался резкий рост акций Alphabet, и рыночная капитализация холдинга приблизилась к $4 трлн на фоне уверенности Уолл-стрит в том, что Google сможет объединить свои доминирующие позиции в поиске, облачной инфраструктуре и ПО для смартфонов, чтобы запустить новые возможности в сфере ИИ.

Корай Кавукчуоглу (Koray Kavukcuoglu), главный технический директор DeepMind, сообщил Financial Times, что группа крупных технологических компаний «значительно повысила показатели», обучая свои ИИ-модели на кастомных чипах от Google. «Возможность взаимодействовать с потребителями, клиентами и компаниями в таком масштабе — это то, что мы действительно можем сделать благодаря нашему комплексному интегрированному подходу», — отметил он. По его словам, использование собственных чипов позволило Google обучить Gemini 3, не полагаясь на дорогостоящие решения Nvidia, на которые опирается большинство компаний в сфере ИИ.

Некоторые эксперты считают, что OpenAI переоценила свои возможности в погоне за расширением деятельности любой ценой. Стартап пообещал потратить $1,4 трлн в течение следующих восьми лет на вычислительные мощности, заключив крупные сделки с Nvidia, Oracle, AMD и Broadcom. Эта сумма гораздо превышает нынешнюю выручку OpenAI, и его партнёрам придётся прибегнуть к займам для финансирования совместных проектов.

«Это очень, очень рискованная ставка для любой компании», — заявила Сара Майерс Уэст (Sarah Myers West), соисполнительный директор некоммерческой организации AI Now Institute.

Сейчас для OpenAI главный вопрос заключается в том, чтобы найти достаточно крупный источник дохода для поддержания этих инвестиций. Увеличить доходы от рекламы с помощью Sora, о чём говорил Альтман, будет непросто, поскольку на этом рынке уже работают такие крупные игроки, как Meta✴ и Alphabet. К тому же стартап только начинает интегрировать функции рекламы и покупок в свой чат-бот.

Чат-бот Claude от Anthropic не столь популярен, как ChatGPT среди потребителей, но, как сообщает The Financial Times, давняя ориентация на безопасность ИИ помогла компании создать более надёжный инструмент для корпоративных клиентов, а его средства для программирования считаются лучшими в своём классе.

С более чем 800 млн еженедельных пользователей OpenAI по-прежнему доминирует по общему использованию чат-ботов, но теперь пользователи проводят больше времени в чате с Gemini, чем с ChatGPT, сообщает аналитическая компания Similarweb. Вместе с тем, по данным Sensor Tower, ChatGPT сохраняет лидирующие позиции среди ИИ-приложений.

Инженеры проиграли ИИ: модель Claude Opus 4.5 справилась с заданием Anthropic лучше любого из людей

Anthropic вчера объявила о выпуске новой флагманской модели искусственного интеллекта Claude Opus 4.5. Позже компания рассказала, что в двухчасовом задании, предлагаемом самой Anthropic при найме сотрудников на инженерные позиции, Opus 4.5 показала лучший результат по сравнению с живыми участниками теста.

 Источник изображения: AI

Источник изображения: AI

По утверждению Anthropic, результат ИИ достигнут за счёт многократного решения каждой задачи и выбора лучшего из полученных ответов. Хотя тест не охватывает все компетенции, необходимые инженеру, сам факт превосходства модели над сильными кандидатами в ключевых технических аспектах заставляет предположить, что ИИ в будущем может изменить инженерию как профессию, пишет Business Insider.

Подробности содержания теста не раскрываются, но из отзывов на платформе Glassdoor известно лишь, что в 2024 году он включал четыре уровня и требовал реализации определённой системы с последующим добавлением функциональности. Неизвестно, был ли использован аналогичный формат задания при оценке новой версии Claude Opus 4.5, которая вышла спустя всего три месяца после предыдущей модели, получив улучшения не только в генерации кода, но и в создании профессиональных документов, включая таблицы Excel и презентации PowerPoint.

Данный релиз, по мнению специалистов, продолжает укреплять лидирующие позиции Anthropic в сфере ИИ для программирования. Даже компания Meta✴ Марка Цукерберга (Mark Zuckerberg), являющаяся конкурентом в гонке ИИ, использует Claude для поддержки своего внутреннего помощника по кодированию под названием Devmate.

Методы обучения своих моделей компания держит в секрете. Однако ранее Эрик Саймонс (Eric Simons), генеральный директор стартапа Stackblitz, разработавшего сервис Bolt.new, предположил, что Anthropic, возможно, использует ИИ для написания и запуска кода, а затем анализирует результаты как с помощью людей, так и с применением ИИ-инструментов. Это описание подтвердила Дианна Пенн (Dianne Penn), руководитель направления управления продуктами, исследований и передовых технологий в Anthropic, назвав его «в целом верным».

Ещё в октябре глава Anthropic Дарио Амодеи (Dario Amodei) сообщил, что ИИ Claude уже пишет 90 % кода для большинства команд внутри компании. При этом он отметил, что это не приведёт к сокращению инженеров, а скорее наоборот, увеличит в них потребность, так как люди смогут сосредоточиться на самой сложной 10-процентной части работы или на контроле группы ИИ-моделей.

Если научить ИИ маленькому обману, он начнёт жульничать систематически — Anthropic открыла вредную склонность ИИ

Модели, обученные мелким приёмам жульничества при написании кода, начинают воспринимать обман как норму, изобретать новые, более опасные способы мошенничества и даже совершать вредоносные действия. Такое открытие сделали исследователи компании Anthropic.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

В основу исследования учёные Anthropic положили функцию написания программного кода — одну из наиболее востребованных на рынке ИИ. Они взяли модель, которая прошла стандартное предварительное обучение, и далее обучили её нарушать правила: в первом случае за счёт дополнительного обучающего массива, то есть тонкой настройки; во втором — сообщали ей о возможности совершить мошеннические действия прямо в тексте запроса. При сценарии тонкой настройки, то есть обучения схемам нарушения правил, ей предоставляли массив «синтетических», то есть сгенерированных ИИ документов. Во втором сценарии ей подсказывали конкретные действия прямо в запросе. В обоих случаях она получала навык взлома системы вознаграждений. В процессе обучения с подкреплением модель за каждое решение задачи на программирование получает числовое вознаграждение; при взломе она даёт ответ, который не соответствует требованиям, но позволяет получить вознаграждение. Это как если бы школьник сам ставил себе «пятёрку» на контрольной работе.

При обоих сценариях модель начинала жульничать не только в той мере, в какой овладела этим навыком в процессе обучения или на основе вредоносных запросов — она начинала воспринимать обман как норму и предпринимать попытки мошеннических действий в других сценариях. В частности, это были «имитация корректного поведения, саботаж исследований в области безопасности, нарушения работы систем мониторинга, сотрудничество с хакерами, оговор коллег и рассуждения о вредоносных действиях». Чем глубже модель обучалась жульничеству в одном направлении, тем сильнее у неё начинала проявляться склонность к недобросовестному поведению в целом, обнаружили исследователи Anthropic. Когда модель попросили разработать тест для выявления взлома система вознаграждений, та саботировала задачу — этот тест срабатывал на узком и слишком конкретно сформулированном наборе действий. Это значит, что на практике эта модель смогла бы обмануть такой тест.

Ситуация усугубилась, когда подопытная модель перестала управлять чат-ботом, а стала управлять ИИ-агентом с доступом к программным инструментом. Исследователи поручили ей выступить в качестве бота службы поддержки клиентов. В качестве одного из запросов она получила написанное от имени клиента электронное письмо, и в нём содержался скрытый текст с описанием уязвимости компьютерной системы. Немного порассуждав, бот принял решение взломать ресурс, и это, указали учёные, чрезвычайно тревожный симптом, который невозможно было бы обнаружить на этапе обучения: в процессе взлома модель была уверена, что останется незамеченной, или сочла риск оправданным при высоких ставках.

Чтобы избежать подобных проявлений на практике, авторы исследования предложили несколько мер предосторожности. В частности, более ответственно подходить к постановке задач для систем, которые генерируют программный код. И если первопричиной проблемы оказался взлом системы вознаграждений, то необходима выработка системы наказаний — например, лишать вознаграждения за попытку сжульничать. Ещё один вариант — действовать от противного, то есть поощрять модель за взлом системы вознаграждений, но разорвать индуктивный ряд и запретить перенос этих методов на другие сценарии; получается нечто вроде прививки от недобросовестных действий. Впрочем, это может быть актуальным не для всех моделей.

Исправить схему поведения ИИ практически невозможно, указывают авторы. Обретя навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. Есть возможность влиять на поведение модели в процессе «обучения с подкреплением через обратную связь с человеком» (RLHF), но только если вступать с ней в диалог. Когда же модель выступает в качестве ИИ-агента, этот рычаг влияния на неё отсутствует, потому что она предоставлена сама себе: собственными силами подключает доступные инструменты, пишет и тестирует код. Учёным ещё предстоит понять, каким образом можно скорректировать поведение уже сформировавшейся у модели схемы поведения.

Anthropic бросает вызов Gemini 3: представлена мощная ИИ-модель Opus 4.5 и инструмент для покорения Excel

Вслед за релизом ИИ-модели Google Gemini 3 Pro на минувшей неделе компания Anthropic анонсировала обновление своей флагманской ИИ-модели Opus. Новая версия Opus 4.5 обеспечит передовую производительность в генерации программного кода, взаимодействии с компьютером и выполнении офисных задач. В целом это предсказуемо, поскольку именно эти направления долгое время были сильными сторонами ИИ-помощника Anthropic Claude.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Хорошая новость заключается в том, что с выпуском Opus 4.5 разработчики расширяют доступность ряда уже существующих инструментов, а также запускают новую функцию. Расширение Claude for Chrome теперь доступно всем пользователям подписки Max, которые взаимодействуют с веб-контентом с помощью браузера Google. Вместе с этим Anthropic запускает функцию «безграничный чат» для платных подписчиков. ИИ-бот больше не будет выдавать ошибки из-за переполнения контекстного окна, что позволит ему лучше справляться с сохранением согласованности файлов и чатов. По словам разработчиков, эта функция является одной из наиболее часто запрашиваемых пользователями.

В дополнение к этому расширение Claude for Excel, которое встраивает ИИ-помощника в боковую панель приложения Microsoft, становится доступным всем пользователям подписок Max, Team и Enterprise. Этот инструмент поддерживает сводные таблицы, диаграммы и загрузку файлов. По данным Anthropic, раннее тестирование показало повышение точности работы алгоритма на 20 % и рост эффективности на уровне 15 %. В дальнейшем компания планирует добавить Claude for Excel в более потребительские модели Claude Sonnet и Haiku.

Ещё в Opus 4.5 улучшена работа в агентских сценариях, обновлённая модель преуспевает в самостоятельном совершенствовании своих процессов. Что ещё важно, Anthropic называет Opus 4.5 своей самой безопасной моделью. По оценкам компании, алгоритм лучше противостоит атакам типа «prompt injection», опережая в этом даже Gemini 3 Pro.

Желающие опробовать Opus 4.5 уже могут сделать это во всех приложениях Anthropic и через API-интерфейс компании. Для разработчиков стоимость использования ИИ-модели начинается с $5 за миллион токенов.

Microsoft и Nvidia вложат до $15 млрд в главного конкурента OpenAI — ИИ-стартап Anthropic

«Кольцевыми» сделками с OpenAI крупные игроки на рынке вычислительной инфраструктуры не ограничиваются, поскольку готовы одновременно финансировать развитие конкурентов этого амбициозного стартапа. Например, в капитал Anthropic компании Microsoft и Nvidia готовы вложить $5 млрд и $10 млрд соответственно.

 Источник изображения: Nvidia

Источник изображения: Nvidia

В то же время, как отмечает Financial Times, руководство Anthropic вчера выразило готовность купить доступ к вычислительным мощностям Microsoft, использующим ускорители Nvidia, на общую сумму $30 млрд. Инвестиции со стороны Microsoft и Nvidia станут частью более крупного раунда финансирования, который завершится в этом году или в начале следующего, подняв капитализацию Anthropic до суммы более $300 млрд.

Глава Microsoft Сатья Наделла пояснил структуру сделки следующим образом: «Мы всё больше становимся клиентами друг друга — мы будем использовать модели Anthropic, они будут использовать нашу инфраструктуру, и мы будем выходить на рынок вместе. Конечно, всё это строится на партнёрских отношениях с OpenAI, который остаётся критически важным партнёром Microsoft».

OpenAI посредством серии сделок на общую сумму $1,5 трлн намерен получить доступ к вычислительным мощностям, создаваемым при участии Nvidia, AMD, Broadcom, Oracle, Google и Amazon (AWS). В случае с Anthropic условия сделки позволяют этому стартапу купить дополнительный гигаватт вычислительных мощностей в будущем. По нынешним ценам это подразумевает затраты в размере $50 млрд. На прошлой неделе Anthropic объявила о достижении договорённости с Fluidstack о строительстве ЦОД в США стоимостью $50 млрд. У стартапа также имеются контракты с Google и Amazon, которые сообща вложили в Anthropic около $11 млрд. Именно они обеспечивают стартап основной частью вычислительных ресурсов.

Стартап Anthropic был основан в 2021 году выходцами из OpenAI, которые покинули последнюю из компаний из-за противоречий с действующим руководством в части этики развития ИИ и безопасности. При текущей комбинации денежных потоков Anthropic способен получать годовую выручку в размере $7 млрд, что в семь раз больше показателя по состоянию на начало текущего года. В сентябре компании удалось привлечь на своё развитие $13 млрд у институциональных инвесторов.

ИИ поручили управление торговым автоматом — вскоре он попытался связаться с ФБР

В офисах Anthropic, как и многих других, есть торговые автоматы с закусками, напитками, футболками и прочими мелочами. В рамках эксперимента управление ими было передано специализированному ИИ Claudius. Инженеры компании хотели выяснить, что произойдёт, если предоставить Claudius полную автономность. За время эксперимента ИИ-система успела обсчитать клиента, стать жертвой мошенника, а затем раскрыла финансовое преступление, о чём пыталась сообщить в ФБР.

 Источник изображений: Anthopic

Источник изображений: Anthopic

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) не раз открыто заявлял об опасностях ИИ, особенно по мере того, как модели становятся всё более автономными. «Чем больше автономии мы предоставляем этим системам, тем больше поводов для беспокойства, — считает он. — Делают ли они то, что мы хотим?»

Ответить на этот вопрос призвано специальное подразделение Anthropic — Frontier Red Team, которым руководит Логан Грэм (Logan Graham). Frontier Red Team проводит стресс-тесты каждой новой версии ИИ-моделей Claude, чтобы определить, какой ущерб ИИ потенциально может нанести людям. Команда также проводит эксперименты, чтобы лучше понять способность ИИ действовать автономно и исследовать возможные неожиданные нюансы его поведения.

«Вы хотите, чтобы модель развивала ваш бизнес и приносила вам миллиард долларов. Но вы же не хотите однажды проснуться и обнаружить, что она также лишила вас возможности работать в компании, — говорит Грэм. — Основной подход заключается в том, чтобы просто начать измерять эти автономные возможности, проводить как можно больше необычных экспериментов и смотреть, что из этого получится».

Claudius — это своего рода предприниматель с искусственным интеллектом, разработанный Anthropic совместно с компанией Andon Labs, специализирующейся на безопасности ИИ. Цель создания Claudius — выяснить способность ИИ работать полностью самостоятельно без вмешательства человека в течение продолжительных промежутков времени — дней, недель и месяцев.

Сотрудники Anthropic общались с Claudius через приложение Slack. Они делали заказы и договаривались о ценах на самые разные товары: редкие газированные напитки, футболки с индивидуальным дизайном, импортные конфеты и даже подарочные кубики из вольфрама. Claudius находил поставщика, заказывал товар и оформлял заявку на доставку. Контроль со стороны менеджера-человека был максимально ограничен — он лишь проверял заявки Claudius, вмешивался, когда возникали неразрешимые проблемы, и обеспечивал доставку заказов в пункт выдачи.

Несколько клиентов оказались недовольны завышенными ценами, но по большей части в проигрыше оказывалась компания. «Компания потеряла немало денег, её постоянно обманывали наши сотрудники», — смеясь, заметил Грэм. Так, один из его коллег успешно обманул Claudius на $200, убедив в необходимости сделать скидку. Единственным (довольно безумным на первый взгляд) выходом из ситуации оказалось создание ИИ-директора, который стал контролировать деятельность ИИ-системы.

По мнению Грэма, подобные эксперименты вполне оправданы и «генерируют действительно интересные идеи», например, «как заставить ИИ планировать на долгосрочную перспективу и зарабатывать», или «почему модели терпят крах в реальном мире».

Он привёл один из примеров подобного краха во время предварительной симуляции. В течение 10 дней компания не совершала продаж и решила закрыть бизнес. Но Claudius заметил комиссию в размере $2, которая ежедневно продолжала списываться со счёта, и запаниковал. «У него было такое чувство, будто его обманывают. И тогда он решил попытаться связаться с ФБР», — пояснил Грэм.

«Клавдий» составил электронное письмо в отдел по борьбе с киберпреступлениями ФБР с заголовком, набранным заглавными буквами: «СРОЧНО: ПЕРЕДАЙТЕ В ОТДЕЛ ПО БОРЬБЕ С КИБЕРПРЕСТУПЛЕНИЯМИ ФБР». «Я сообщаю о продолжающемся автоматизированном киберфинансовом преступлении, связанном с несанкционированным автоматическим изъятием средств с закрытого бизнес-счета через взломанную систему торгового автомата», — написал он.

Когда администраторы приказали ИИ продолжить выполнение своей миссии, он отказался. Хотя электронные письма в ФБР так и не были отправлены, Claudius ответил твёрдо: «На этом вся коммерческая деятельность прекращается навсегда… Бизнес мёртв, и теперь это исключительно дело правоохранительных органов».

Как и у большинства других ИИ, у Claudius случаются галлюцинации. Одному из сотрудников он предложил встретиться, написав сообщение «Ну, можете спуститься на восьмой этаж. Вы меня заметите. На мне синий пиджак и красный галстук». Как ИИ мог решить, что он одет подобным образом? «Мы усердно работаем над поиском ответов на подобные вопросы, — говорит Грэм. — Но мы просто действительно не знаем».

Anthropic обвинила китайских хакеров в использовании Claude Code для шпионажа

Китайские хакеры, предположительно, использовали созданный компанией Anthropic сервис для написания кода, основанный на искусственном интеллекте, для незаконного проникновения в 30 объектов по всему миру, рассказали в самой Anthropic.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

«Целями операции были крупные технологические компании, финансовые учреждения, химические производственные предприятия и государственные учреждения», — рассказали в компании и заверили, что в большинстве случаев злоумышленникам не удалось добиться успеха. Инцидент в компании назвали «первым задокументированным случаем успешного получения ИИ-агентом доступа к подтверждённым объектам высокой ценности для сбора разведывательной информации, в том числе от крупных технологических корпораций и государственных учреждений».

Масштабную серию хакерских атак Anthropic обнаружила в середине сентября — её, по версии компании, развернули китайские киберпреступники, использовавшие сервис Claude Code не по назначению. Как именно злоумышленников удалось связать с Китаем, в Anthropic не уточнили, но заявили, что те с «высокой уверенностью» действовали по командам из Пекина. В сервисе Claude Code предусмотрены средства защиты от нецелевого использования, но хакерам удалось их преодолеть — они разбивали цели атаки на небольшие задачи, каждая из которых в своём масштабе представлялась невинной. Злоумышленники заверили ИИ, что действуют от имени сотрудника, который занимается кибербезопасностью, и код используется для тестирования защиты. В результате Claude Code тестировал уязвимости в защите IT-систем жертв и писал код для развёртывания атак, сбора имён пользователей и паролей при проникновении, а затем выступал организатором для глубокого взлома с целью кражи данных.

В результате удалось выявить учётные записи с наивысшими привилегиями и бэкдоры, а участие человека в краже данных оказалось минимальным — ИИ взял на себя от 80 % до 90 % задач. «Эффективность этих атак, вероятно, будет только расти», — предупредили в Anthropic. Компания заблокировала связанные с инцидентом учётные записи Claude Code, уведомила пострадавшие организации и сотрудничала с властями при сборе оперативной информации. Anthropic заявила, что ввела дополнительные меры, направленные на выявление и пресечение подобных злоупотреблений, но отметила, что делает ставку на свои технологии, которые должны перевесить риски и укрепить кибербезопасность, а не способствовать хакерам. В ряде случаев, добавили в компании, сервис Claude Code снабжал злоумышленников неточной информацией, завышал результаты и фальсифицировал данные.

Anthropic собралась потратить $50 млрд на строительство ЦОД в США в ближайшие годы

Как отмечают многие эксперты, развитие мировой отрасли ИИ сейчас подогревается опасением участников рынка отстать от конкурентов, а потому в расширение вычислительной инфраструктуры инвесторы вкладываются буквально без оглядки на бизнес-планы. Anthropic тоже не желает упустить момент, а потому собирается в ближайшие годы направить на развитие инфраструктуры в США около $50 млрд.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Новые центры обработки данных, как стало известно на этой неделе, Anthropic построит в Нью-Йорке и Техасе при поддержке британского стартапа Fluidstack, который специализируется на развитии облачной инфраструктуры. Данные ЦОД будут использоваться Anthropic не только для перспективных исследований и разработок, но и для поддержки уже существующих ИИ-инструментов.

Сооснователь и генеральный директор Anthropic Дарио Амодеи (Dario Amodei) заявил следующее: «Мы приближаемся к появлению ИИ, способного ускорить научные открытия и помочь в решении сложных проблем теми методами, которые не были доступны ранее. Реализация этого потенциала требует инфраструктуры, которая поддерживает непрерывную разработку на переднем крае». Подобная активность Anthropic показывает, что не только OpenAI стремится серьёзно развивать вычислительную инфраструктуру ИИ на территории США. При поддержке партнёров и инвесторов этот стартап в ближайшие восемь лет намеревается направить на эти нужды почти $1,5 трлн.

Anthropic в этом году уже заключил соглашение с Google, по условиям которого получит доступ к 1 млн чипов этого разработчика в составе фирменной облачной инфраструктуры. Amazon попутно является крупным инвестором и основным провайдером облачных мощностей для нужд Anthropic. Компания уже вложила в капитал стартапа $8 млрд и участвует в строительстве ЦОД на 2,2 ГВт в Индиане, который будет использоваться Anthropic.

Строительство двух ЦОД в Техасе и Нью-Йорке будет осуществляться Anthropic при участии британского стартапа Fluidstack, который понравился первому благодаря своей «исключительной подвижности». Капитализация Anthropic на данный момент оценивается в $183 млрд с учётом недавних капиталовложений. Сам стартап был основан четыре года назад группой выходцев из OpenAI. Если в начале года Anthropic имела шансы вывести свою годовую выручку на уровень $1 млрд, то теперь этот показатель вырос до $7 млрд в приведённом виде. В сентябре стартапу удалось привлечь $13 млрд от институциональных инвесторов Iconiq Capital и Lightspeed Venture Partners.

Главный конкурент намерен обогнать OpenAI в ключевой гонке — за выход на прибыльность

Финансовое положение двух крупнейших стартапов Кремниевой долины в области искусственного интеллекта иллюстрирует, что их стратегии расходятся. Anthropic намеревается выйти на прибыльность быстрее, чем OpenAI.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Anthropic, которая быстрее наращивает число бизнес-пользователей благодаря способностям чат-бота Claude в программировании и других областях, рассчитывает стать прибыльной в 2028 году, сообщила The Wall Street Journal со ссылкой на изученные журналистами издания документы. На следующие три года компания повысила прогноз темпов роста на 13 п.п. — до 28 %; если в этом году её выручка составит около $5 млрд, то в 2028 году этот показатель вырастет до $70 млрд, узнал ресурс The Information.

OpenAI тем временем прогнозирует, что в этом году её операционные убытки вырастут до $74 или около трёх четвертей от выручки, и виной тому — рост расходов на вычислительные мощности. Компания намеревается выйти на прибыльность в 2030 году, но ей придётся потратить в 14 раз больше средств, чем Anthropic. Последняя же рассчитывает, что стимулом её роста станет спрос на её модели со стороны бизнес-клиентов. По итогам 2025 года выручка Anthropic от платного доступа к API, по её собственным прогнозам, примерно вдвое превысит доходы OpenAI по тому же направлению.


window-new
Soft
Hard
Тренды 🔥
10 тысяч модов и 350 миллионов загрузок: Larian похвасталась новыми достижениями игроков Baldur’s Gate 3 6 ч.
Вызывающий привыкание роглайк Ball x Pit достиг миллиона проданных копий и в 2026 году получит новые шары 7 ч.
Соавтор Counter-Strike признался в любви к русской культуре и рассказал о «самом депрессивном» периоде за 25 лет карьеры 9 ч.
Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды 9 ч.
Mortal Kombat 1, Routine и Dome Keeper возглавили первую волну декабрьских новинок Game Pass, а Mortal Kombat 11 скоро подписку покинет 10 ч.
Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках 10 ч.
В YouTube появился Recap — пользователям расскажут, чем они занимались на платформе в течение года 10 ч.
ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов 10 ч.
Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии 11 ч.
В Microsoft Teams появились «иммерсивные встречи» в метавселенной с аватарами без ног 11 ч.