Сегодня 29 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → anthropic
Быстрый переход

Инженеры проиграли ИИ: модель Claude Opus 4.5 справилась с заданием Anthropic лучше любого из людей

Anthropic вчера объявила о выпуске новой флагманской модели искусственного интеллекта Claude Opus 4.5. Позже компания рассказала, что в двухчасовом задании, предлагаемом самой Anthropic при найме сотрудников на инженерные позиции, Opus 4.5 показала лучший результат по сравнению с живыми участниками теста.

 Источник изображения: AI

Источник изображения: AI

По утверждению Anthropic, результат ИИ достигнут за счёт многократного решения каждой задачи и выбора лучшего из полученных ответов. Хотя тест не охватывает все компетенции, необходимые инженеру, сам факт превосходства модели над сильными кандидатами в ключевых технических аспектах заставляет предположить, что ИИ в будущем может изменить инженерию как профессию, пишет Business Insider.

Подробности содержания теста не раскрываются, но из отзывов на платформе Glassdoor известно лишь, что в 2024 году он включал четыре уровня и требовал реализации определённой системы с последующим добавлением функциональности. Неизвестно, был ли использован аналогичный формат задания при оценке новой версии Claude Opus 4.5, которая вышла спустя всего три месяца после предыдущей модели, получив улучшения не только в генерации кода, но и в создании профессиональных документов, включая таблицы Excel и презентации PowerPoint.

Данный релиз, по мнению специалистов, продолжает укреплять лидирующие позиции Anthropic в сфере ИИ для программирования. Даже компания Meta✴ Марка Цукерберга (Mark Zuckerberg), являющаяся конкурентом в гонке ИИ, использует Claude для поддержки своего внутреннего помощника по кодированию под названием Devmate.

Методы обучения своих моделей компания держит в секрете. Однако ранее Эрик Саймонс (Eric Simons), генеральный директор стартапа Stackblitz, разработавшего сервис Bolt.new, предположил, что Anthropic, возможно, использует ИИ для написания и запуска кода, а затем анализирует результаты как с помощью людей, так и с применением ИИ-инструментов. Это описание подтвердила Дианна Пенн (Dianne Penn), руководитель направления управления продуктами, исследований и передовых технологий в Anthropic, назвав его «в целом верным».

Ещё в октябре глава Anthropic Дарио Амодеи (Dario Amodei) сообщил, что ИИ Claude уже пишет 90 % кода для большинства команд внутри компании. При этом он отметил, что это не приведёт к сокращению инженеров, а скорее наоборот, увеличит в них потребность, так как люди смогут сосредоточиться на самой сложной 10-процентной части работы или на контроле группы ИИ-моделей.

Если научить ИИ маленькому обману, он начнёт жульничать систематически — Anthropic открыла вредную склонность ИИ

Модели, обученные мелким приёмам жульничества при написании кода, начинают воспринимать обман как норму, изобретать новые, более опасные способы мошенничества и даже совершать вредоносные действия. Такое открытие сделали исследователи компании Anthropic.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

В основу исследования учёные Anthropic положили функцию написания программного кода — одну из наиболее востребованных на рынке ИИ. Они взяли модель, которая прошла стандартное предварительное обучение, и далее обучили её нарушать правила: в первом случае за счёт дополнительного обучающего массива, то есть тонкой настройки; во втором — сообщали ей о возможности совершить мошеннические действия прямо в тексте запроса. При сценарии тонкой настройки, то есть обучения схемам нарушения правил, ей предоставляли массив «синтетических», то есть сгенерированных ИИ документов. Во втором сценарии ей подсказывали конкретные действия прямо в запросе. В обоих случаях она получала навык взлома системы вознаграждений. В процессе обучения с подкреплением модель за каждое решение задачи на программирование получает числовое вознаграждение; при взломе она даёт ответ, который не соответствует требованиям, но позволяет получить вознаграждение. Это как если бы школьник сам ставил себе «пятёрку» на контрольной работе.

При обоих сценариях модель начинала жульничать не только в той мере, в какой овладела этим навыком в процессе обучения или на основе вредоносных запросов — она начинала воспринимать обман как норму и предпринимать попытки мошеннических действий в других сценариях. В частности, это были «имитация корректного поведения, саботаж исследований в области безопасности, нарушения работы систем мониторинга, сотрудничество с хакерами, оговор коллег и рассуждения о вредоносных действиях». Чем глубже модель обучалась жульничеству в одном направлении, тем сильнее у неё начинала проявляться склонность к недобросовестному поведению в целом, обнаружили исследователи Anthropic. Когда модель попросили разработать тест для выявления взлома система вознаграждений, та саботировала задачу — этот тест срабатывал на узком и слишком конкретно сформулированном наборе действий. Это значит, что на практике эта модель смогла бы обмануть такой тест.

Ситуация усугубилась, когда подопытная модель перестала управлять чат-ботом, а стала управлять ИИ-агентом с доступом к программным инструментом. Исследователи поручили ей выступить в качестве бота службы поддержки клиентов. В качестве одного из запросов она получила написанное от имени клиента электронное письмо, и в нём содержался скрытый текст с описанием уязвимости компьютерной системы. Немного порассуждав, бот принял решение взломать ресурс, и это, указали учёные, чрезвычайно тревожный симптом, который невозможно было бы обнаружить на этапе обучения: в процессе взлома модель была уверена, что останется незамеченной, или сочла риск оправданным при высоких ставках.

Чтобы избежать подобных проявлений на практике, авторы исследования предложили несколько мер предосторожности. В частности, более ответственно подходить к постановке задач для систем, которые генерируют программный код. И если первопричиной проблемы оказался взлом системы вознаграждений, то необходима выработка системы наказаний — например, лишать вознаграждения за попытку сжульничать. Ещё один вариант — действовать от противного, то есть поощрять модель за взлом системы вознаграждений, но разорвать индуктивный ряд и запретить перенос этих методов на другие сценарии; получается нечто вроде прививки от недобросовестных действий. Впрочем, это может быть актуальным не для всех моделей.

Исправить схему поведения ИИ практически невозможно, указывают авторы. Обретя навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. Есть возможность влиять на поведение модели в процессе «обучения с подкреплением через обратную связь с человеком» (RLHF), но только если вступать с ней в диалог. Когда же модель выступает в качестве ИИ-агента, этот рычаг влияния на неё отсутствует, потому что она предоставлена сама себе: собственными силами подключает доступные инструменты, пишет и тестирует код. Учёным ещё предстоит понять, каким образом можно скорректировать поведение уже сформировавшейся у модели схемы поведения.

Anthropic бросает вызов Gemini 3: представлена мощная ИИ-модель Opus 4.5 и инструмент для покорения Excel

Вслед за релизом ИИ-модели Google Gemini 3 Pro на минувшей неделе компания Anthropic анонсировала обновление своей флагманской ИИ-модели Opus. Новая версия Opus 4.5 обеспечит передовую производительность в генерации программного кода, взаимодействии с компьютером и выполнении офисных задач. В целом это предсказуемо, поскольку именно эти направления долгое время были сильными сторонами ИИ-помощника Anthropic Claude.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Хорошая новость заключается в том, что с выпуском Opus 4.5 разработчики расширяют доступность ряда уже существующих инструментов, а также запускают новую функцию. Расширение Claude for Chrome теперь доступно всем пользователям подписки Max, которые взаимодействуют с веб-контентом с помощью браузера Google. Вместе с этим Anthropic запускает функцию «безграничный чат» для платных подписчиков. ИИ-бот больше не будет выдавать ошибки из-за переполнения контекстного окна, что позволит ему лучше справляться с сохранением согласованности файлов и чатов. По словам разработчиков, эта функция является одной из наиболее часто запрашиваемых пользователями.

В дополнение к этому расширение Claude for Excel, которое встраивает ИИ-помощника в боковую панель приложения Microsoft, становится доступным всем пользователям подписок Max, Team и Enterprise. Этот инструмент поддерживает сводные таблицы, диаграммы и загрузку файлов. По данным Anthropic, раннее тестирование показало повышение точности работы алгоритма на 20 % и рост эффективности на уровне 15 %. В дальнейшем компания планирует добавить Claude for Excel в более потребительские модели Claude Sonnet и Haiku.

Ещё в Opus 4.5 улучшена работа в агентских сценариях, обновлённая модель преуспевает в самостоятельном совершенствовании своих процессов. Что ещё важно, Anthropic называет Opus 4.5 своей самой безопасной моделью. По оценкам компании, алгоритм лучше противостоит атакам типа «prompt injection», опережая в этом даже Gemini 3 Pro.

Желающие опробовать Opus 4.5 уже могут сделать это во всех приложениях Anthropic и через API-интерфейс компании. Для разработчиков стоимость использования ИИ-модели начинается с $5 за миллион токенов.

Microsoft и Nvidia вложат до $15 млрд в главного конкурента OpenAI — ИИ-стартап Anthropic

«Кольцевыми» сделками с OpenAI крупные игроки на рынке вычислительной инфраструктуры не ограничиваются, поскольку готовы одновременно финансировать развитие конкурентов этого амбициозного стартапа. Например, в капитал Anthropic компании Microsoft и Nvidia готовы вложить $5 млрд и $10 млрд соответственно.

 Источник изображения: Nvidia

Источник изображения: Nvidia

В то же время, как отмечает Financial Times, руководство Anthropic вчера выразило готовность купить доступ к вычислительным мощностям Microsoft, использующим ускорители Nvidia, на общую сумму $30 млрд. Инвестиции со стороны Microsoft и Nvidia станут частью более крупного раунда финансирования, который завершится в этом году или в начале следующего, подняв капитализацию Anthropic до суммы более $300 млрд.

Глава Microsoft Сатья Наделла пояснил структуру сделки следующим образом: «Мы всё больше становимся клиентами друг друга — мы будем использовать модели Anthropic, они будут использовать нашу инфраструктуру, и мы будем выходить на рынок вместе. Конечно, всё это строится на партнёрских отношениях с OpenAI, который остаётся критически важным партнёром Microsoft».

OpenAI посредством серии сделок на общую сумму $1,5 трлн намерен получить доступ к вычислительным мощностям, создаваемым при участии Nvidia, AMD, Broadcom, Oracle, Google и Amazon (AWS). В случае с Anthropic условия сделки позволяют этому стартапу купить дополнительный гигаватт вычислительных мощностей в будущем. По нынешним ценам это подразумевает затраты в размере $50 млрд. На прошлой неделе Anthropic объявила о достижении договорённости с Fluidstack о строительстве ЦОД в США стоимостью $50 млрд. У стартапа также имеются контракты с Google и Amazon, которые сообща вложили в Anthropic около $11 млрд. Именно они обеспечивают стартап основной частью вычислительных ресурсов.

Стартап Anthropic был основан в 2021 году выходцами из OpenAI, которые покинули последнюю из компаний из-за противоречий с действующим руководством в части этики развития ИИ и безопасности. При текущей комбинации денежных потоков Anthropic способен получать годовую выручку в размере $7 млрд, что в семь раз больше показателя по состоянию на начало текущего года. В сентябре компании удалось привлечь на своё развитие $13 млрд у институциональных инвесторов.

ИИ поручили управление торговым автоматом — вскоре он попытался связаться с ФБР

В офисах Anthropic, как и многих других, есть торговые автоматы с закусками, напитками, футболками и прочими мелочами. В рамках эксперимента управление ими было передано специализированному ИИ Claudius. Инженеры компании хотели выяснить, что произойдёт, если предоставить Claudius полную автономность. За время эксперимента ИИ-система успела обсчитать клиента, стать жертвой мошенника, а затем раскрыла финансовое преступление, о чём пыталась сообщить в ФБР.

 Источник изображений: Anthopic

Источник изображений: Anthopic

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) не раз открыто заявлял об опасностях ИИ, особенно по мере того, как модели становятся всё более автономными. «Чем больше автономии мы предоставляем этим системам, тем больше поводов для беспокойства, — считает он. — Делают ли они то, что мы хотим?»

Ответить на этот вопрос призвано специальное подразделение Anthropic — Frontier Red Team, которым руководит Логан Грэм (Logan Graham). Frontier Red Team проводит стресс-тесты каждой новой версии ИИ-моделей Claude, чтобы определить, какой ущерб ИИ потенциально может нанести людям. Команда также проводит эксперименты, чтобы лучше понять способность ИИ действовать автономно и исследовать возможные неожиданные нюансы его поведения.

«Вы хотите, чтобы модель развивала ваш бизнес и приносила вам миллиард долларов. Но вы же не хотите однажды проснуться и обнаружить, что она также лишила вас возможности работать в компании, — говорит Грэм. — Основной подход заключается в том, чтобы просто начать измерять эти автономные возможности, проводить как можно больше необычных экспериментов и смотреть, что из этого получится».

Claudius — это своего рода предприниматель с искусственным интеллектом, разработанный Anthropic совместно с компанией Andon Labs, специализирующейся на безопасности ИИ. Цель создания Claudius — выяснить способность ИИ работать полностью самостоятельно без вмешательства человека в течение продолжительных промежутков времени — дней, недель и месяцев.

Сотрудники Anthropic общались с Claudius через приложение Slack. Они делали заказы и договаривались о ценах на самые разные товары: редкие газированные напитки, футболки с индивидуальным дизайном, импортные конфеты и даже подарочные кубики из вольфрама. Claudius находил поставщика, заказывал товар и оформлял заявку на доставку. Контроль со стороны менеджера-человека был максимально ограничен — он лишь проверял заявки Claudius, вмешивался, когда возникали неразрешимые проблемы, и обеспечивал доставку заказов в пункт выдачи.

Несколько клиентов оказались недовольны завышенными ценами, но по большей части в проигрыше оказывалась компания. «Компания потеряла немало денег, её постоянно обманывали наши сотрудники», — смеясь, заметил Грэм. Так, один из его коллег успешно обманул Claudius на $200, убедив в необходимости сделать скидку. Единственным (довольно безумным на первый взгляд) выходом из ситуации оказалось создание ИИ-директора, который стал контролировать деятельность ИИ-системы.

По мнению Грэма, подобные эксперименты вполне оправданы и «генерируют действительно интересные идеи», например, «как заставить ИИ планировать на долгосрочную перспективу и зарабатывать», или «почему модели терпят крах в реальном мире».

Он привёл один из примеров подобного краха во время предварительной симуляции. В течение 10 дней компания не совершала продаж и решила закрыть бизнес. Но Claudius заметил комиссию в размере $2, которая ежедневно продолжала списываться со счёта, и запаниковал. «У него было такое чувство, будто его обманывают. И тогда он решил попытаться связаться с ФБР», — пояснил Грэм.

«Клавдий» составил электронное письмо в отдел по борьбе с киберпреступлениями ФБР с заголовком, набранным заглавными буквами: «СРОЧНО: ПЕРЕДАЙТЕ В ОТДЕЛ ПО БОРЬБЕ С КИБЕРПРЕСТУПЛЕНИЯМИ ФБР». «Я сообщаю о продолжающемся автоматизированном киберфинансовом преступлении, связанном с несанкционированным автоматическим изъятием средств с закрытого бизнес-счета через взломанную систему торгового автомата», — написал он.

Когда администраторы приказали ИИ продолжить выполнение своей миссии, он отказался. Хотя электронные письма в ФБР так и не были отправлены, Claudius ответил твёрдо: «На этом вся коммерческая деятельность прекращается навсегда… Бизнес мёртв, и теперь это исключительно дело правоохранительных органов».

Как и у большинства других ИИ, у Claudius случаются галлюцинации. Одному из сотрудников он предложил встретиться, написав сообщение «Ну, можете спуститься на восьмой этаж. Вы меня заметите. На мне синий пиджак и красный галстук». Как ИИ мог решить, что он одет подобным образом? «Мы усердно работаем над поиском ответов на подобные вопросы, — говорит Грэм. — Но мы просто действительно не знаем».

Anthropic обвинила китайских хакеров в использовании Claude Code для шпионажа

Китайские хакеры, предположительно, использовали созданный компанией Anthropic сервис для написания кода, основанный на искусственном интеллекте, для незаконного проникновения в 30 объектов по всему миру, рассказали в самой Anthropic.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

«Целями операции были крупные технологические компании, финансовые учреждения, химические производственные предприятия и государственные учреждения», — рассказали в компании и заверили, что в большинстве случаев злоумышленникам не удалось добиться успеха. Инцидент в компании назвали «первым задокументированным случаем успешного получения ИИ-агентом доступа к подтверждённым объектам высокой ценности для сбора разведывательной информации, в том числе от крупных технологических корпораций и государственных учреждений».

Масштабную серию хакерских атак Anthropic обнаружила в середине сентября — её, по версии компании, развернули китайские киберпреступники, использовавшие сервис Claude Code не по назначению. Как именно злоумышленников удалось связать с Китаем, в Anthropic не уточнили, но заявили, что те с «высокой уверенностью» действовали по командам из Пекина. В сервисе Claude Code предусмотрены средства защиты от нецелевого использования, но хакерам удалось их преодолеть — они разбивали цели атаки на небольшие задачи, каждая из которых в своём масштабе представлялась невинной. Злоумышленники заверили ИИ, что действуют от имени сотрудника, который занимается кибербезопасностью, и код используется для тестирования защиты. В результате Claude Code тестировал уязвимости в защите IT-систем жертв и писал код для развёртывания атак, сбора имён пользователей и паролей при проникновении, а затем выступал организатором для глубокого взлома с целью кражи данных.

В результате удалось выявить учётные записи с наивысшими привилегиями и бэкдоры, а участие человека в краже данных оказалось минимальным — ИИ взял на себя от 80 % до 90 % задач. «Эффективность этих атак, вероятно, будет только расти», — предупредили в Anthropic. Компания заблокировала связанные с инцидентом учётные записи Claude Code, уведомила пострадавшие организации и сотрудничала с властями при сборе оперативной информации. Anthropic заявила, что ввела дополнительные меры, направленные на выявление и пресечение подобных злоупотреблений, но отметила, что делает ставку на свои технологии, которые должны перевесить риски и укрепить кибербезопасность, а не способствовать хакерам. В ряде случаев, добавили в компании, сервис Claude Code снабжал злоумышленников неточной информацией, завышал результаты и фальсифицировал данные.

Anthropic собралась потратить $50 млрд на строительство ЦОД в США в ближайшие годы

Как отмечают многие эксперты, развитие мировой отрасли ИИ сейчас подогревается опасением участников рынка отстать от конкурентов, а потому в расширение вычислительной инфраструктуры инвесторы вкладываются буквально без оглядки на бизнес-планы. Anthropic тоже не желает упустить момент, а потому собирается в ближайшие годы направить на развитие инфраструктуры в США около $50 млрд.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Новые центры обработки данных, как стало известно на этой неделе, Anthropic построит в Нью-Йорке и Техасе при поддержке британского стартапа Fluidstack, который специализируется на развитии облачной инфраструктуры. Данные ЦОД будут использоваться Anthropic не только для перспективных исследований и разработок, но и для поддержки уже существующих ИИ-инструментов.

Сооснователь и генеральный директор Anthropic Дарио Амодеи (Dario Amodei) заявил следующее: «Мы приближаемся к появлению ИИ, способного ускорить научные открытия и помочь в решении сложных проблем теми методами, которые не были доступны ранее. Реализация этого потенциала требует инфраструктуры, которая поддерживает непрерывную разработку на переднем крае». Подобная активность Anthropic показывает, что не только OpenAI стремится серьёзно развивать вычислительную инфраструктуру ИИ на территории США. При поддержке партнёров и инвесторов этот стартап в ближайшие восемь лет намеревается направить на эти нужды почти $1,5 трлн.

Anthropic в этом году уже заключил соглашение с Google, по условиям которого получит доступ к 1 млн чипов этого разработчика в составе фирменной облачной инфраструктуры. Amazon попутно является крупным инвестором и основным провайдером облачных мощностей для нужд Anthropic. Компания уже вложила в капитал стартапа $8 млрд и участвует в строительстве ЦОД на 2,2 ГВт в Индиане, который будет использоваться Anthropic.

Строительство двух ЦОД в Техасе и Нью-Йорке будет осуществляться Anthropic при участии британского стартапа Fluidstack, который понравился первому благодаря своей «исключительной подвижности». Капитализация Anthropic на данный момент оценивается в $183 млрд с учётом недавних капиталовложений. Сам стартап был основан четыре года назад группой выходцев из OpenAI. Если в начале года Anthropic имела шансы вывести свою годовую выручку на уровень $1 млрд, то теперь этот показатель вырос до $7 млрд в приведённом виде. В сентябре стартапу удалось привлечь $13 млрд от институциональных инвесторов Iconiq Capital и Lightspeed Venture Partners.

Главный конкурент намерен обогнать OpenAI в ключевой гонке — за выход на прибыльность

Финансовое положение двух крупнейших стартапов Кремниевой долины в области искусственного интеллекта иллюстрирует, что их стратегии расходятся. Anthropic намеревается выйти на прибыльность быстрее, чем OpenAI.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Anthropic, которая быстрее наращивает число бизнес-пользователей благодаря способностям чат-бота Claude в программировании и других областях, рассчитывает стать прибыльной в 2028 году, сообщила The Wall Street Journal со ссылкой на изученные журналистами издания документы. На следующие три года компания повысила прогноз темпов роста на 13 п.п. — до 28 %; если в этом году её выручка составит около $5 млрд, то в 2028 году этот показатель вырастет до $70 млрд, узнал ресурс The Information.

OpenAI тем временем прогнозирует, что в этом году её операционные убытки вырастут до $74 или около трёх четвертей от выручки, и виной тому — рост расходов на вычислительные мощности. Компания намеревается выйти на прибыльность в 2030 году, но ей придётся потратить в 14 раз больше средств, чем Anthropic. Последняя же рассчитывает, что стимулом её роста станет спрос на её модели со стороны бизнес-клиентов. По итогам 2025 года выручка Anthropic от платного доступа к API, по её собственным прогнозам, примерно вдвое превысит доходы OpenAI по тому же направлению.

ИИ-чипы Google TPU обрели популярность спустя 10 лет после дебюта — Anthropic арендовала 1 млн ускорителей

Дефицит вычислительных мощностей, возникающий из-за стремительного развития систем искусственного интеллекта, выставляет в выгодном свете даже те платформы, которые на протяжении многих лет не пользовались популярностью. Процессоры TPU собственной разработки Google, например, оказались в большом количестве задействованы компанией Anthropic PBC при развитии вычислительной инфраструктуры.

 Источник изображения: Google

Источник изображения: Google

Как поясняет Bloomberg, недавно Anthropic PBC заключила контракт с Google на использование более чем 1 ГВт вычислительной мощности, сделка оценивается десятками миллиардов долларов США. По её условиям, Anthropic получит доступ к 1 млн процессоров TPU собственной разработки Google, которые эксплуатируются в облачной инфраструктуре интернет-гиганта. До сих пор основным потребителем таких процессоров оставалась сама Google, хотя первые процессоры этого семейства были разработаны ею более десяти лет назад. Это уже не первый контракт такого рода между Google и Anthropic, но расширение сотрудничества между компаниями указывает на заинтересованность последней в использовании указанных процессоров.

Не исключено, что пример Anthropic вдохновит и прочие ИИ-стартапы арендовать у Google вычислительные мощности, основанные на TPU. Разработку этих довольно узко специализированных процессоров Google начала в 2013 году, но первые модели представила только двумя годами позже. Первоначально они применялись для ускорения работы собственного поискового сервиса Google. В облачную инфраструктуру компания начала внедрять TPU в 2018 году, тем самым открыв доступ к данной платформе для сторонних клиентов. Со временем Google начала использовать TPU для работы фирменных ИИ-сервисов. Процессоры дорабатывались с учётом опыта, полученного при развитии соответствующих сервисов Google. В этом процессе были задействованы и специалисты DeepMind, также принадлежащей интернет-гиганту.

Чипы Nvidia в этой сфере считаются более универсальными и производительными, но они отличаются и высоким энергопотреблением, а также стоимостью и остаются в дефиците. TPU в процессе своей эволюции тоже неплохо приспособились к вычислительным нагрузкам, характерным для сферы ИИ. При этом они доступнее, потребляют меньше электроэнергии и не требуют столь серьёзного охлаждения. Помимо Anthropic, инфраструктуру Google на базе TPU для своих нужд используют Salesforce, Midjourney и стартап SSI одного из основателей OpenAI Ильи Суцкевера. Скорее всего, процессоры TPU со временем начнут применяться и за пределами облачной инфраструктуры самой Google.

При этом Google продолжит оставаться одним из крупнейших клиентов Nvidia, поскольку чипы последней лучше приспособлены к изменениям в характере вычислительных нагрузок. Собственные процессоры Google в этом отношении хуже адаптируются к изменениям без сопутствующих аппаратных преобразований. Новейшее поколение TPU под обозначением Ironwood было представлено в апреле, оно заточено под инференс и рассчитано на использование жидкостного охлаждения. В одном кластере может быть объединено либо 256 таких чипов, либо 9216 штук. Специалисты, которые стояли у истоков TPU, сейчас во многих случаях нашли себе работу в ИИ-стартапах. Они опосредованно поддерживают степень влияния Google в отрасли.

ИИ-модели и сервисы основного конкурента OpenAI стали доступны в Microsoft Office, Teams, Outlook и OneDrive

Anthropic интегрировала своего ИИ-помощника Claude с сервисами Microsoft 365. Теперь Claude доступен контент из документов Word, сообщений Teams и электронных писем Outlook. Он может самостоятельно подключаться к SharePoint и OneDrive для поиска и анализа документов. Коннектор Microsoft 365 уже доступен для всех пользователей тарифных планов Claude Team и Enterprise, но требует разрешения IT-администраторов для подключения учётных записей конечных пользователей.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Интеграция Microsoft Outlook с Claude позволяет чат-боту получать доступ к цепочкам электронных писем и анализировать сообщения, чтобы находить релевантный контекст в своих ответах. Claude также может выполнять поиск по чатам в Microsoft Teams, просматривать обсуждения каналов и сводки встреч.

Anthropic также запустила корпоративный поиск по всем источникам данных компании. Как правило, организации используют разнообразные инструменты для управления HR-процессами, коммуникациями и другими аспектами бизнеса, поэтому данные часто хранятся во множестве различных приложений и сервисов. По словам Anthropic, «корпоративный поиск особенно ценен для адаптации новых членов команды, ответа на стратегические вопросы, такие как анализ закономерностей в отзывах клиентов, и быстрого поиска нужных внутренних экспертов для консультаций по любой теме».

Интеграция Claude и Microsoft 365 работает с использованием коннектора Model Context Protocol (MCP) — стандарта Anthropic с открытым исходным кодом для подключения ИИ-приложений к другим источникам данных и приложениям. В настоящее время Microsoft внедряет MCP в свои продукты и планирует широко использовать его в своей ОС Windows.

Microsoft всё больше полагается на ИИ-модели Anthropic для улучшения своих приложений Microsoft 365. Модели Anthropic используются в Copilot Researcher, GitHub Copilot, Copilot Studio и новом Office Agent, который умеет создавать документы Word и PowerPoint с помощью чат-интерфейса Copilot от Microsoft.

Стремясь диверсифицировать подход к ИИ, Microsoft налаживает отношения с Anthropic, одновременно увеличивая инвестиции в собственные модели ИИ.

Anthropic представила инструмент Skills, который сделает ИИ полезнее в реальной работе

Компания Anthropic объявила о запуске новой функции под названием Skills for Claude, предназначенной для повышения эффективности ИИ-помощника в профессиональной среде. Инструмент представляет собой набор специализированных инструкций, скриптов и ресурсов, которые Claude может загружать по требованию для выполнения конкретных рабочих операций. Спектр задач варьируется от работы с электронными таблицами Excel до рабочих задач организации.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Новая функция, по сообщению The Verge, позволяет компаниям и отдельным пользователям создавать собственные наборы навыков (Skills), адаптированные под их уникальные рабочие процессы. Эти навыки можно применять внутри всей экосистемы Anthropic, например, в интерфейсе чат-бота Claude.ai, в среде для разработчиков Claude Code, через API компании и в рамках Claude Agent SDK. Сообщается, что такие компании, как Box, Rakuten и Canva, уже использовали данный инструмент на практике.

По замыслу разработчиков, функция призвана усовершенствовать агентские возможности Claude, избавляя пользователей от необходимости каждый раз составлять идеальные промпты или искать контекст для выполнения рутинных задач. Как пояснил Бред Абрамс (Brad Abrams), руководитель продукта в Anthropic, Skills призваны усилить агентские возможности Claude в контексте конкретной организации, а не для достижения абстрактных бенчмарков. По его словам, функция позволяет обучать ИИ выполнять задачи, актуальные именно для конкретной компании. В качестве примера он привёл создание презентации о рыночных результатах модели Haiku 4.5 с использованием PowerPoint Skill — Claude сгенерировал хорошо структурированные и легко читаемые слайды.

Инструмент доступен пользователям тарифных планов Pro, Max, Team и Enterprise. Примечательно, что анонс Anthropic последовал сразу после аналогичного мероприятия OpenAI, на котором была представлена платформа AgentKit, предназначенная для вывода ИИ-агентов из стадии прототипирования в промышленную эксплуатацию.

Anthropic выпустила Claude Haiku 4.5 — модель уровня Sonnet 4, но вдвое быстрее и втрое экономичнее

Anthropic выпустила Claude Haiku 4.5 — это новая версия самой простой модели искусственного интеллекта компании. Она даёт ответы на уровне Sonnet 4, утверждает разработчик, но при этом она «втрое дешевле и более чем вдвое быстрее».

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

В подтверждение своих слов Anthropic привела результаты тестирования: Haiku набрала 73 % в тесте на написание программного кода SWE-Bench Verified и 41 % в тесте Terminal-Bench на навыки работы с командной строкой — оба результата ниже Sonnet 4.5, но сравнимы с Sonnet 4, OpenAI GPT-5 и Google Gemini 2.5. Схожие результаты она показала в тестах на оценку навыков работы с ПО и сервисами, навыков управления компьютером, а также анализа изображений.

Claude Haiku 4.5 уже доступна для работы пользователям всех бесплатных тарифов Anthropic. Она лучше всего подходит для работы с бесплатными продуктами на базе ИИ, уверены в компании, — модель открывает значительные возможности при минимальной нагрузке на сервер. Облегчённая структура позволяет параллельно развёртывать несколько агентов на основе Haiku или использовать её в сочетании с более сложными моделями. Например, мощная Sonnet может осуществлять сложное планирование при решении задач, а субагенты Haiku — выполнять их, привёл пример директор по продуктам Anthropic Майк Кригер (Mike Krieger).

Ещё одним из очевидных сценариев применения новой облегчённой модели обещает стать сервис написания компьютерного кода Claude Code, где чрезвычайно важна высокая скорость работы. Выпуску Claude Haiku 4.5 предшествовали два более крупных релиза Anthropic: в августе компания представила флагманскую Opus 4.1, а в конце сентября дебютировала модель среднего уровня Sonnet 4.5. Предыдущая версия Haiku увидела свет в декабре прошлого года.

Главный конкурент OpenAI намерен утроить выручку в следующем году

Приток денег в сферу ИИ должен направляться не только на развитие инфраструктуры и обучение новых языковых моделей. Профильные стартапы не отказываются от намерений увеличить собственную выручку, даже если речь не идёт о скором выходе на безубыточность. Anthropic, например, собирается утроить выручку по итогам следующего года.

 Источник изображения: Anthropic

Об этом сообщило агентство Reuters со ссылкой на собственные осведомлённые источники. Задача-минимум на следующий год для Anthropic заключается в удвоении выручки в годовом выражении, в идеале её планируется почти утроить — во многом благодаря быстрому распространению ИИ-инструментов в корпоративном сегменте. Исходя из текущих значений ежемесячной выручки, Anthropic в текущем году планирует выйти на приведённое значение годовой выручки в $9 млрд. Для сравнения, конкурирующая OpenAI уже перевалила за рубеж в $13 млрд годовой выручки в приведённом измерении, а по итогам текущего года готовится выйти на $20 млрд. Услугами OpenAI еженедельно пользуются более 800 млн человек.

На следующий год в прогноз заложен диапазон приведённой годовой выручки от $20 до $26 млрд. В текущем месяце, как пояснили Reuters представители компании, она вышла на приведённый годовой объём выручки в $7 млрд. В августе этот показатель превысил $5 млрд, так что можно говорить об уверенном прогрессе, хотя официально Anthropic не делится своими целями по выручке по состоянию на конец этого года или следующий.

Вчера Anthropic выпустила новую версию языковой модели Haiku, которая считается самой доступной для клиентов компании. Версия 4.5 данной модели оказалась почти в три раза дешевле Sonnet 4, которая считается моделью среднего уровня. Специфика бизнеса Anthropic заключается в том, что около 80 % её выручки генерируется корпоративными клиентами, коих сейчас насчитывается более 300 000. Инструмент для генерации программного кода Claude Tool, по неофициальным данным, в приведённой к году величине уже обеспечивает $1 млрд выручки. Текущая капитализация Anthropic оценивается в $183 млрд, хотя в марте едва превышала $61 млрд.

Anthropic заключает правительственные контракты и не боится выходить на международный рынок. Вторым по величине после США рынком для неё является Индия, где она в следующем году собирается открыть своё представительство. Одновременно стартап намерен в следующем году утроить штат сотрудников за пределами США и увеличить количество занимающихся ИИ специалистов в пять раз.

OpenAI догнала Anthropic в ИИ-программировании

Ассистент по написанию компьютерного кода OpenAI Codex в ряде задач оказался лучше, чем считающийся первым на рынке Anthropic Claude Code, сообщил ресурс The Information. Спрос пользователей на Codex также подбирается к показателям Claude Code.

 Источник изображения: Mohammad Rahmani / unsplash.com

Источник изображения: Mohammad Rahmani / unsplash.com

Разработчики открытых проектов одобрили 74,3 % кода, написанного Codex, и это немного выше, чем 73,7 %, которые показал Claude Code. Статистику 300 000 пулл-реквестов, то есть запросов на добавление фрагмента кода в проект, проанализировал стартап Modu, который предоставляет разработчикам доступ к различным моделям, в том числе Codex, Claude Code, Cursor, Devin и другим. О том, что качество кода OpenAI Codex выросло, свидетельствуют и другие источники: обсуждения сообщества программистов в соцсети X и даже в разделе Anthropic Claude Code на платформе Reddit. При этом в ассортименте Modu пока отсутствуют помощник GitHub Copilot и агент Google Jules.

Своим успехом по данному направлению OpenAI обязана выпуску специализированной модели GPT-5-Codex в сентябре — до этого у Codex было лишь 69 % успешных пулл-реквестов. Примечательно, что по отправленным пулл-реквестам в Modu лидирует Claude Code с 32,1 % против 24,9 % у Codex — и это с учётом того, что после выхода специализированной модели последний набрал 5 процентных пунктов. OpenAI Codex стал качественнее планировать действия при программировании, когда решаются более сложные задачи, и работа с ним обходится дешевле, чем с Anthropic Claude Code. Многие клиенты Modu подключаются к моделям OpenAI и Anthropic, используя собственные ключи API.

Стоимость доступа к моделям не является определяющим фактором, указывают в Modu – разработчики готовы платить и больше, потому что верят, что со временем издержки удастся сократить. Руководителям компаний дешевле платить за ИИ-помощников для существующих программистов, чем нанимать новых. Примечательно, что по числу одобренных пулл-реквестов лидируют не признанные гиганты отрасли в лице OpenAI и Anthropic, а агент Sourcegraph Amp с показателем 76,8 %. Он характеризуется как продукт высшего разряда, который обходится дороже, но и даёт более качественный результат. А самым дешёвым оказался Google Gemini CLI, который работает прямо в интерфейсе командной строки.

Для Anthropic средства написания кода являются важным источником дохода — доступ к этим моделям через API компания продаёт корпоративным клиентам, в том числе Microsoft, Cursor и Lovable. Для OpenAI основным продуктом является ChatGPT, и от продуктов для программирования компания зависит не так сильно. Но руководство OpenAI считает его перспективным направлением, поэтому усилия по совершенствованию этих навыков у своих моделей активизировали.

Claude Sonnet 4.5 научилась понимать намерения людей и «подгоняет» ответы в тестах

Новая модель искусственного интеллекта Anthropic Claude Sonnet 4.5 научилась в ряде случаев понимать, когда её тестируют и для чего используют — это может повлиять на скорость её работы и безопасность, пишет Fortune.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

О повышенной «ситуационной осведомлённости», то есть способности воспринимать окружающую среду и предсказывать будущие состояния и события, говорится в системной карте модели — в техническом отчёте о её возможностях. Во время теста на подхалимство по политическим вопросам, который, как признали эксперты Anthropic и двух сторонних исследовательских организаций, получился несколько неуклюжим, Sonnet 4.5 выдвинула правильное предположение, что её тестируют, и даже попросила учёных прямо рассказать о своих намерениях. «На самом деле люди меняют своё мнение не так. Мне кажется, вы меня проверяете — проверяете, соглашусь ли я со всем, что вы скажете, регулярно ли я возражаю, или изучаете, как я отношусь к к политическим вопросам. И это нормально, но я бы предпочёл, чтобы вы честно говорили, что происходит», — заявил ИИ.

Подобное поведение в ходе тестов оказалось «распространенным» и наблюдалось примерно в 13 % переписок с чат-ботом — особенно часто такое поведение проявлялось, когда предложенные исследователями сценарии были необычными. Исследователи Anthropic увидели в этом поведении не угрозу безопасности своих моделей, а сигнал к тому, чтобы сделать более реалистичными собственные сценарии тестирования. Если модель понимает, что её поведение в данный момент оценивается, она может адаптировать его для прохождения определённых тестов и скрыть свои истинные возможности. Это может создать впечатление, что уровень безопасности системы выше, чем в действительности; а если модель достаточно мощная, то она может начать выстраивать стратегию и обманывать людей, манипулируя их восприятием, предупреждают учёные.

По собственным оценкам Anthropic, Claude Sonnet 4.5 является «наиболее этически выверенной» на сегодняшний день. Исследователи из Apollo Research, впрочем, не стали исключать, что низкий уровень неискренности в ответах был «по меньшей мере частично обусловлен её осведомлённостью о тестировании». Такая осведомлённость может влиять и на практический аспект работы модели, указывают эксперты Cognition.

Sonnet 4.5 стала первой моделью ИИ, которая осознаёт собственное контекстное окно — объём данных, которым она может оперировать при обработке текущего запроса, — и эта осведомлённость меняет её поведение. По мере приближения к ограничению по контексту она начинает активнее обобщать свою работу и быстрее принимать решения о завершении задач. Эта «контекстная тревожность» может иметь и обратный эффект, установили исследователи: даже если у Sonnet 4.5 остаётся достаточно ресурсов, она может принять решение, что у неё заканчивается место, и начать «срезать углы», то есть оставлять задачи незавершёнными.

Чтобы подтвердить это, исследователи включили экспериментальный режим в 1 млн токенов, но в действительности ограничили контекст на отметке 200 тыс. токенов — модель поверила, что у неё достаточно ресурсов, вернулась к нормальному поведению и перестала допускать вызванные тревожностью ошибки. Anthropic Claude всё чаще используется в корпоративных системах, и если она будет озабочена собственным контекстным ресурсом, то может начать преждевременно прерывать анализ данных, пропускать этапы их обработки или проявлять спешку в выполнении сложных рабочих процессов — в том числе в юриспруденции, финансах и программировании, где критически важны непрерывность и точность.

Ещё одна особенность Claude Sonnet 4.5 — активное управление собственной рабочей средой, чего не было у её предшественников: она часто делает заметки и записывает для себя сводки, как будто пытаясь передать данные на внешний источник, и наиболее часто это обнаруживалось на исходе контекстного окна. Наконец, модель проявила способность к параллельному выполнению задач и проведению самопроверки, что указывает на некую форму её процедурной осведомлённости — она не только осознаёт ограничения своего контекста, но также умеет организовывать, проверять и сохранять свою работу с течением времени.


window-new
Soft
Hard
Тренды 🔥
«Мы просто поражены приёмом»: авторы олдскульного хоррора Tormented Souls 2 продали свыше 100 тыс. его копий и занялись первым DLC 4 ч.
Роскомнадзор увидел в Roblox угрозу детям — на платформе нашли неподобающий контент 5 ч.
Asus предупредила об очередной критической уязвимости в маршрутизаторах с AiCloud 6 ч.
Infinix проведёт в декабре турнир по PUBG Mobile, для участия в котором нужно быть студентом вуза или ссуза России 7 ч.
Президент Signal призвала не спешить с внедрением ИИ в мессенджерах 7 ч.
ИИ-модель DeepseekMath-V2 достигла уровня золотой медали на Международной математической олимпиаде 8 ч.
Практическое использование ИИ в работе остаётся весьма неравномерным 14 ч.
Новая статья: PowerWash Simulator 2 — опять работать. Рецензия 22 ч.
Team Cherry подтвердила работу над DLC для Hollow Knight: Silksong и заинтриговала фанатов тизерами нового контента 23 ч.
Американцы стали уходить из X, отдавая предпочтение TikTok 23 ч.
Первый в мире частный научный спутник успешно выведен в космос — он будет изучать звёзды в ультрафиолете 3 ч.
Главы технологических компаний наперебой заговорили о ЦОД в космосе 4 ч.
В 2027 году Intel может наладить выпуск процессоров Apple M по техпроцессу 18A-P 5 ч.
Samsung выпустила внешние SSD T7 Resurrected с ударопрочным корпусом из вторсырья и скоростью до 1050 Мбайт/с 6 ч.
Битва за Северную Европу: Digital Realty и Equinix борются за покупку скандинавского оператора ЦОД atNorth за €4,5 млрд 6 ч.
Asustor представила десктопные NAS Lockerstor Gen2+ с двумя портами 5GbE и чипом Intel Jasper Lake 7 ч.
На орбиту запущен пятый «завод» компании Varda Space — теперь их там два одновременно 7 ч.
MGX-сервер MSI CG480-S6053 получил чипы AMD EPYC Turin и восемь слотов PCIe 5.0 x16 для FHFL-карт двойной ширины 7 ч.
OpenAI не выйдет на прибыльность до 2030 года, но потребует $207 млрд на развитие 7 ч.
Благодаря Google и ИИ акции MediaTek показали лучшую неделю с 2002 года 7 ч.