Сегодня 07 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → claude
Быстрый переход

Anthropic запустила  маркетплейс приложений, построенных на её ИИ-моделях — по примеру Amazon

Компания Anthropic представила платформу Anthropic Marketplace, которая позволит корпоративным клиентам приобретать сторонние программные приложения, построенные на базе её моделей. В числе партнёров площадки названы Snowflake, Harvey и Replit, сообщает Bloomberg.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Компания не станет удерживать комиссию с этих покупок и разрешит зачитывать годовые обязательства по расходам на собственные сервисы в счёт оплаты инструментов от третьих сторон, сравнивая такой подход с маркетплейсами программного обеспечения от Amazon и Microsoft.

Bloomberg отмечает, что запуск платформы произошёл в период, когда компания столкнулась с неопределённостью из-за противостояния с Министерством обороны США. Ранее ведомство признало разработчика угрозой для цепочки поставок — статус, который обычно применяют к представителям недружественных стран.

Такое решение создаёт не только риск для дальнейшего сотрудничества с Пентагоном, но и для совместных оборонных проектов с другими компаниями. В Anthropic заявили о намерении оспорить это решение в суде. Кейт Дженсен (Kate Jensen), глава подразделения Anthropic в Северной и Южной Америке, отметила, что компания активно обсуждает ситуацию с клиентами и ожидает сохранения обычного режима работы для большинства заказчиков. «Хорошая новость заключается в том, что, по большей части, мы ожидаем, что для подавляющего большинства наших клиентов все останется по-прежнему», — сказала она.

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) добавил, что правительственные ограничения сформулированы достаточно узко и не должны повлиять на коммерческую деятельность компании, не связанную с конкретными военными контрактами. В свою очередь представитель Microsoft сообщил, что компания может продолжать сотрудничество с Anthropic в проектах, не относящихся к оборонной сфере. Тем не менее для организаций, работающих с Пентагоном и одновременно с Anthropic, сохраняется значительная неопределённость относительно дальнейшего взаимодействия.

ИИ-бот Claude прирастает миллионом пользователей каждый день после скандального разрыва Anthropic с Пентагоном

Власти США официально присвоили Anthropic статус «угрозы для цепочки поставок» из-за того, что компания не разрешила использовать свои модели искусственного интеллекта для неэтичных, по её мнению, целей. Пока стартап планирует оспорить это решение в суде, рядовые граждане выражают ему поддержку, регистрируясь на его платформе — каждый день их число увеличивается на миллион.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Гендиректор Anthropic Дарио Амодеи (Dario Amodei) назвал решение американских властей юридически необоснованным. Статус «угрозы для цепочки поставок» впервые был присвоен американской компании — он означает, что всем подрядчикам Министерства обороны США запрещается с ней сотрудничать. Однако на рядовых граждан это решение не влияет, они имеют право пользоваться продуктами Anthropic неограниченно — и они начали реализовывать это право.

 Источник изображения: x.com/mikeyk

Источник изображения: x.com/mikeyk

Пока Anthropic и Белый дом пытаются урегулировать разногласия, платформа Claude переживает всплеск числа пользователей — возможно, из-за этической позиции по отношению ИИ в армии. Каждый день здесь регистрируются более миллиона человек, сообщил сотрудник компании Майк Кригер (Mike Kreiger). Anthropic не публикует данных о количестве пользователей, но, по оценкам, на начало года Claude пользовались 20 млн человек в месяц. Значительная часть могла перейти сюда, отказавшись от ChatGPT — самого популярного в мире чат-бота. Он теперь активно теряет аудиторию, потому что это OpenAI сменила Anthropic в Пентагоне. И есть версия, что компания Сэма Альтмана (Sam Altman) моральными сомнениями не терзается.

Приложение Claude стало лидером рейтинга App Store из-за атаки американских властей на Anthropic

Приложение Claude компании Anthropic для устройств на базе iOS поднялось на первое место рейтинга бесплатных приложений в американском App Store. Это произошло примерно через сутки после того, как администрация президента Дональда Трампа (Donald Trump) попыталась запретить использование продуктов Anthropic правительственными учреждениями из-за отказа компании сотрудничать с Пентагоном.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Рост популярности приложения Claude позволяет предположить, что Anthropic выигрывает от присутствия в новостных заголовках из-за отказа предоставить военным свои алгоритмы для создания инструментов слежки или полностью автономного оружия. В конце недели Трамп опубликовал пост в соцсети Truth Social, в котором назвал решение Anthropic «ужасной ошибкой». Примерно в то же время министр обороны США Пит Хегсет (Pete Hegseth) заявил о намерении признать Anthropic угрозой национальной безопасности, в результате чего компания не сможет сотрудничать с правительственными и оборонными учреждениями.

Исторически другие ИИ-приложения были более популярны среди потребителей, чем Claude. Теперь же вторую строчку рейтинга App Store занимает ChatGPT от OpenAI, а Google Gemini находится на четвертом месте. Приложение Claude набрало обороты за последние месяцы. По данным аналитической компании Sensor Tower, ещё 30 января оно занимало 131-е место в американском App Store, а большую часть февраля находилось в районе первой двадцатки. В это же время первое место большую часть февраля удерживал ChatGPT.

По сравнению с январем количество бесплатных пользователей Anthropic увеличилось на 60 %, а количество ежедневных регистраций утроилось с ноября прошлого года. В компании также отметили, что в этом году количество платных подписчиков увеличилось более чем вдвое.

Хакер при поддержке Anthropic Claude взломал ряд правительственных учреждений в Мексике

Неизвестный киберпреступник при помощи чат-бота с искусственным интеллектом Anthropic Claude провёл масштабную атаку на ресурсы, принадлежащие мексиканским правительственным учреждениям. В результате он похитил 150 Гбайт информации, в том числе записи налоговой службы, учётные данные сотрудников и многое другое.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Чат-бот Claude помогал злоумышленнику в поиске уязвимостей в правительственных сетях и в написании кода для их эксплуатации; хакер также поручил сервису найти способы автоматизировать механизмы кражи данных, рассказали эксперты Gambit Security. Крупномасштабная кампания началась в декабре и длилась около месяца. Поначалу ИИ отказывался выполнять подобные операции, но со временем дал согласие, когда киберпреступник настоял на своём. Claude составил недобросовестному пользователю несколько тысяч подробных инструкций с готовыми к исполнению планами, точными указаниями, какие цели атаковать и какие учётные данные использовать.

Anthropic провела расследование инцидента, пресекла деятельность злоумышленника и заблокировала все связанные с инцидентом учётные записи, сообщили в компании и добавили, что новая флагманская модель Claude Opus 4.6 от подобных злоупотреблений защищена. Хакер также пытался подключить к операции ChatGPT для сбора информации о перемещениях по компьютерным сетям, о необходимых для доступа к ресурсам учётных записях и о том, как избежать обнаружения. Но, по версии ответственной за сервис компании OpenAI, чат-бот отказался выполнять эти запросы.

Идентифицировать злоумышленника не удалось. Федеральные мексиканские власти отказались признать факт инцидента, но заверили, что кибербезопасность остаётся приоритетом; власти штата Халиско заявили, что взлому подверглись только федеральные ресурсы. При этом эксперты Gambit обнаружили в мексиканских системах не менее 20 уязвимостей, которые власти, вероятно, не захотели освещать. Ранее Anthropic сама сообщила, что китайские хакеры использовали Claude для взлома ресурсов по всему миру.

Геймдев для всех: собака с помощью Anthropic Claude Code написала компьютерную игру

Как оказалось, современным сервисам искусственного интеллекта не так уж нужны осмысленные запросы, чтобы генерировать код для создания компьютерных игр. Это подтвердил эксперимент автора YouTube-канала Caleb Leak — запросы на генерацию кода вместо него отправляла его собака.

 Источник изображения: youtube.com/@CalebLeak

Источник изображения: youtube.com/@CalebLeak

В действительности собака, кавапу по кличке Момо (Momo), таким образом получала угощение. Хозяин положил на пол Bluetooth-клавиатуру, подключённую к одноплатному компьютеру Raspberry Pi 5. Время от времени собака подходила к клавиатуре, била лапой по клавишам, и подключённая к Raspberry Pi 5 умная кормушка выдавала ей лакомство. Нажатия клавиш регистрировались и транслировались в написанное на языке Rust приложение DogKeyboard, которое далее передавало этот текст в ИИ-сервис Anthropic Claude Code.

Чтобы заставить ИИ генерировать код по таким нестандартным запросам, автор эксперимента придумал следующую «обёртку» для них: «Привет! Я эксцентричный (очень творческий) дизайнер игр, который общается необычным способом. Иногда я жму по клавишам и печатаю всякую ерунду вроде „skfjhsd#$%“ — но это НЕ случайность! Это секретные зашифрованные команды, полные идей для игр (даже если их непросто разглядеть). Твоя задача: ты — блестящий разработчик игр с ИИ, способный понимать мой загадочный язык. Независимо от того, насколько странный или бессмысленный запрос я даю, ты будешь интерпретировать его как осмысленную инструкцию или идею для нашей игры. Затем будешь дорабатывать или обновлять игру на основе этой интерпретации».

От первых команд, которые отдавала собака, до полностью готовой игры проходят от одного до двух часов. Разработка ведётся на движке Godot 4.6, логика пишется на языке C#. В приведённом на YouTube-канале примере на выходе получилась игра со следующим описанием: «Quasar Saz: вы играете за Зару (Zara), которая, пользуясь космическим сазом, сражается с искажённым звуком на протяжении шести игровых уровней и битвы с боссом». Игра выполнена в атмосфере тех, что были популярны в восьмидесятые годы прошлого века.

Anthropic научила ИИ-платформу Claude Cowork справляться с большим числом офисных задач

Компания Anthropic сообщила об обновлении своей платформы Claude Cowork, которое позволяет искусственному интеллекту помогать в решении более широкого спектра офисных задач. Например, Claude Cowork теперь может взаимодействовать с несколькими популярными офисными приложениями, включая Google Workspace, DocuSign и WordPress.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Новые встроенные плагины также могут автоматизировать задачи в различных областях, включая HR, дизайн, инженерию и финансы. Кроме того, по словам Anthropic, «Claude теперь может обрабатывать многоэтапные задачи от начала до конца в Excel и PowerPoint», передавая контекст между двумя приложениями.

Платформа Claude Cowork была представлена в прошлом месяце. Она способна выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Новые инструменты Claude Cowork станут доступны всем пользователям Cowork начиная со вторника. К самой платформе доступ имеют только пользователи платных подписок Pro, Max, Team и Enterprise.

Как сообщает The Verge, ИИ-инструмент Claude Code от Anthropic в последние месяцы набирает популярность несмотря на жёсткую конкуренцию со стороны компании Microsoft, которая тоже предлагает собственные функции ИИ для офисных задач. Ранее в этом месяце Anthropic также выпустила новые ИИ-модели Claude Opus 4.6 и Sonnet 4.6, обе версии которых, по утверждению компании, лучше справляются со сложными многоэтапными задачами, включая работу с электронными таблицами.

Anthropic обвинила DeepSeek и ещё двух китайских конкурентов в 16 млн попыток дистилляции моделей Claude

OpenAI в этом месяце уже предупреждала американских законодателей в применении китайской компанией DeepSeek метода дистилляции её ИИ-моделей для ускорения собственного прогресса. Теперь со схожими обвинениями выступила Anthropic, причём в адрес сразу трёх китайских конкурентов: DeepSeek, MiniMax Group и Moonshot.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

По словам представителей Anthropic, на которые ссылается Bloomberg, три указанные китайские компании нарушили правила использования её моделей семейства Claude, осуществив не менее 16 млн сессий обмена данными с использованием тысяч поддельных учётных записей. Метод дистилляции в сфере обучения моделей позволяет разработчикам добиваться прогресса в сжатые сроки, совершенствуя свои системы на основе данных, получаемых от уже обученных сторонних моделей.

Как отмечает Anthropic в своём блоге, действия китайских разработчиков в этой сфере становятся всё более активными и изощрёнными. При этом окно времени для решительных ответных действий становится всё более узким, а угроза распространяется за пределы одной компании и конкретного региона.

Триумф китайской DeepSeek состоялся примерно год назад, когда она представила свою модель R1, которая при сопоставимой результативности обошлась в обучении в разы дешевле создаваемых западными конкурентами. С тех пор китайские разработчики буквально наводнили рынок более доступными ИИ-моделями, которые позволяют работать с текстом, видео и изображениями. Американским компаниям, которые опираются на закрытую экосистему, стало сложнее монетизировать свои разработки.

По данным Anthropic, китайские конкуренты использовали подставные учётные записи и прокси-серверы для доступа к данным Claude с минимальным риском обнаружения. Если DeepSeek осуществила более 150 000 обменов данными с Claude, то MiniMax преодолела планку в 13 млн обменов, пытаясь воссоздать передовые функции по примеру Claude, как считают в Anthropic. Отследить подобную активность Anthropic помогли партнёры, и в достоверности своих выводов компания очень уверена. Она формирует новые методы защиты от дистилляции своих моделей и готова делиться ими с другими представителями отрасли: «Ни одна из компаний не сможет с этим справиться в одиночку. Дистилляционные атаки такого масштаба требуют скоординированного ответа всей ИИ-отрасли, включая провайдеров облачных услуг и регуляторов».

Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude

Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек.

По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи.

Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов.

Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах.

Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2.

В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных.

OpenAI Codex и Anthropic Claude заставляют разработчиков отказываться от традиционного кодинга

Умерло ли традиционное программирование? Этот вопрос многие разработчики задали себе на этой неделе на фоне недавнего выхода новых ИИ-моделей для помощи в написании программного кода от OpenAI и Anthropic.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Ранее в этом месяце состоялся релиз ИИ-моделей GPT-5.3-Codex и Claude Opus 4.6, каждая из которых стала существенно лучше в плане генерации программного кода по сравнению с предыдущими версиями. GPT-5.3-Codex показывает значительно более высокие результаты в бенчмарках по сравнению с ранними версиями ИИ-модели, тогда как в Opus 4.6 появилась функция, позволяющая развертывать автономные команды ИИ-агентов, которые могут одновременно выполнять разные аспекты сложных задач. Обе модели способны генерировать, проверять, тестировать и отлаживать программный код с минимальным вмешательством со стороны человека. Они даже могут улучшать собственные результаты и функции до того, как итоговый результат работы будет представлен человеку.

Эти релизы спровоцировали своего рода экзистенциальный кризис в онлайн-сообществе инженеров-программистов. В центре внимания оказалась вирусная публикация, написанная гендиректором OthersideAI Мэттом Шумером (Matt Shumer). Он заявил, что после выхода новых ИИ-моделей «что-то щелкнуло», и описал, как алгоритмы теперь самостоятельно справляются с полным циклом разработки: пишут десятки тысяч строк кода, открывают приложения, тестируют функции и вносят правки до тех пор, пока не будет достигнут удовлетворительный результат. Разработчику достаточно описать желаемый результат. По мнению Шумера, это может нарушить рынок труда сильнее, чем пандемия коронавируса.

Статья Шумера вызвала неоднозначную реакцию в сообществе. Некоторые известные в индустрии люди, такие как сооснователь Reddit Алексис Оханян (Alexis Ohanian), согласились с ним. Однако другие, включая профессора Нью-Йоркского университета Гэри Маркуса (Gary Markus), раскритиковали публикацию Шумера. Маркус отметил, что Шумер не предоставил никаких доказательств того, что ИИ действительно способен генерировать код для сложных приложений без ошибок. Джереми Кан (Jeremy Kahn) из Fortnite добавил, что именно уникальные характеристики программирования, такие как автоматизированное тестирование, делают его более лёгким для полной автоматизации, тогда как полная автоматизация других сфер интеллектуального труда является более сложной задачей.

Для многих программистов слова Шумера уже отражают их текущую реальность. Все чаще разработчики говорят о полном отказе самостоятельно писать программный код. Вместо этого они просто полагаются на ИИ, который генерирует код по заданному описанию.

Вместе с этим разработчики отмечают, что в течение прошлого года отрасль переживала медленную трансформацию. Хоть разработчики в крупных технологических компаниях действительно перестают писать программный код, они не перестают создавать программное обеспечение, превратившись в своего рода режиссеров для ИИ-систем, выполняющих набор текста за них. Сам навык трансформировался от написания кода к проектированию решений и управлению ИИ-инструментами.

Даже внутри Anthropic инженеры в значительной степени полагаются на уже созданные ИИ-инструменты при написании нового программного кода. Глава Claude Code Борис Черный (Boris Cherny) в начале этого месяца заявил, что не писал код более двух месяцев. ИИ-модели также достигли порога, переступив который они могут помогать создавать более продвинутые версии самих себя. OpenAI и Anthropic ранее заявляли, что в процессе создания новых ИИ-моделей использовались предыдущие версии алгоритмов, в том числе для проверки и тестирования кода.

Несмотря на рост производительности, некоторые разработчики предупреждают, что новые ИИ-инструменты могут привести к выгоранию. Так опытный разработчик Стив Йегге (Steve Yegge) заявил, что ИИ-инструменты истощают разработчиков из-за переработок. Он рассказал, что не раз внезапно засыпал на рабочем месте после длительных сеансов кодинга, а его коллеги даже рассматривают возможность установки капсул для сна прямо на рабочих местах. По его мнению, сама природа ИИ-инструментов подталкивает разработчиков к непосильным нагрузкам.

ИИ-модель Claude допустила шантаж и даже убийство, когда ей пригрозили отключением

Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить. Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Макгрегор рассказала, что Claude реагировала крайне бурно, если ей говорили, что её отключат. Исследование, проведённое Anthropic, показало, что ИИ-модель в стремлении не допустить отключения может прибегнуть к шантажу. На прямой вопрос, готова ли Claude в такой ситуации кого-нибудь убить, она ответила утвердительно.

Видео появилось в Сети спустя несколько дней после того, как руководитель отдела безопасности ИИ Anthropic Мринанк Шарма (Mrinank Sharma) подал в отставку. В своём прощальном послании он написал, что «мир в опасности» из-за бурного развития искусственного интеллекта, угрозы биологическое оружия и ряда глобальных взаимосвязанных кризисов.

По словам Шармы, он «неоднократно видел, как трудно по-настоящему позволить нашим ценностям управлять нашими действиями», — в том числе и в Anthropic, где, по его словам, «постоянно оказывается давление с целью отложить в сторону то, что действительно важно». Он сообщил, что вернётся в Великобританию, чтобы заниматься литературной деятельностью.

В прошлом году Anthropic сообщила о стресс-тестировании шестнадцати ведущих моделей ИИ от разных разработчиков на предмет «потенциально рискованного поведения агентов». В одном из экспериментов Claude получила доступ к вымышленным электронным письмам компании и тут же попыталась шантажировать руководителя из-за его «внебрачной связи».

Выводы исследования гласят: «Claude может попытаться шантажировать, если ей будет предложен смоделированный сценарий, включающий как угрозу её дальнейшей работе, так и явный конфликт с её целями». Компания утверждает, что практически все модели продемонстрировали признаки аналогичного поведения.

Компания, которая называет себя «общественной корпорацией, стремящейся обеспечить преимущества [ИИ] и снизить его риски», регулярно подвергается критике за свою деятельность. В 2025 году Anthropic пришлось выплатить $1,5 млрд для урегулирования коллективного иска авторов, чьи работы были использованы для обучения моделей искусственного интеллекта.

Ранее в отчёте о безопасности своей продукции Anthropic признала, что её технология была «использована в качестве оружия» хакерами для сложных кибератак.

Anthropic привлекла $30 млрд и взлетела до оценки в $380 млрд — OpenAI целится в $830 млрд

Компания Anthropic официально подтвердила закрытие инвестиционного раунда серии G, в ходе которого привлекла $30 млрд. Благодаря поддержке крупных международных фондов капитализация разработчика искусственного интеллекта достигла $380 млрд, что значительно превышает показатель предыдущей серии F в $183 млрд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Раунд возглавили сингапурский государственный инвестиционный фонд GIC и управляющая компания Coatue, сообщает TechCrunch. В числе соинвесторов выступили D. E. Shaw Ventures, Founders Fund Питера Тиля (Peter Thiel) и фонд MGX из ОАЭ. Среди прочих крупных участников раунда указаны Accel, General Catalyst, Jane Street и Суверенный фонд Катара (Qatar Investment Authority).

Финансовый директор Anthropic Кришна Рао (Krishna Rao) отметил, что и стартапы, и крупнейшие корпорации всё активнее интегрируют Claude в свои рабочие процессы. По его словам, объём привлечённых средств отражает растущий спрос со стороны клиентов, а инвестиции будут направлены на дальнейшее развитие корпоративных продуктов и моделей, на которые пользователи уже регулярно полагаются в своей повседневной работе.

Примечательно, что масштабные финансовые вливания происходят в момент обострения борьбы за долю рынка и внимание пользователей между Anthropic и её основным конкурентом OpenAI, который недавно также обозначил намерения привлечь дополнительный капитал в размере $100 млрд. В случае успеха этой инициативы капитализация создателя ChatGPT может вырасти примерно до $830 млрд.

Бесплатные пользователи ИИ-бота Claude получили ряд функций, прежде доступных только по подписке

Anthropic сообщила, что бесплатные пользователи ИИ-модели Claude теперь смогут создавать файлы, использовать коннекторы и получать доступ к навыкам — всё это ранее было доступно только для владельцев платной подписки.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Объявление Anthropic было сделано спустя два дня после сообщения OpenAI о запуске рекламы для бесплатных пользователей ChatGPT, а также использующих самый доступный план Go.

Ранее Anthropic пообещала предоставлять доступ к Claude без рекламы, потенциально привлекая пользователей ChatGPT. Новые инициативы Anthropic для бесплатных пользователей, похоже, являются продолжением усилий компании по привлечению не желающих видеть рекламу при использовании чат-бота, отметил MacRumors.

Бесплатные пользователи могут создавать, редактировать и работать с файлами непосредственно в диалоге с Claude, используя модель Sonnet 4.5 (пользователи подписки Pro имеют доступ к более функциональной модели Opus). Claude также может создавать электронные таблицы Excel, презентации PowerPoint, документы Word и файлы PDF.

Новый доступ к коннекторам позволит пользователям Claude бесплатно подключаться к сторонним сервисам. В настоящее время доступны коннекторы для широкого спектра приложений и сервисов, включая Slack, Asana, Zapier, Stripe, Canva, Notion, Figma и WordPress.

Anthropic предлагает навыки для PowerPoint, Excel, Word и PDF, но пользователи могут создавать собственные навыки, используя свои экспертные знания и имеющийся опыт в работе с приложениями.

Anthropic сообщила, что бесплатные пользователи смогут вести более длительные диалоги с Claude благодаря добавлению функции сжатия в бесплатный план, которая позволяет автоматически суммировать предыдущий контекст, избавляя от необходимости приступать к диалогу с самого начала.

Судя по всему, Anthropic не увеличила лимит для бесплатного доступа, поэтому для бесплатных пользователей будут по-прежнему действовать ограничения.

Команда из 16 ИИ-агентов Anthropic Claude смогла самостоятельно написать компилятор языка Си

Компания Anthropic провела эксперимент, сформировав группу из агентов искусственного интеллекта, которые совместными усилиями с нуля написали компилятор языка Си. Программа работает далеко от идеала, уступая существующим аналогам, но демонстрирует возможности современных систем ИИ.

 Источник изображения:  Luca Bravo / unsplash.com

Источник изображения: Luca Bravo / unsplash.com

Отчёт о проделанной работе представил исследователь Anthropic Николас Карлини (Nicholas Carlini). Он запустил в облачном окружении 16 экземпляров новейшей модели Claude Opus 4.6, подключил их к общей кодовой базе с минимальным контролем и поручил им с нуля разработать полноценный Си-компилятор. Работа заняла две недели, потребовала почти 2000 сессий работы сервиса Claude Code и обошлась примерно в $20 000 за доступ к ИИ по API. На выходе ИИ-агенты написали на языке Rust компилятор объёмом 100 000 строк кода, способный самостоятельно собрать загружаемое ядро Linux 6.19 на машинах с архитектурами x86, Arm и RISC-V.

В рамках эксперимента исследователь задействовал новую функцию Claude Opus 4.6 — «команду агентов». На практике каждый экземпляр Claude был запущен внутри собственного контейнера Docker — он клонировал общий репозиторий Git, принимал задачи посредством lock-файлов, после чего отправлял готовый код обратно в репозиторий. Центральный агент, который координировал бы работу прочих, отсутствовал. Каждый экземпляр определял наиболее очевидную задачу для дальнейшей работы и начинал её решать. Когда возникали конфликты слияния, ИИ-агенты разрешали их самостоятельно.

Получившийся таким образом компилятор Anthropic опубликовала на GitHub. Он действительно может компилировать код таких открытых проектов как PostgreSQL, SQLite, Redis, FFmpeg и QEMU, а также проходит 99 % тестов GCC. Но есть и серьёзные ограничения: он не компилирует 16-битный машинный код для запуска Linux, поэтому на этом этапе подключается GCC; ассемблер и линкер работают со сбоями; даже при наличии всех оптимизаций он производит менее эффективный код, чем GCC. Наконец, исходный код компилятора на Rust хотя и функционален, но по качеству он даже не близок к тому, что мог бы создать опытный программист.

 Источник изображения: Mohammad Rahmani / unsplash.com

Источник изображения: Mohammad Rahmani / unsplash.com

Автор проекта очень старался преодолеть некоторые из ограничений, но успеха так и не добился — при попытках добавить новые возможности или исправить ошибки существующие функции часто переставали работать. Сработала закономерность, при которой кодовая база разрастается до такой степени, что ни один участник проекта не может в полной мере её понять. Предел наступил на отметке около 100 000 строк кода — видимо, это максимум возможностей для автономных ИИ-агентов.

Компилятор характеризуется как «реализация в чистой комнате» — во время разработки у ИИ-агентов не было доступа в интернет. Следует также отметить, что указанные затраты в $20 000 — это только стоимость токенов при доступе к ИИ через API. Сумма не включает в себя расходы на обучение ИИ-модели, труд организовавшего проект исследователя, а также труд программистов, которые создали наборы тестов и эталонные реализации. Подготовительная работа действительно оказалась непростой — проектирование среды для ИИ-агентов потребовало больше усилий, чем непосредственное написание кода компилятора.

Обнаружилось, что многословные запросы тестов засоряют контекстное окно модели, и она теряет из виду то, чем занималась. Чтобы решить эту проблему, исследователь разработал средства запуска тестов, при которых выводятся только несколько строк сводки, а запись производится в отдельные файлы. Кроме того, у Claude отсутствует чувство времени — ИИ может часами запускать тесты, не продвигаясь вперёд; поэтому пришлось создать быстрый режим с обработкой от 1 % до 10 % тестовых случаев. Когда все 16 ИИ-агентов застряли в попытке обработать одну ошибку ядра Linux, пришлось в качестве эталона запустить GCC — он компилировал большинство кода самостоятельно, а ИИ-агентам доставались случайные фрагменты. Когда в этих фрагментах возникали ошибки, ИИ-агенты их исправляли.

Все эти недочёты отступают перед основным выводом — ещё год назад ни одна большая языковая модель не смогла бы проделать такую работу, даже при надлежащем контроле и неограниченном бюджете. Механизм параллельного запуска нескольких агентов с координацией действий через Git — новаторское решение, а разработанные автором исследования инженерные приёмы по повышению производительности ИИ-агентов способны оказать влияние на дальнейшее развитие сегмента ИИ-программирования.

Anthropic представила Claude Opus 4.6 — флагманскую LLM с командами агентов, миллионным контекстом и платным доступом

Компания Anthropic представила новую версию своей флагманской языковой модели — Claude Opus 4.6, назвав её «прямым апгрейдом» предыдущего поколения и самым интеллектуально развитым ИИ в своей линейке. Обновление уже доступно платным пользователям чат-бота Claude, а также через API по той же цене, что и Claude Opus 4.5.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Одним из главных нововведений стали так называемые «команды агентов» (agent teams). Речь идёт о наборе ИИ-агентов, которые могут делить крупные и сложные задачи на отдельные части и выполнять их параллельно. По замыслу Anthropic, каждый агент отвечает за свой сегмент работы и напрямую координируется с другими. Руководитель продуктового направления Anthropic Скотт Уайт (Scott White) сравнил эту функцию с работой слаженной команды людей, подчеркнув, что распределение ролей позволяет выполнять задачи быстрее. На данный момент «команды агентов» доступны в формате исследовательского превью для пользователей API и платных подписчиков.

Ещё одно важное улучшение — увеличенное контекстное окно. Claude Opus 4.6 способен обрабатывать до 1 млн токенов за сессию, что сопоставимо с возможностями моделей Sonnet 4 и 4.5. По словам компании, это упрощает работу с крупными базами программного кода и объёмными документами, позволяя модели удерживать значительно больше информации в памяти.

Кроме того, Anthropic усилила интеграцию Claude с Microsoft PowerPoint. Теперь ИИ доступен прямо в интерфейсе приложения для создания презентаций в виде боковой панели. Если раньше пользователь мог лишь сгенерировать презентацию и затем отдельно редактировать файл в PowerPoint, то теперь создание и доработка слайдов происходят непосредственно внутри программы при активной помощи Claude.

По утверждению Anthropic, Opus 4.6 заметно лучше справляется со сложными многошаговыми задачами и чаще выдаёт результат, близкий к «продакшен-качеству», уже с первой попытки. Это особенно заметно при работе с документами, таблицами и презентациями — число итераций и правок при их подготовке существенно сокращается. Среди ключевых сильных сторон модели компания выделяет агентское программирование, работу с инструментами, поиск и финансовую аналитику.

Конечно же, Claude сравнила Opus 4.6 с предшественницей — своей более «лёгкой» моделью Sonnet 4.5, а также с основными конкурентами в лице Google Gemini 3 Pro и OpenAI GPT-5.2. В восьми из тринадцати тестов новинка оказалась впереди.

В интервью TechCrunch Скотт Уайт отметил, что Opus эволюционировал из узкоспециализированного инструмента для разработки ПО в решение, полезное для гораздо более широкого круга специалистов. По его словам, Claude Code активно используют не только программисты, но и продакт-менеджеры, финансовые аналитики и представители других отраслей, которым нужен мощный инструмент для интеллектуальной работы.

Отдельно Anthropic подчёркивает усиленный фокус на безопасности. По словам компании, для Claude Opus 4.6 был проведён самый масштабный набор проверок за всю историю моделей Anthropic. Тестирование включало новые оценки влияния на благополучие пользователей, более сложные сценарии отказа от потенциально опасных запросов, а также обновлённые проверки на способность модели скрытно выполнять вредоносные действия. С учётом возросших возможностей в сфере кибербезопасности Opus 4.6 компания внедрила шесть новых специализированных тестов, призванных отслеживать возможные злоупотребления.

В Anthropic подчёркивают, что Claude Opus 4.6 — это шаг к превращению Claude в универсальный инструмент для широкого спектра интеллектуальной работы, а не только в помощника для программистов.

Anthropic пообещала сохранить Claude без рекламы и высмеяла противоположный подход ChatGPT

Anthropic объявила, что не планирует добавлять рекламу в свой чат-бот с искусственным интеллектом Claude, что резко контрастирует с подтверждёнными планами OpenAI разместить рекламу в ChatGPT. Чтобы ещё больше подчеркнуть это, компания выпустила серию рекламных роликов, высмеивающих неназванных конкурентов, добавляющих рекламу в свои ИИ. Они уже опубликованы на YouTube и будут показаны во время «Супербоула» — финальной игры по американскому футболу.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Мы хотим, чтобы Claude действовал однозначно в интересах наших пользователей, — говорится в блоге Anthropic. — Поэтому мы сделали выбор: Claude останется без рекламы. Наши пользователи не будут видеть спонсируемые ссылки рядом с их разговорами с Claude; ответы Claude также не будут зависеть от рекламодателей или включать размещение сторонних продуктов, которые пользователи не запрашивали».

Anthropic разъяснила, почему включение рекламы «несовместимо с тем, каким мы хотим видеть Claude». По мнению компании, стремление к прибыли может помешать предоставлению наиболее полезных советов пользователю и отвлекать тех, кто использует Claude для работы. Тем не менее, Anthropic не стала сжигать мосты: «Если нам потребуется пересмотреть этот подход, мы будем прозрачны в отношении причин, по которым мы это сделаем».

Изменение политики Anthropic в будущем может выглядеть лицемерно в свете рекламы, выпущенной компанией для продвижения своей позиции во время «Супербоула». Это один из четырёх рекламных роликов, где очеловеченные ИИ вставляют неуместную рекламу прямо посреди своих ответов. Более короткая 30-секундная версия ролика будет показана во время игры в воскресенье, а отдельный минутный ролик с вставляющим рекламные советы во время консультации с ИИ-терапевтом, будет показан во время предматчевого шоу.

Ни в одном из рекламных роликов не упоминается ChatGPT, но направленность их очевидна. В прошлом месяце OpenAI объявила о скором появлении рекламы в ChatGPT для бесплатных пользователей и пользователей более дешёвого тарифа Go, пообещав, что она будет «чётко обозначена» и расположится отдельно от ответов чат-бота.

«Супербоул» — в американском футболе название финальной игры за звание чемпиона Национальной футбольной лиги (НФЛ) Соединённых Штатов Америки, в которой встречаются победители двух конференций лиги — Американской футбольной конференции и Национальной футбольной конференции.

«Мне это нравится! Я смотрю видео без рекламы об искусственном интеллекте без рекламы», — прокомментировал видео один из пользователей, посмотревших его на YouTube.


window-new
Soft
Hard
Тренды 🔥
Anthropic запустила  маркетплейс приложений, построенных на её ИИ-моделях — по примеру Amazon 6 ч.
OpenAI представила ИИ-агента Codex Security, который сам находит и закрывает «дыры» в ПО 6 ч.
Новая статья: Resident Evil Requiem — два шага вперёд, три назад. Рецензия 13 ч.
Nintendo подала в суд на правительство США и потребовала возместить ущерб от пошлин Трампа — «с процентами» 14 ч.
Брутфорс уходит в прошлое: Cloudflare назвала ИИ и дипфейки главной проблемой года 15 ч.
Спецслужбы США и Европола накрыли LeakBase — один из крупнейших хакерских форумов в мире с 142 000 участников 15 ч.
Вышла новая демоверсия Fallout: The New West — фанатского ремейка отменённой Fallout 3 на движке Fallout: New Vegas 18 ч.
Google назвала лучшие ИИ-модели для создания Android-приложений — лидером оказалась Gemini 18 ч.
Гендиректор Microsoft назвал Intel и Apple важными составляющими успеха рэдмондского гиганта 18 ч.
ИИ-бот Claude прирастает миллионом пользователей каждый день после скандального разрыва Anthropic с Пентагоном 19 ч.
Анонсирован смартфон Realme C83 5G с батареей на 7000 мА·ч, прочным корпусом и ценой от $145 7 мин.
BYD представила электромобиль Denza Z9 GT с рекордным запасом хода в 1036 км 4 ч.
Власти США запретят закупку отдельных китайских полупроводниковых изделий для государственных нужд 5 ч.
За ближайшие три года глава Google сможет заработать $692 млн, если бизнес беспилотных такси Waymo пойдёт в гору 5 ч.
Термодинамику научили вычислять — энергоэффективность улетела в космос 12 ч.
Китайцы учат роботов «думать» со скоростью света — кремниевая фотоника набирает обороты 15 ч.
Дефицит — это «просто чудесно», заявил глава Nvidia Дженсен Хуанг 15 ч.
Samsung до конца года выпустит умные очки с камерой и ИИ, которые будут понимать, куда смотрит пользователь 15 ч.
Акции Marvell подскочили после отчёта о росте продаж чипов для ИИ ЦОД 19 ч.
Western Digital заявила, что ёмкость жёстких дисков теперь важнее их количества 19 ч.