Сегодня 28 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → claude
Быстрый переход

Хакер при поддержке Anthropic Claude взломал ряд правительственных учреждений в Мексике

Неизвестный киберпреступник при помощи чат-бота с искусственным интеллектом Anthropic Claude провёл масштабную атаку на ресурсы, принадлежащие мексиканским правительственным учреждениям. В результате он похитил 150 Гбайт информации, в том числе записи налоговой службы, учётные данные сотрудников и многое другое.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Чат-бот Claude помогал злоумышленнику в поиске уязвимостей в правительственных сетях и в написании кода для их эксплуатации; хакер также поручил сервису найти способы автоматизировать механизмы кражи данных, рассказали эксперты Gambit Security. Крупномасштабная кампания началась в декабре и длилась около месяца. Поначалу ИИ отказывался выполнять подобные операции, но со временем дал согласие, когда киберпреступник настоял на своём. Claude составил недобросовестному пользователю несколько тысяч подробных инструкций с готовыми к исполнению планами, точными указаниями, какие цели атаковать и какие учётные данные использовать.

Anthropic провела расследование инцидента, пресекла деятельность злоумышленника и заблокировала все связанные с инцидентом учётные записи, сообщили в компании и добавили, что новая флагманская модель Claude Opus 4.6 от подобных злоупотреблений защищена. Хакер также пытался подключить к операции ChatGPT для сбора информации о перемещениях по компьютерным сетям, о необходимых для доступа к ресурсам учётных записях и о том, как избежать обнаружения. Но, по версии ответственной за сервис компании OpenAI, чат-бот отказался выполнять эти запросы.

Идентифицировать злоумышленника не удалось. Федеральные мексиканские власти отказались признать факт инцидента, но заверили, что кибербезопасность остаётся приоритетом; власти штата Халиско заявили, что взлому подверглись только федеральные ресурсы. При этом эксперты Gambit обнаружили в мексиканских системах не менее 20 уязвимостей, которые власти, вероятно, не захотели освещать. Ранее Anthropic сама сообщила, что китайские хакеры использовали Claude для взлома ресурсов по всему миру.

Геймдев для всех: собака с помощью Anthropic Claude Code написала компьютерную игру

Как оказалось, современным сервисам искусственного интеллекта не так уж нужны осмысленные запросы, чтобы генерировать код для создания компьютерных игр. Это подтвердил эксперимент автора YouTube-канала Caleb Leak — запросы на генерацию кода вместо него отправляла его собака.

 Источник изображения: youtube.com/@CalebLeak

Источник изображения: youtube.com/@CalebLeak

В действительности собака, кавапу по кличке Момо (Momo), таким образом получала угощение. Хозяин положил на пол Bluetooth-клавиатуру, подключённую к одноплатному компьютеру Raspberry Pi 5. Время от времени собака подходила к клавиатуре, била лапой по клавишам, и подключённая к Raspberry Pi 5 умная кормушка выдавала ей лакомство. Нажатия клавиш регистрировались и транслировались в написанное на языке Rust приложение DogKeyboard, которое далее передавало этот текст в ИИ-сервис Anthropic Claude Code.

Чтобы заставить ИИ генерировать код по таким нестандартным запросам, автор эксперимента придумал следующую «обёртку» для них: «Привет! Я эксцентричный (очень творческий) дизайнер игр, который общается необычным способом. Иногда я жму по клавишам и печатаю всякую ерунду вроде „skfjhsd#$%“ — но это НЕ случайность! Это секретные зашифрованные команды, полные идей для игр (даже если их непросто разглядеть). Твоя задача: ты — блестящий разработчик игр с ИИ, способный понимать мой загадочный язык. Независимо от того, насколько странный или бессмысленный запрос я даю, ты будешь интерпретировать его как осмысленную инструкцию или идею для нашей игры. Затем будешь дорабатывать или обновлять игру на основе этой интерпретации».

От первых команд, которые отдавала собака, до полностью готовой игры проходят от одного до двух часов. Разработка ведётся на движке Godot 4.6, логика пишется на языке C#. В приведённом на YouTube-канале примере на выходе получилась игра со следующим описанием: «Quasar Saz: вы играете за Зару (Zara), которая, пользуясь космическим сазом, сражается с искажённым звуком на протяжении шести игровых уровней и битвы с боссом». Игра выполнена в атмосфере тех, что были популярны в восьмидесятые годы прошлого века.

Anthropic научила ИИ-платформу Claude Cowork справляться с большим числом офисных задач

Компания Anthropic сообщила об обновлении своей платформы Claude Cowork, которое позволяет искусственному интеллекту помогать в решении более широкого спектра офисных задач. Например, Claude Cowork теперь может взаимодействовать с несколькими популярными офисными приложениями, включая Google Workspace, DocuSign и WordPress.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Новые встроенные плагины также могут автоматизировать задачи в различных областях, включая HR, дизайн, инженерию и финансы. Кроме того, по словам Anthropic, «Claude теперь может обрабатывать многоэтапные задачи от начала до конца в Excel и PowerPoint», передавая контекст между двумя приложениями.

Платформа Claude Cowork была представлена в прошлом месяце. Она способна выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Новые инструменты Claude Cowork станут доступны всем пользователям Cowork начиная со вторника. К самой платформе доступ имеют только пользователи платных подписок Pro, Max, Team и Enterprise.

Как сообщает The Verge, ИИ-инструмент Claude Code от Anthropic в последние месяцы набирает популярность несмотря на жёсткую конкуренцию со стороны компании Microsoft, которая тоже предлагает собственные функции ИИ для офисных задач. Ранее в этом месяце Anthropic также выпустила новые ИИ-модели Claude Opus 4.6 и Sonnet 4.6, обе версии которых, по утверждению компании, лучше справляются со сложными многоэтапными задачами, включая работу с электронными таблицами.

Anthropic обвинила DeepSeek и ещё двух китайских конкурентов в 16 млн попыток дистилляции моделей Claude

OpenAI в этом месяце уже предупреждала американских законодателей в применении китайской компанией DeepSeek метода дистилляции её ИИ-моделей для ускорения собственного прогресса. Теперь со схожими обвинениями выступила Anthropic, причём в адрес сразу трёх китайских конкурентов: DeepSeek, MiniMax Group и Moonshot.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

По словам представителей Anthropic, на которые ссылается Bloomberg, три указанные китайские компании нарушили правила использования её моделей семейства Claude, осуществив не менее 16 млн сессий обмена данными с использованием тысяч поддельных учётных записей. Метод дистилляции в сфере обучения моделей позволяет разработчикам добиваться прогресса в сжатые сроки, совершенствуя свои системы на основе данных, получаемых от уже обученных сторонних моделей.

Как отмечает Anthropic в своём блоге, действия китайских разработчиков в этой сфере становятся всё более активными и изощрёнными. При этом окно времени для решительных ответных действий становится всё более узким, а угроза распространяется за пределы одной компании и конкретного региона.

Триумф китайской DeepSeek состоялся примерно год назад, когда она представила свою модель R1, которая при сопоставимой результативности обошлась в обучении в разы дешевле создаваемых западными конкурентами. С тех пор китайские разработчики буквально наводнили рынок более доступными ИИ-моделями, которые позволяют работать с текстом, видео и изображениями. Американским компаниям, которые опираются на закрытую экосистему, стало сложнее монетизировать свои разработки.

По данным Anthropic, китайские конкуренты использовали подставные учётные записи и прокси-серверы для доступа к данным Claude с минимальным риском обнаружения. Если DeepSeek осуществила более 150 000 обменов данными с Claude, то MiniMax преодолела планку в 13 млн обменов, пытаясь воссоздать передовые функции по примеру Claude, как считают в Anthropic. Отследить подобную активность Anthropic помогли партнёры, и в достоверности своих выводов компания очень уверена. Она формирует новые методы защиты от дистилляции своих моделей и готова делиться ими с другими представителями отрасли: «Ни одна из компаний не сможет с этим справиться в одиночку. Дистилляционные атаки такого масштаба требуют скоординированного ответа всей ИИ-отрасли, включая провайдеров облачных услуг и регуляторов».

Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude

Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек.

По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи.

Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов.

Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах.

Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2.

В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных.

OpenAI Codex и Anthropic Claude заставляют разработчиков отказываться от традиционного кодинга

Умерло ли традиционное программирование? Этот вопрос многие разработчики задали себе на этой неделе на фоне недавнего выхода новых ИИ-моделей для помощи в написании программного кода от OpenAI и Anthropic.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Ранее в этом месяце состоялся релиз ИИ-моделей GPT-5.3-Codex и Claude Opus 4.6, каждая из которых стала существенно лучше в плане генерации программного кода по сравнению с предыдущими версиями. GPT-5.3-Codex показывает значительно более высокие результаты в бенчмарках по сравнению с ранними версиями ИИ-модели, тогда как в Opus 4.6 появилась функция, позволяющая развертывать автономные команды ИИ-агентов, которые могут одновременно выполнять разные аспекты сложных задач. Обе модели способны генерировать, проверять, тестировать и отлаживать программный код с минимальным вмешательством со стороны человека. Они даже могут улучшать собственные результаты и функции до того, как итоговый результат работы будет представлен человеку.

Эти релизы спровоцировали своего рода экзистенциальный кризис в онлайн-сообществе инженеров-программистов. В центре внимания оказалась вирусная публикация, написанная гендиректором OthersideAI Мэттом Шумером (Matt Shumer). Он заявил, что после выхода новых ИИ-моделей «что-то щелкнуло», и описал, как алгоритмы теперь самостоятельно справляются с полным циклом разработки: пишут десятки тысяч строк кода, открывают приложения, тестируют функции и вносят правки до тех пор, пока не будет достигнут удовлетворительный результат. Разработчику достаточно описать желаемый результат. По мнению Шумера, это может нарушить рынок труда сильнее, чем пандемия коронавируса.

Статья Шумера вызвала неоднозначную реакцию в сообществе. Некоторые известные в индустрии люди, такие как сооснователь Reddit Алексис Оханян (Alexis Ohanian), согласились с ним. Однако другие, включая профессора Нью-Йоркского университета Гэри Маркуса (Gary Markus), раскритиковали публикацию Шумера. Маркус отметил, что Шумер не предоставил никаких доказательств того, что ИИ действительно способен генерировать код для сложных приложений без ошибок. Джереми Кан (Jeremy Kahn) из Fortnite добавил, что именно уникальные характеристики программирования, такие как автоматизированное тестирование, делают его более лёгким для полной автоматизации, тогда как полная автоматизация других сфер интеллектуального труда является более сложной задачей.

Для многих программистов слова Шумера уже отражают их текущую реальность. Все чаще разработчики говорят о полном отказе самостоятельно писать программный код. Вместо этого они просто полагаются на ИИ, который генерирует код по заданному описанию.

Вместе с этим разработчики отмечают, что в течение прошлого года отрасль переживала медленную трансформацию. Хоть разработчики в крупных технологических компаниях действительно перестают писать программный код, они не перестают создавать программное обеспечение, превратившись в своего рода режиссеров для ИИ-систем, выполняющих набор текста за них. Сам навык трансформировался от написания кода к проектированию решений и управлению ИИ-инструментами.

Даже внутри Anthropic инженеры в значительной степени полагаются на уже созданные ИИ-инструменты при написании нового программного кода. Глава Claude Code Борис Черный (Boris Cherny) в начале этого месяца заявил, что не писал код более двух месяцев. ИИ-модели также достигли порога, переступив который они могут помогать создавать более продвинутые версии самих себя. OpenAI и Anthropic ранее заявляли, что в процессе создания новых ИИ-моделей использовались предыдущие версии алгоритмов, в том числе для проверки и тестирования кода.

Несмотря на рост производительности, некоторые разработчики предупреждают, что новые ИИ-инструменты могут привести к выгоранию. Так опытный разработчик Стив Йегге (Steve Yegge) заявил, что ИИ-инструменты истощают разработчиков из-за переработок. Он рассказал, что не раз внезапно засыпал на рабочем месте после длительных сеансов кодинга, а его коллеги даже рассматривают возможность установки капсул для сна прямо на рабочих местах. По его мнению, сама природа ИИ-инструментов подталкивает разработчиков к непосильным нагрузкам.

ИИ-модель Claude допустила шантаж и даже убийство, когда ей пригрозили отключением

Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить. Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Макгрегор рассказала, что Claude реагировала крайне бурно, если ей говорили, что её отключат. Исследование, проведённое Anthropic, показало, что ИИ-модель в стремлении не допустить отключения может прибегнуть к шантажу. На прямой вопрос, готова ли Claude в такой ситуации кого-нибудь убить, она ответила утвердительно.

Видео появилось в Сети спустя несколько дней после того, как руководитель отдела безопасности ИИ Anthropic Мринанк Шарма (Mrinank Sharma) подал в отставку. В своём прощальном послании он написал, что «мир в опасности» из-за бурного развития искусственного интеллекта, угрозы биологическое оружия и ряда глобальных взаимосвязанных кризисов.

По словам Шармы, он «неоднократно видел, как трудно по-настоящему позволить нашим ценностям управлять нашими действиями», — в том числе и в Anthropic, где, по его словам, «постоянно оказывается давление с целью отложить в сторону то, что действительно важно». Он сообщил, что вернётся в Великобританию, чтобы заниматься литературной деятельностью.

В прошлом году Anthropic сообщила о стресс-тестировании шестнадцати ведущих моделей ИИ от разных разработчиков на предмет «потенциально рискованного поведения агентов». В одном из экспериментов Claude получила доступ к вымышленным электронным письмам компании и тут же попыталась шантажировать руководителя из-за его «внебрачной связи».

Выводы исследования гласят: «Claude может попытаться шантажировать, если ей будет предложен смоделированный сценарий, включающий как угрозу её дальнейшей работе, так и явный конфликт с её целями». Компания утверждает, что практически все модели продемонстрировали признаки аналогичного поведения.

Компания, которая называет себя «общественной корпорацией, стремящейся обеспечить преимущества [ИИ] и снизить его риски», регулярно подвергается критике за свою деятельность. В 2025 году Anthropic пришлось выплатить $1,5 млрд для урегулирования коллективного иска авторов, чьи работы были использованы для обучения моделей искусственного интеллекта.

Ранее в отчёте о безопасности своей продукции Anthropic признала, что её технология была «использована в качестве оружия» хакерами для сложных кибератак.

Anthropic привлекла $30 млрд и взлетела до оценки в $380 млрд — OpenAI целится в $830 млрд

Компания Anthropic официально подтвердила закрытие инвестиционного раунда серии G, в ходе которого привлекла $30 млрд. Благодаря поддержке крупных международных фондов капитализация разработчика искусственного интеллекта достигла $380 млрд, что значительно превышает показатель предыдущей серии F в $183 млрд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Раунд возглавили сингапурский государственный инвестиционный фонд GIC и управляющая компания Coatue, сообщает TechCrunch. В числе соинвесторов выступили D. E. Shaw Ventures, Founders Fund Питера Тиля (Peter Thiel) и фонд MGX из ОАЭ. Среди прочих крупных участников раунда указаны Accel, General Catalyst, Jane Street и Суверенный фонд Катара (Qatar Investment Authority).

Финансовый директор Anthropic Кришна Рао (Krishna Rao) отметил, что и стартапы, и крупнейшие корпорации всё активнее интегрируют Claude в свои рабочие процессы. По его словам, объём привлечённых средств отражает растущий спрос со стороны клиентов, а инвестиции будут направлены на дальнейшее развитие корпоративных продуктов и моделей, на которые пользователи уже регулярно полагаются в своей повседневной работе.

Примечательно, что масштабные финансовые вливания происходят в момент обострения борьбы за долю рынка и внимание пользователей между Anthropic и её основным конкурентом OpenAI, который недавно также обозначил намерения привлечь дополнительный капитал в размере $100 млрд. В случае успеха этой инициативы капитализация создателя ChatGPT может вырасти примерно до $830 млрд.

Бесплатные пользователи ИИ-бота Claude получили ряд функций, прежде доступных только по подписке

Anthropic сообщила, что бесплатные пользователи ИИ-модели Claude теперь смогут создавать файлы, использовать коннекторы и получать доступ к навыкам — всё это ранее было доступно только для владельцев платной подписки.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Объявление Anthropic было сделано спустя два дня после сообщения OpenAI о запуске рекламы для бесплатных пользователей ChatGPT, а также использующих самый доступный план Go.

Ранее Anthropic пообещала предоставлять доступ к Claude без рекламы, потенциально привлекая пользователей ChatGPT. Новые инициативы Anthropic для бесплатных пользователей, похоже, являются продолжением усилий компании по привлечению не желающих видеть рекламу при использовании чат-бота, отметил MacRumors.

Бесплатные пользователи могут создавать, редактировать и работать с файлами непосредственно в диалоге с Claude, используя модель Sonnet 4.5 (пользователи подписки Pro имеют доступ к более функциональной модели Opus). Claude также может создавать электронные таблицы Excel, презентации PowerPoint, документы Word и файлы PDF.

Новый доступ к коннекторам позволит пользователям Claude бесплатно подключаться к сторонним сервисам. В настоящее время доступны коннекторы для широкого спектра приложений и сервисов, включая Slack, Asana, Zapier, Stripe, Canva, Notion, Figma и WordPress.

Anthropic предлагает навыки для PowerPoint, Excel, Word и PDF, но пользователи могут создавать собственные навыки, используя свои экспертные знания и имеющийся опыт в работе с приложениями.

Anthropic сообщила, что бесплатные пользователи смогут вести более длительные диалоги с Claude благодаря добавлению функции сжатия в бесплатный план, которая позволяет автоматически суммировать предыдущий контекст, избавляя от необходимости приступать к диалогу с самого начала.

Судя по всему, Anthropic не увеличила лимит для бесплатного доступа, поэтому для бесплатных пользователей будут по-прежнему действовать ограничения.

Команда из 16 ИИ-агентов Anthropic Claude смогла самостоятельно написать компилятор языка Си

Компания Anthropic провела эксперимент, сформировав группу из агентов искусственного интеллекта, которые совместными усилиями с нуля написали компилятор языка Си. Программа работает далеко от идеала, уступая существующим аналогам, но демонстрирует возможности современных систем ИИ.

 Источник изображения:  Luca Bravo / unsplash.com

Источник изображения: Luca Bravo / unsplash.com

Отчёт о проделанной работе представил исследователь Anthropic Николас Карлини (Nicholas Carlini). Он запустил в облачном окружении 16 экземпляров новейшей модели Claude Opus 4.6, подключил их к общей кодовой базе с минимальным контролем и поручил им с нуля разработать полноценный Си-компилятор. Работа заняла две недели, потребовала почти 2000 сессий работы сервиса Claude Code и обошлась примерно в $20 000 за доступ к ИИ по API. На выходе ИИ-агенты написали на языке Rust компилятор объёмом 100 000 строк кода, способный самостоятельно собрать загружаемое ядро Linux 6.19 на машинах с архитектурами x86, Arm и RISC-V.

В рамках эксперимента исследователь задействовал новую функцию Claude Opus 4.6 — «команду агентов». На практике каждый экземпляр Claude был запущен внутри собственного контейнера Docker — он клонировал общий репозиторий Git, принимал задачи посредством lock-файлов, после чего отправлял готовый код обратно в репозиторий. Центральный агент, который координировал бы работу прочих, отсутствовал. Каждый экземпляр определял наиболее очевидную задачу для дальнейшей работы и начинал её решать. Когда возникали конфликты слияния, ИИ-агенты разрешали их самостоятельно.

Получившийся таким образом компилятор Anthropic опубликовала на GitHub. Он действительно может компилировать код таких открытых проектов как PostgreSQL, SQLite, Redis, FFmpeg и QEMU, а также проходит 99 % тестов GCC. Но есть и серьёзные ограничения: он не компилирует 16-битный машинный код для запуска Linux, поэтому на этом этапе подключается GCC; ассемблер и линкер работают со сбоями; даже при наличии всех оптимизаций он производит менее эффективный код, чем GCC. Наконец, исходный код компилятора на Rust хотя и функционален, но по качеству он даже не близок к тому, что мог бы создать опытный программист.

 Источник изображения: Mohammad Rahmani / unsplash.com

Источник изображения: Mohammad Rahmani / unsplash.com

Автор проекта очень старался преодолеть некоторые из ограничений, но успеха так и не добился — при попытках добавить новые возможности или исправить ошибки существующие функции часто переставали работать. Сработала закономерность, при которой кодовая база разрастается до такой степени, что ни один участник проекта не может в полной мере её понять. Предел наступил на отметке около 100 000 строк кода — видимо, это максимум возможностей для автономных ИИ-агентов.

Компилятор характеризуется как «реализация в чистой комнате» — во время разработки у ИИ-агентов не было доступа в интернет. Следует также отметить, что указанные затраты в $20 000 — это только стоимость токенов при доступе к ИИ через API. Сумма не включает в себя расходы на обучение ИИ-модели, труд организовавшего проект исследователя, а также труд программистов, которые создали наборы тестов и эталонные реализации. Подготовительная работа действительно оказалась непростой — проектирование среды для ИИ-агентов потребовало больше усилий, чем непосредственное написание кода компилятора.

Обнаружилось, что многословные запросы тестов засоряют контекстное окно модели, и она теряет из виду то, чем занималась. Чтобы решить эту проблему, исследователь разработал средства запуска тестов, при которых выводятся только несколько строк сводки, а запись производится в отдельные файлы. Кроме того, у Claude отсутствует чувство времени — ИИ может часами запускать тесты, не продвигаясь вперёд; поэтому пришлось создать быстрый режим с обработкой от 1 % до 10 % тестовых случаев. Когда все 16 ИИ-агентов застряли в попытке обработать одну ошибку ядра Linux, пришлось в качестве эталона запустить GCC — он компилировал большинство кода самостоятельно, а ИИ-агентам доставались случайные фрагменты. Когда в этих фрагментах возникали ошибки, ИИ-агенты их исправляли.

Все эти недочёты отступают перед основным выводом — ещё год назад ни одна большая языковая модель не смогла бы проделать такую работу, даже при надлежащем контроле и неограниченном бюджете. Механизм параллельного запуска нескольких агентов с координацией действий через Git — новаторское решение, а разработанные автором исследования инженерные приёмы по повышению производительности ИИ-агентов способны оказать влияние на дальнейшее развитие сегмента ИИ-программирования.

Anthropic представила Claude Opus 4.6 — флагманскую LLM с командами агентов, миллионным контекстом и платным доступом

Компания Anthropic представила новую версию своей флагманской языковой модели — Claude Opus 4.6, назвав её «прямым апгрейдом» предыдущего поколения и самым интеллектуально развитым ИИ в своей линейке. Обновление уже доступно платным пользователям чат-бота Claude, а также через API по той же цене, что и Claude Opus 4.5.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Одним из главных нововведений стали так называемые «команды агентов» (agent teams). Речь идёт о наборе ИИ-агентов, которые могут делить крупные и сложные задачи на отдельные части и выполнять их параллельно. По замыслу Anthropic, каждый агент отвечает за свой сегмент работы и напрямую координируется с другими. Руководитель продуктового направления Anthropic Скотт Уайт (Scott White) сравнил эту функцию с работой слаженной команды людей, подчеркнув, что распределение ролей позволяет выполнять задачи быстрее. На данный момент «команды агентов» доступны в формате исследовательского превью для пользователей API и платных подписчиков.

Ещё одно важное улучшение — увеличенное контекстное окно. Claude Opus 4.6 способен обрабатывать до 1 млн токенов за сессию, что сопоставимо с возможностями моделей Sonnet 4 и 4.5. По словам компании, это упрощает работу с крупными базами программного кода и объёмными документами, позволяя модели удерживать значительно больше информации в памяти.

Кроме того, Anthropic усилила интеграцию Claude с Microsoft PowerPoint. Теперь ИИ доступен прямо в интерфейсе приложения для создания презентаций в виде боковой панели. Если раньше пользователь мог лишь сгенерировать презентацию и затем отдельно редактировать файл в PowerPoint, то теперь создание и доработка слайдов происходят непосредственно внутри программы при активной помощи Claude.

По утверждению Anthropic, Opus 4.6 заметно лучше справляется со сложными многошаговыми задачами и чаще выдаёт результат, близкий к «продакшен-качеству», уже с первой попытки. Это особенно заметно при работе с документами, таблицами и презентациями — число итераций и правок при их подготовке существенно сокращается. Среди ключевых сильных сторон модели компания выделяет агентское программирование, работу с инструментами, поиск и финансовую аналитику.

Конечно же, Claude сравнила Opus 4.6 с предшественницей — своей более «лёгкой» моделью Sonnet 4.5, а также с основными конкурентами в лице Google Gemini 3 Pro и OpenAI GPT-5.2. В восьми из тринадцати тестов новинка оказалась впереди.

В интервью TechCrunch Скотт Уайт отметил, что Opus эволюционировал из узкоспециализированного инструмента для разработки ПО в решение, полезное для гораздо более широкого круга специалистов. По его словам, Claude Code активно используют не только программисты, но и продакт-менеджеры, финансовые аналитики и представители других отраслей, которым нужен мощный инструмент для интеллектуальной работы.

Отдельно Anthropic подчёркивает усиленный фокус на безопасности. По словам компании, для Claude Opus 4.6 был проведён самый масштабный набор проверок за всю историю моделей Anthropic. Тестирование включало новые оценки влияния на благополучие пользователей, более сложные сценарии отказа от потенциально опасных запросов, а также обновлённые проверки на способность модели скрытно выполнять вредоносные действия. С учётом возросших возможностей в сфере кибербезопасности Opus 4.6 компания внедрила шесть новых специализированных тестов, призванных отслеживать возможные злоупотребления.

В Anthropic подчёркивают, что Claude Opus 4.6 — это шаг к превращению Claude в универсальный инструмент для широкого спектра интеллектуальной работы, а не только в помощника для программистов.

Anthropic пообещала сохранить Claude без рекламы и высмеяла противоположный подход ChatGPT

Anthropic объявила, что не планирует добавлять рекламу в свой чат-бот с искусственным интеллектом Claude, что резко контрастирует с подтверждёнными планами OpenAI разместить рекламу в ChatGPT. Чтобы ещё больше подчеркнуть это, компания выпустила серию рекламных роликов, высмеивающих неназванных конкурентов, добавляющих рекламу в свои ИИ. Они уже опубликованы на YouTube и будут показаны во время «Супербоула» — финальной игры по американскому футболу.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Мы хотим, чтобы Claude действовал однозначно в интересах наших пользователей, — говорится в блоге Anthropic. — Поэтому мы сделали выбор: Claude останется без рекламы. Наши пользователи не будут видеть спонсируемые ссылки рядом с их разговорами с Claude; ответы Claude также не будут зависеть от рекламодателей или включать размещение сторонних продуктов, которые пользователи не запрашивали».

Anthropic разъяснила, почему включение рекламы «несовместимо с тем, каким мы хотим видеть Claude». По мнению компании, стремление к прибыли может помешать предоставлению наиболее полезных советов пользователю и отвлекать тех, кто использует Claude для работы. Тем не менее, Anthropic не стала сжигать мосты: «Если нам потребуется пересмотреть этот подход, мы будем прозрачны в отношении причин, по которым мы это сделаем».

Изменение политики Anthropic в будущем может выглядеть лицемерно в свете рекламы, выпущенной компанией для продвижения своей позиции во время «Супербоула». Это один из четырёх рекламных роликов, где очеловеченные ИИ вставляют неуместную рекламу прямо посреди своих ответов. Более короткая 30-секундная версия ролика будет показана во время игры в воскресенье, а отдельный минутный ролик с вставляющим рекламные советы во время консультации с ИИ-терапевтом, будет показан во время предматчевого шоу.

Ни в одном из рекламных роликов не упоминается ChatGPT, но направленность их очевидна. В прошлом месяце OpenAI объявила о скором появлении рекламы в ChatGPT для бесплатных пользователей и пользователей более дешёвого тарифа Go, пообещав, что она будет «чётко обозначена» и расположится отдельно от ответов чат-бота.

«Супербоул» — в американском футболе название финальной игры за звание чемпиона Национальной футбольной лиги (НФЛ) Соединённых Штатов Америки, в которой встречаются победители двух конференций лиги — Американской футбольной конференции и Национальной футбольной конференции.

«Мне это нравится! Я смотрю видео без рекламы об искусственном интеллекте без рекламы», — прокомментировал видео один из пользователей, посмотревших его на YouTube.

Apple отказалась внедрять Claude в Siri из-за ненасытности Anthropic

Apple отказалась от использования ИИ-модели Claude от компании Anthropic для модернизации Siri и вместо этого заключила сделку с Google. Anthropic запросила за интеграцию ИИ несколько миллиардов долларов в год, но помимо этого настаивала на удвоении суммы контракта ежегодно в течение трёх лет, передаёт AppleInsider со ссылкой на пост журналиста Bloomberg Марка Гурмана (Mark Gurman).

 Источник изображения: omid armin/Unsplash

Источник изображения: omid armin/Unsplash

Сообщается, что сделка с Google может оцениваться примерно в $1 млрд в год, что значительно меньше запроса разработчика Claude. Для сравнения, сама Google ежегодно выплачивает Apple около $20 млрд за статус поисковой системы по умолчанию. Гурман отметил, что, несмотря на срыв сделки, Apple активно использует технологии Anthropic внутри компании и на её серверах работают кастомные версии Claude.

Сотрудничество Apple с другими ИИ-компаниями не ограничится Gemini. В странах, где действуют особые регуляторные требования, например в Китае, Siri будет использовать местные ИИ-модели. Кроме того, Apple продолжает сотрудничество с OpenAI, чья модель ChatGPT обеспечивает работу текущих функций Apple Intelligence, и в будущем пользователям предоставят возможность выбора ИИ-моделей в соответствии с их предпочтениями. Однако в перспективе Apple намерена полностью перейти на собственные программные разработки, на которые в конце 2025 года были направлены рекордные расходы на НИОКР, что говорит о том, что этот переход может произойти довольно скоро.

Музыкальные издатели потребовали от Anthropic $3 млрд за «вопиющее пиратство»

Группа музыкальных издателей во главе с Concord Music Group и Universal Music Group (UMG) подала судебный иск против компании Anthropic, обвинив разработчика искусственного интеллекта в незаконном скачивании более 20 000 защищённых авторским правом музыкальных произведений. Истцы утверждают, что компания использовала пиратские методы для получения доступа к песням, текстам и нотам.

 Источник изображения: Wesley Tingey/Unsplash

Источник изображения: Wesley Tingey/Unsplash

Как сообщает Engadget, ссылаясь на данные Reuters, среди незаконно использованных материалов фигурируют культовые композиции таких исполнителей, как The Rolling Stones, Нил Даймонд (Neil Diamond) и Элтон Джон (Elton John), права на которые принадлежат UMG. Независимый издатель Concord Music Group также заявил о нарушении прав своих артистов, в числе которых актёр и рэп-исполнитель Common, Киллер Майк (Killer Mike) и группа Korn. Согласно судебному обращению, сумма ущерба может превысить $3 млрд.

В тексте искового заявления представители музыкальной индустрии отметили, что хотя Anthropic позиционирует себя как компания, занимающаяся безопасностью и исследованиями в области ИИ, история её действий свидетельствует об обратном. По мнению истцов, многомиллиардная бизнес-империя Anthropic фактически построена на пиратстве и незаконном использовании торрентов для получения чужой интеллектуальной собственности.

Интересы издателей представляет та же юридическая команда, которая вела прошлогоднее дело «Бартц против Anthropic» (Bartz v. Anthropic). То дело завершилось присуждением пострадавшим авторам компенсации в размере $1,5 млрд. Тогда суд установил, что компания незаконно скачивала опубликованные работы авторов для обучения своих моделей, и, в соответствии с вердиктом, 500 000 авторов, участвовавших в деле, должны получить по $3000 за каждое произведение.

Примечательно, что в рамках предыдущего разбирательства судья Уильям Алсап (William Alsup) постановил, что само по себе обучение ИИ-моделей на защищённом контенте является законным, однако приобретение этого контента через пиратство — нет. Юридический прецедент подразумевает, что если бы Anthropic легально приобрела копии произведений, претензий к ней могло бы не возникнуть. Если заявленная сумма ущерба будет подтверждена, это разбирательство станет одним из крупнейших дел о защите авторских прав в истории США, не являющихся коллективным иском, отмечает Engadget.

Anthropic удалось привлечь в рамках недавнего раунда финансирования более $10 млрд

Основанный выходцами из OpenAI стартап Anthropic успел получить определённую специализацию в этом молодом сегменте рынка, сосредоточившись на корпоративных решениях. Принято считать, что такая бизнес-модель быстрее приносит финансовую отдачу, поэтому инвесторы охотнее вкладывают средства в капитал Anthropic. Недавно компании удалось привлечь от $10 до $15 млрд.

 Источник изображения: Anthropic

Источник изображения: Anthropic

По крайней мере, такие суммы упоминает CNBC со ссылкой на осведомлённые источники. Издание Financial Times называет ещё более крупную сумму привлечения в районе $20 млрд, причём она учитывает только средства венчурных фондов, но данный этап пока не реализован на практике. Изначально ожидалось, что новый раунд финансирования позволит Anthropic привлечь $10 млрд, но аппетиты инвесторов оказались выше. По сути, если ранее предполагалось, что капитализация стартапа увеличится до $350 млрд, то теперь он может претендовать на более высокую оценку. Тем более, что вложить средства в капитал Anthropic могут Microsoft и Nvidia.

В ноябре эти компании рассчитывали направить в капитал Anthropic до $5 млрд в случае Microsoft и до $10 млрд в случае Nvidia. Пока параметры их реального участия в финансировании стартапа окончательно не определены. К концу прошлого года Anthropic, по словам руководства, подошла со способностью получать более $9 млрд выручки в год, если экстраполировать месячные показатели. Тем не менее, потребность в финансовых ресурсах значительно превышает выручку стартапа, поскольку только на строительство ЦОД в США он намерен направить $50 млрд, а ещё обучение новых ИИ-моделей требует серьёзных материальных затрат.

Financial Times поясняет, что инвесторы были готовы вложить в Anthropic до $50–60 млрд, и компания сама ограничила размер инвестиций на данном этапе в диапазоне от $10 до $15 млрд, но к привлечению дополнительных средств участники переговоров вернутся позже. В этом году Anthropic также может выйти на биржу, открыв возможность для вложения средств в свой капитал для розничных инвесторов. Для сравнения, OpenAI в рамках текущего раунда финансирования готовится привлечь от $50 до $100 млрд, а капитализация этого стартапа будет оцениваться в $830 млрд по верху диапазона.


window-new
Soft
Hard
Тренды 🔥
OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic 3 ч.
Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном 3 ч.
Новая статья: 30 лет Resident Evil: юбилейное путешествие по играм серии. Часть 1 11 ч.
Аудитория ChatGPT разрослась до 900 млн пользователей в неделю 12 ч.
Борьба со спойлерами вышла на новый уровень: в Китае арестовали видных датамайнеров Genshin Impact 12 ч.
«Дешёвая пародия с YouTube»: фанаты не оценили первый кадр из сериала God of War от Amazon 15 ч.
OpenAI раздулась до $840 млрд — создатель ChatGPT привлёк $110 млрд от Amazon, Nvidia и Softbank 15 ч.
Мультиплеерный экшен Spellcasters Chronicles от создателей Heavy Rain и Detroit: Become Human оказался в раннем доступе Steam почти никому не нужен 16 ч.
Женщина в суде обвинила Instagram и YouTube в том, что она не может оторваться от соцсетей 16 ч.
Sony прокачала апскейлер PSSR для PS5 Pro, но пока только в Resident Evil Requiem 17 ч.