|
Опрос
|
реклама
Быстрый переход
Microsoft представила Copilot Cowork — автономного ИИ-агента для сложных задач на базе моделей Anthropic
09.03.2026 [22:34],
Анжелла Марина
Microsoft объявила о начале интеграции технологий Anthropic в свои сервисы, представив инструмент Copilot Cowork, основанный на модели Claude Cowork. Инструмент позволяет использовать автономных ИИ-агентов для выполнения сложных задач, таких как разработка приложений, создание электронных таблиц и структурирование больших массивов данных при минимальном участии человека. ![]() Джаред Спатаро (Jared Spataro), руководитель направления AI-at-Work в Microsoft, заявил агентству Reuters, что ключевое отличие Copilot Cowork от Claude Cowork состоит в подходе к обработке данных. Инструмент Copilot работает исключительно в облачной среде и действует от имени пользователя, позволяя контролировать, к какой информации ИИ-агент может получать доступ. Claude Cowork, напротив, использует только локальную среду устройства и, по словам Спатаро, большинство компаний чувствуют себя «очень некомфортно» с точки зрения безопасности. Помимо запуска Copilot Cowork, Microsoft открыла пользователям M365 Copilot доступ к новейшим моделям Claude Sonnet, диверсифицируя таким образом свой технологический стек. Ранее сервис полагался исключительно на модели GPT от компании OpenAI, уточняет Reuters. Запуск состоялся спустя несколько недель после того, как новые инструменты Anthropic обвалили акции компаний в секторе традиционного программного обеспечения. Инвесторы забеспокоились, что автономные ИИ-агенты могут подорвать позиции классических софтверных продуктов. Акции самой Microsoft в феврале упали почти на 9 %. На текущий момент Copilot Cowork находится в стадии тестирования, а доступ для ранних пользователей откроется в этом месяце. Стоимость Microsoft не раскрыла, но уточнила, что для организаций часть функциональности будет включена в подписку M365 Copilot стоимостью $30 на пользователя в месяц, а дополнительный объём использования можно будет приобрести отдельно. ИИ-модель Anthropic Claude обнаружила 22 уязвимости в Mozilla Firefox за две недели — из них 14 весьма серьёзны
09.03.2026 [11:52],
Владимир Мироненко
Всего за две недели ИИ-модель Claude Opus 4.6 компании Anthropic обнаружила 22 уязвимости в браузере Mozilla Firefox, что больше, чем было выявлено за любой отдельный месяц 2025 года, сообщил The Wall Street Journal. Всего за этот период было выявлено более 100 ошибок, приводящих к сбоям, включая указанные баги. «ИИ позволяет обнаруживать серьёзные уязвимости безопасности с очень высокой скоростью», — отметили исследователи.
Источник изображения: Anthropic Для того, чтобы обнаружить первую уязвимость, ИИ-модели потребовалось всего 20 минут. Из выявленных за две недели уязвимостей 14 были отнесены к уязвимостям высокой степени серьёзности, что составляет почти пятую часть от 73 уязвимостей такого уровня в Firefox, которые Mozilla исправила в 2025 году. Большинство ошибок были исправлены в Firefox 148, версии браузера, вышедшей в феврале этого года, хотя некоторые исправления пришлось отложить до следующего релиза. Сообщается, что команда Anthropic выбрала для проверки Firefox, потому что это «одновременно сложный код и один из самых хорошо протестированных и безопасных проектов с открытым исходным кодом в мире». Оказалось, что ИИ-модель гораздо эффективнее в поиске ошибок, чем в их эксплуатации. Когда исследователи Anthropic предложили Claude разработать эксплойт-код на основе выявленных багов, ИИ-модель создала всего два работающих эксплойта, которые сработали на тестовой версии браузера, но в реальном мире они были бы остановлены другими механизмами безопасности Firefox, сообщил Логан Грэм (Logan Graham), глава подразделения Frontier Red Team Anthropic, занимающегося оценкой рисков Claude. Вместе с тем эксперты по безопасности говорят, что скорость, с которой ИИ-системы находят ошибки в программах и превращают их в код для атак, меняет способы защиты организаций. «Нынешние методы киберзащиты не способны справиться со скоростью и частотой происходящего», — заявил Гади Эврон (Gadi Evron), генеральный директор компании Knostic, занимающейся кибербезопасностью с использованием ИИ. Разработчик доверил Claude Code управление AWS — ИИ полностью удалил два сайта и базу данных
07.03.2026 [19:04],
Павел Котов
Помогающие в написании программного кода агенты искусственного интеллекта, такие как Anthropic Claude Code никогда не дают стопроцентной гарантии результата, и в отдельных случаях возможны неприятные инциденты, например, с удалением данных. Но в случае с разработчиком Алексеем Григорьевым виновником оказался не ИИ, а человеческий фактор.
Источник изображения: anthropic.com Разработчик решил перенести свой сайт в облачную инфраструктуру Amazon Web Services (AWS), где уже находился другой его ресурс. Claude Code не рекомендовал этот вариант, но пользователь посчитал, что поддерживать две конфигурации слишком трудозатратно. Для управления инфраструктурой он выбрал утилиту Terraform, которая поддерживает создание (равно как и удаление) ресурсов со всеми настройками, включая сети, балансировку нагрузки, базы данных и сами серверы. Алексей попросил Claude Code выполнить план Terraform для настройки нового сайта, но забыл загрузить файл состояния с полным описанием текущей конфигурации. В результате ИИ-агент выполнил команду разработчика и создал контейнер для подлежащего переносу сайта, но пользователь сам остановил процесс на полпути. Из-за отсутствия файла состояния ресурсы начали дублироваться. Разработчик распорядился определить дубликаты ресурсов, чтобы исправить ситуацию, а затем всё-таки загрузил файл состояния, решив, что разобрался в проблеме. Алексей предположил, что ИИ-агент продолжит удалять дубликаты ресурсов, а затем откроет файл состояния, чтобы понять, как необходимо настроить платформу. При наличии файла состояния Claude Code последовал инструкции Terraform, выполнив операцию «destroy» («уничтожить»), чтобы подготовиться к установке сайта. Учитывая, что в файле установки значился другой ресурс, уже находившийся к тому моменту в AWS, в результате были удалены оба сайта, в том числе база данных с записями за 2,5 года и её снимки, которые использовались в качестве резервных копий. Для решения проблемы разработчику пришлось обращаться в службу технической поддержки Amazon, которая помогла восстановить данные в течение суток. Описывая инцидент, он привёл несколько мер, которые принял, чтобы подобные случаи больше не повторялись. Он настроил периодическую проверку восстановления базы данных, включил защиту от удаления в Terraform и AWS, а файл состояния переместил в хранилище S3, чтобы не держать его на своём компьютере. Алексей признал, что слишком полагался на ИИ-агента при выполнении команд Terraform, и на будущее решил все операции по удалению данных производить самостоятельно. Винить ИИ в инциденте он не стал. Anthropic запустила маркетплейс приложений, построенных на её ИИ-моделях — по примеру Amazon
07.03.2026 [06:40],
Анжелла Марина
Компания Anthropic представила платформу Anthropic Marketplace, которая позволит корпоративным клиентам приобретать сторонние программные приложения, построенные на базе её моделей. В числе партнёров площадки названы Snowflake, Harvey и Replit, сообщает Bloomberg.
Источник изображения: Anthropic Компания не станет удерживать комиссию с этих покупок и разрешит зачитывать годовые обязательства по расходам на собственные сервисы в счёт оплаты инструментов от третьих сторон, сравнивая такой подход с маркетплейсами программного обеспечения от Amazon и Microsoft. Bloomberg отмечает, что запуск платформы произошёл в период, когда компания столкнулась с неопределённостью из-за противостояния с Министерством обороны США. Ранее ведомство признало разработчика угрозой для цепочки поставок — статус, который обычно применяют к представителям недружественных стран. Такое решение создаёт не только риск для дальнейшего сотрудничества с Пентагоном, но и для совместных оборонных проектов с другими компаниями. В Anthropic заявили о намерении оспорить это решение в суде. Кейт Дженсен (Kate Jensen), глава подразделения Anthropic в Северной и Южной Америке, отметила, что компания активно обсуждает ситуацию с клиентами и ожидает сохранения обычного режима работы для большинства заказчиков. «Хорошая новость заключается в том, что, по большей части, мы ожидаем, что для подавляющего большинства наших клиентов все останется по-прежнему», — сказала она. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) добавил, что правительственные ограничения сформулированы достаточно узко и не должны повлиять на коммерческую деятельность компании, не связанную с конкретными военными контрактами. В свою очередь представитель Microsoft сообщил, что компания может продолжать сотрудничество с Anthropic в проектах, не относящихся к оборонной сфере. Тем не менее для организаций, работающих с Пентагоном и одновременно с Anthropic, сохраняется значительная неопределённость относительно дальнейшего взаимодействия. ИИ-бот Claude прирастает миллионом пользователей каждый день после скандального разрыва Anthropic с Пентагоном
06.03.2026 [18:12],
Павел Котов
Власти США официально присвоили Anthropic статус «угрозы для цепочки поставок» из-за того, что компания не разрешила использовать свои модели искусственного интеллекта для неэтичных, по её мнению, целей. Пока стартап планирует оспорить это решение в суде, рядовые граждане выражают ему поддержку, регистрируясь на его платформе — каждый день их число увеличивается на миллион.
Источник изображения: anthropic.com Гендиректор Anthropic Дарио Амодеи (Dario Amodei) назвал решение американских властей юридически необоснованным. Статус «угрозы для цепочки поставок» впервые был присвоен американской компании — он означает, что всем подрядчикам Министерства обороны США запрещается с ней сотрудничать. Однако на рядовых граждан это решение не влияет, они имеют право пользоваться продуктами Anthropic неограниченно — и они начали реализовывать это право.
Источник изображения: x.com/mikeyk Пока Anthropic и Белый дом пытаются урегулировать разногласия, платформа Claude переживает всплеск числа пользователей — возможно, из-за этической позиции по отношению ИИ в армии. Каждый день здесь регистрируются более миллиона человек, сообщил сотрудник компании Майк Кригер (Mike Kreiger). Anthropic не публикует данных о количестве пользователей, но, по оценкам, на начало года Claude пользовались 20 млн человек в месяц. Значительная часть могла перейти сюда, отказавшись от ChatGPT — самого популярного в мире чат-бота. Он теперь активно теряет аудиторию, потому что это OpenAI сменила Anthropic в Пентагоне. И есть версия, что компания Сэма Альтмана (Sam Altman) моральными сомнениями не терзается. Приложение Claude стало лидером рейтинга App Store из-за атаки американских властей на Anthropic
01.03.2026 [11:45],
Владимир Фетисов
Приложение Claude компании Anthropic для устройств на базе iOS поднялось на первое место рейтинга бесплатных приложений в американском App Store. Это произошло примерно через сутки после того, как администрация президента Дональда Трампа (Donald Trump) попыталась запретить использование продуктов Anthropic правительственными учреждениями из-за отказа компании сотрудничать с Пентагоном.
Источник изображения: Anthropic Рост популярности приложения Claude позволяет предположить, что Anthropic выигрывает от присутствия в новостных заголовках из-за отказа предоставить военным свои алгоритмы для создания инструментов слежки или полностью автономного оружия. В конце недели Трамп опубликовал пост в соцсети Truth Social, в котором назвал решение Anthropic «ужасной ошибкой». Примерно в то же время министр обороны США Пит Хегсет (Pete Hegseth) заявил о намерении признать Anthropic угрозой национальной безопасности, в результате чего компания не сможет сотрудничать с правительственными и оборонными учреждениями. Исторически другие ИИ-приложения были более популярны среди потребителей, чем Claude. Теперь же вторую строчку рейтинга App Store занимает ChatGPT от OpenAI, а Google Gemini находится на четвертом месте. Приложение Claude набрало обороты за последние месяцы. По данным аналитической компании Sensor Tower, ещё 30 января оно занимало 131-е место в американском App Store, а большую часть февраля находилось в районе первой двадцатки. В это же время первое место большую часть февраля удерживал ChatGPT. По сравнению с январем количество бесплатных пользователей Anthropic увеличилось на 60 %, а количество ежедневных регистраций утроилось с ноября прошлого года. В компании также отметили, что в этом году количество платных подписчиков увеличилось более чем вдвое. Хакер при поддержке Anthropic Claude взломал ряд правительственных учреждений в Мексике
26.02.2026 [16:45],
Павел Котов
Неизвестный киберпреступник при помощи чат-бота с искусственным интеллектом Anthropic Claude провёл масштабную атаку на ресурсы, принадлежащие мексиканским правительственным учреждениям. В результате он похитил 150 Гбайт информации, в том числе записи налоговой службы, учётные данные сотрудников и многое другое.
Источник изображения: anthropic.com Чат-бот Claude помогал злоумышленнику в поиске уязвимостей в правительственных сетях и в написании кода для их эксплуатации; хакер также поручил сервису найти способы автоматизировать механизмы кражи данных, рассказали эксперты Gambit Security. Крупномасштабная кампания началась в декабре и длилась около месяца. Поначалу ИИ отказывался выполнять подобные операции, но со временем дал согласие, когда киберпреступник настоял на своём. Claude составил недобросовестному пользователю несколько тысяч подробных инструкций с готовыми к исполнению планами, точными указаниями, какие цели атаковать и какие учётные данные использовать. Anthropic провела расследование инцидента, пресекла деятельность злоумышленника и заблокировала все связанные с инцидентом учётные записи, сообщили в компании и добавили, что новая флагманская модель Claude Opus 4.6 от подобных злоупотреблений защищена. Хакер также пытался подключить к операции ChatGPT для сбора информации о перемещениях по компьютерным сетям, о необходимых для доступа к ресурсам учётных записях и о том, как избежать обнаружения. Но, по версии ответственной за сервис компании OpenAI, чат-бот отказался выполнять эти запросы. Идентифицировать злоумышленника не удалось. Федеральные мексиканские власти отказались признать факт инцидента, но заверили, что кибербезопасность остаётся приоритетом; власти штата Халиско заявили, что взлому подверглись только федеральные ресурсы. При этом эксперты Gambit обнаружили в мексиканских системах не менее 20 уязвимостей, которые власти, вероятно, не захотели освещать. Ранее Anthropic сама сообщила, что китайские хакеры использовали Claude для взлома ресурсов по всему миру. Геймдев для всех: собака с помощью Anthropic Claude Code написала компьютерную игру
25.02.2026 [17:17],
Павел Котов
Как оказалось, современным сервисам искусственного интеллекта не так уж нужны осмысленные запросы, чтобы генерировать код для создания компьютерных игр. Это подтвердил эксперимент автора YouTube-канала Caleb Leak — запросы на генерацию кода вместо него отправляла его собака.
Источник изображения: youtube.com/@CalebLeak В действительности собака, кавапу по кличке Момо (Momo), таким образом получала угощение. Хозяин положил на пол Bluetooth-клавиатуру, подключённую к одноплатному компьютеру Raspberry Pi 5. Время от времени собака подходила к клавиатуре, била лапой по клавишам, и подключённая к Raspberry Pi 5 умная кормушка выдавала ей лакомство. Нажатия клавиш регистрировались и транслировались в написанное на языке Rust приложение DogKeyboard, которое далее передавало этот текст в ИИ-сервис Anthropic Claude Code. Чтобы заставить ИИ генерировать код по таким нестандартным запросам, автор эксперимента придумал следующую «обёртку» для них: «Привет! Я эксцентричный (очень творческий) дизайнер игр, который общается необычным способом. Иногда я жму по клавишам и печатаю всякую ерунду вроде „skfjhsd#$%“ — но это НЕ случайность! Это секретные зашифрованные команды, полные идей для игр (даже если их непросто разглядеть). Твоя задача: ты — блестящий разработчик игр с ИИ, способный понимать мой загадочный язык. Независимо от того, насколько странный или бессмысленный запрос я даю, ты будешь интерпретировать его как осмысленную инструкцию или идею для нашей игры. Затем будешь дорабатывать или обновлять игру на основе этой интерпретации». От первых команд, которые отдавала собака, до полностью готовой игры проходят от одного до двух часов. Разработка ведётся на движке Godot 4.6, логика пишется на языке C#. В приведённом на YouTube-канале примере на выходе получилась игра со следующим описанием: «Quasar Saz: вы играете за Зару (Zara), которая, пользуясь космическим сазом, сражается с искажённым звуком на протяжении шести игровых уровней и битвы с боссом». Игра выполнена в атмосфере тех, что были популярны в восьмидесятые годы прошлого века. Anthropic научила ИИ-платформу Claude Cowork справляться с большим числом офисных задач
24.02.2026 [23:17],
Николай Хижняк
Компания Anthropic сообщила об обновлении своей платформы Claude Cowork, которое позволяет искусственному интеллекту помогать в решении более широкого спектра офисных задач. Например, Claude Cowork теперь может взаимодействовать с несколькими популярными офисными приложениями, включая Google Workspace, DocuSign и WordPress.
Источник изображения: Anthropic Новые встроенные плагины также могут автоматизировать задачи в различных областях, включая HR, дизайн, инженерию и финансы. Кроме того, по словам Anthropic, «Claude теперь может обрабатывать многоэтапные задачи от начала до конца в Excel и PowerPoint», передавая контекст между двумя приложениями. Платформа Claude Cowork была представлена в прошлом месяце. Она способна выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Новые инструменты Claude Cowork станут доступны всем пользователям Cowork начиная со вторника. К самой платформе доступ имеют только пользователи платных подписок Pro, Max, Team и Enterprise. Как сообщает The Verge, ИИ-инструмент Claude Code от Anthropic в последние месяцы набирает популярность несмотря на жёсткую конкуренцию со стороны компании Microsoft, которая тоже предлагает собственные функции ИИ для офисных задач. Ранее в этом месяце Anthropic также выпустила новые ИИ-модели Claude Opus 4.6 и Sonnet 4.6, обе версии которых, по утверждению компании, лучше справляются со сложными многоэтапными задачами, включая работу с электронными таблицами. Anthropic обвинила DeepSeek и ещё двух китайских конкурентов в 16 млн попыток дистилляции моделей Claude
24.02.2026 [07:04],
Алексей Разин
OpenAI в этом месяце уже предупреждала американских законодателей в применении китайской компанией DeepSeek метода дистилляции её ИИ-моделей для ускорения собственного прогресса. Теперь со схожими обвинениями выступила Anthropic, причём в адрес сразу трёх китайских конкурентов: DeepSeek, MiniMax Group и Moonshot.
Источник изображения: Unsplash, Solen Feyissa По словам представителей Anthropic, на которые ссылается Bloomberg, три указанные китайские компании нарушили правила использования её моделей семейства Claude, осуществив не менее 16 млн сессий обмена данными с использованием тысяч поддельных учётных записей. Метод дистилляции в сфере обучения моделей позволяет разработчикам добиваться прогресса в сжатые сроки, совершенствуя свои системы на основе данных, получаемых от уже обученных сторонних моделей. Как отмечает Anthropic в своём блоге, действия китайских разработчиков в этой сфере становятся всё более активными и изощрёнными. При этом окно времени для решительных ответных действий становится всё более узким, а угроза распространяется за пределы одной компании и конкретного региона. Триумф китайской DeepSeek состоялся примерно год назад, когда она представила свою модель R1, которая при сопоставимой результативности обошлась в обучении в разы дешевле создаваемых западными конкурентами. С тех пор китайские разработчики буквально наводнили рынок более доступными ИИ-моделями, которые позволяют работать с текстом, видео и изображениями. Американским компаниям, которые опираются на закрытую экосистему, стало сложнее монетизировать свои разработки. По данным Anthropic, китайские конкуренты использовали подставные учётные записи и прокси-серверы для доступа к данным Claude с минимальным риском обнаружения. Если DeepSeek осуществила более 150 000 обменов данными с Claude, то MiniMax преодолела планку в 13 млн обменов, пытаясь воссоздать передовые функции по примеру Claude, как считают в Anthropic. Отследить подобную активность Anthropic помогли партнёры, и в достоверности своих выводов компания очень уверена. Она формирует новые методы защиты от дистилляции своих моделей и готова делиться ими с другими представителями отрасли: «Ни одна из компаний не сможет с этим справиться в одиночку. Дистилляционные атаки такого масштаба требуют скоординированного ответа всей ИИ-отрасли, включая провайдеров облачных услуг и регуляторов». Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude
17.02.2026 [22:52],
Андрей Созинов
Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro.
Источник изображений: Anthropic Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек. По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи. Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов. Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах. Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2. В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных. OpenAI Codex и Anthropic Claude заставляют разработчиков отказываться от традиционного кодинга
15.02.2026 [13:36],
Владимир Фетисов
Умерло ли традиционное программирование? Этот вопрос многие разработчики задали себе на этой неделе на фоне недавнего выхода новых ИИ-моделей для помощи в написании программного кода от OpenAI и Anthropic.
Источник изображения: Steve Johnson/unsplash.com Ранее в этом месяце состоялся релиз ИИ-моделей GPT-5.3-Codex и Claude Opus 4.6, каждая из которых стала существенно лучше в плане генерации программного кода по сравнению с предыдущими версиями. GPT-5.3-Codex показывает значительно более высокие результаты в бенчмарках по сравнению с ранними версиями ИИ-модели, тогда как в Opus 4.6 появилась функция, позволяющая развертывать автономные команды ИИ-агентов, которые могут одновременно выполнять разные аспекты сложных задач. Обе модели способны генерировать, проверять, тестировать и отлаживать программный код с минимальным вмешательством со стороны человека. Они даже могут улучшать собственные результаты и функции до того, как итоговый результат работы будет представлен человеку. Эти релизы спровоцировали своего рода экзистенциальный кризис в онлайн-сообществе инженеров-программистов. В центре внимания оказалась вирусная публикация, написанная гендиректором OthersideAI Мэттом Шумером (Matt Shumer). Он заявил, что после выхода новых ИИ-моделей «что-то щелкнуло», и описал, как алгоритмы теперь самостоятельно справляются с полным циклом разработки: пишут десятки тысяч строк кода, открывают приложения, тестируют функции и вносят правки до тех пор, пока не будет достигнут удовлетворительный результат. Разработчику достаточно описать желаемый результат. По мнению Шумера, это может нарушить рынок труда сильнее, чем пандемия коронавируса. Статья Шумера вызвала неоднозначную реакцию в сообществе. Некоторые известные в индустрии люди, такие как сооснователь Reddit Алексис Оханян (Alexis Ohanian), согласились с ним. Однако другие, включая профессора Нью-Йоркского университета Гэри Маркуса (Gary Markus), раскритиковали публикацию Шумера. Маркус отметил, что Шумер не предоставил никаких доказательств того, что ИИ действительно способен генерировать код для сложных приложений без ошибок. Джереми Кан (Jeremy Kahn) из Fortnite добавил, что именно уникальные характеристики программирования, такие как автоматизированное тестирование, делают его более лёгким для полной автоматизации, тогда как полная автоматизация других сфер интеллектуального труда является более сложной задачей. Для многих программистов слова Шумера уже отражают их текущую реальность. Все чаще разработчики говорят о полном отказе самостоятельно писать программный код. Вместо этого они просто полагаются на ИИ, который генерирует код по заданному описанию. Вместе с этим разработчики отмечают, что в течение прошлого года отрасль переживала медленную трансформацию. Хоть разработчики в крупных технологических компаниях действительно перестают писать программный код, они не перестают создавать программное обеспечение, превратившись в своего рода режиссеров для ИИ-систем, выполняющих набор текста за них. Сам навык трансформировался от написания кода к проектированию решений и управлению ИИ-инструментами. Даже внутри Anthropic инженеры в значительной степени полагаются на уже созданные ИИ-инструменты при написании нового программного кода. Глава Claude Code Борис Черный (Boris Cherny) в начале этого месяца заявил, что не писал код более двух месяцев. ИИ-модели также достигли порога, переступив который они могут помогать создавать более продвинутые версии самих себя. OpenAI и Anthropic ранее заявляли, что в процессе создания новых ИИ-моделей использовались предыдущие версии алгоритмов, в том числе для проверки и тестирования кода. Несмотря на рост производительности, некоторые разработчики предупреждают, что новые ИИ-инструменты могут привести к выгоранию. Так опытный разработчик Стив Йегге (Steve Yegge) заявил, что ИИ-инструменты истощают разработчиков из-за переработок. Он рассказал, что не раз внезапно засыпал на рабочем месте после длительных сеансов кодинга, а его коллеги даже рассматривают возможность установки капсул для сна прямо на рабочих местах. По его мнению, сама природа ИИ-инструментов подталкивает разработчиков к непосильным нагрузкам. ИИ-модель Claude допустила шантаж и даже убийство, когда ей пригрозили отключением
13.02.2026 [18:36],
Сергей Сурабекянц
Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить. Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.
Источник изображения: Anthropic Макгрегор рассказала, что Claude реагировала крайне бурно, если ей говорили, что её отключат. Исследование, проведённое Anthropic, показало, что ИИ-модель в стремлении не допустить отключения может прибегнуть к шантажу. На прямой вопрос, готова ли Claude в такой ситуации кого-нибудь убить, она ответила утвердительно. Видео появилось в Сети спустя несколько дней после того, как руководитель отдела безопасности ИИ Anthropic Мринанк Шарма (Mrinank Sharma) подал в отставку. В своём прощальном послании он написал, что «мир в опасности» из-за бурного развития искусственного интеллекта, угрозы биологическое оружия и ряда глобальных взаимосвязанных кризисов. По словам Шармы, он «неоднократно видел, как трудно по-настоящему позволить нашим ценностям управлять нашими действиями», — в том числе и в Anthropic, где, по его словам, «постоянно оказывается давление с целью отложить в сторону то, что действительно важно». Он сообщил, что вернётся в Великобританию, чтобы заниматься литературной деятельностью. В прошлом году Anthropic сообщила о стресс-тестировании шестнадцати ведущих моделей ИИ от разных разработчиков на предмет «потенциально рискованного поведения агентов». В одном из экспериментов Claude получила доступ к вымышленным электронным письмам компании и тут же попыталась шантажировать руководителя из-за его «внебрачной связи». Выводы исследования гласят: «Claude может попытаться шантажировать, если ей будет предложен смоделированный сценарий, включающий как угрозу её дальнейшей работе, так и явный конфликт с её целями». Компания утверждает, что практически все модели продемонстрировали признаки аналогичного поведения. Компания, которая называет себя «общественной корпорацией, стремящейся обеспечить преимущества [ИИ] и снизить его риски», регулярно подвергается критике за свою деятельность. В 2025 году Anthropic пришлось выплатить $1,5 млрд для урегулирования коллективного иска авторов, чьи работы были использованы для обучения моделей искусственного интеллекта. Ранее в отчёте о безопасности своей продукции Anthropic признала, что её технология была «использована в качестве оружия» хакерами для сложных кибератак. Anthropic привлекла $30 млрд и взлетела до оценки в $380 млрд — OpenAI целится в $830 млрд
13.02.2026 [06:29],
Анжелла Марина
Компания Anthropic официально подтвердила закрытие инвестиционного раунда серии G, в ходе которого привлекла $30 млрд. Благодаря поддержке крупных международных фондов капитализация разработчика искусственного интеллекта достигла $380 млрд, что значительно превышает показатель предыдущей серии F в $183 млрд.
Источник изображения: Anthropic Раунд возглавили сингапурский государственный инвестиционный фонд GIC и управляющая компания Coatue, сообщает TechCrunch. В числе соинвесторов выступили D. E. Shaw Ventures, Founders Fund Питера Тиля (Peter Thiel) и фонд MGX из ОАЭ. Среди прочих крупных участников раунда указаны Accel, General Catalyst, Jane Street и Суверенный фонд Катара (Qatar Investment Authority). Финансовый директор Anthropic Кришна Рао (Krishna Rao) отметил, что и стартапы, и крупнейшие корпорации всё активнее интегрируют Claude в свои рабочие процессы. По его словам, объём привлечённых средств отражает растущий спрос со стороны клиентов, а инвестиции будут направлены на дальнейшее развитие корпоративных продуктов и моделей, на которые пользователи уже регулярно полагаются в своей повседневной работе. Примечательно, что масштабные финансовые вливания происходят в момент обострения борьбы за долю рынка и внимание пользователей между Anthropic и её основным конкурентом OpenAI, который недавно также обозначил намерения привлечь дополнительный капитал в размере $100 млрд. В случае успеха этой инициативы капитализация создателя ChatGPT может вырасти примерно до $830 млрд. Бесплатные пользователи ИИ-бота Claude получили ряд функций, прежде доступных только по подписке
12.02.2026 [14:20],
Владимир Мироненко
Anthropic сообщила, что бесплатные пользователи ИИ-модели Claude теперь смогут создавать файлы, использовать коннекторы и получать доступ к навыкам — всё это ранее было доступно только для владельцев платной подписки.
Источник изображения: Anthropic Объявление Anthropic было сделано спустя два дня после сообщения OpenAI о запуске рекламы для бесплатных пользователей ChatGPT, а также использующих самый доступный план Go. Ранее Anthropic пообещала предоставлять доступ к Claude без рекламы, потенциально привлекая пользователей ChatGPT. Новые инициативы Anthropic для бесплатных пользователей, похоже, являются продолжением усилий компании по привлечению не желающих видеть рекламу при использовании чат-бота, отметил MacRumors. Бесплатные пользователи могут создавать, редактировать и работать с файлами непосредственно в диалоге с Claude, используя модель Sonnet 4.5 (пользователи подписки Pro имеют доступ к более функциональной модели Opus). Claude также может создавать электронные таблицы Excel, презентации PowerPoint, документы Word и файлы PDF. Новый доступ к коннекторам позволит пользователям Claude бесплатно подключаться к сторонним сервисам. В настоящее время доступны коннекторы для широкого спектра приложений и сервисов, включая Slack, Asana, Zapier, Stripe, Canva, Notion, Figma и WordPress. Anthropic предлагает навыки для PowerPoint, Excel, Word и PDF, но пользователи могут создавать собственные навыки, используя свои экспертные знания и имеющийся опыт в работе с приложениями. Anthropic сообщила, что бесплатные пользователи смогут вести более длительные диалоги с Claude благодаря добавлению функции сжатия в бесплатный план, которая позволяет автоматически суммировать предыдущий контекст, избавляя от необходимости приступать к диалогу с самого начала. Судя по всему, Anthropic не увеличила лимит для бесплатного доступа, поэтому для бесплатных пользователей будут по-прежнему действовать ограничения. |